Matemáticas Avanzadas y Maxima
Matemáticas Avanzadas y Maxima
r
Diferenciales Ordinarias,
a
con aplicaciones en Maxima
in
H. Hernández
Departamento de Fı́sica, Facultad de Ciencias,
m
Universidad de Los Andes, Mérida-Venezuela
L. A. Núñez
eli
Escuela de Fı́sica, Facultad de Ciencias,
Universidad Industrial de Santander, Bucaramanga-Colombia
24 de noviembre de 2019
Pr
or
ad
rr
Bo
Índice general
a r
in
1. Variable Compleja 10
m
1.1. Funciones de Variable Compleja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.1. De la recta real al plano complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.2. Continuidad en el plano complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.3. Diferenciabilidad de funciones complejas . . . . . . . . . . . . . . . . . . . . . . . . . . 12
eli
1.1.4. Funciones analı́ticas y condiciones de Cauchy-Riemann . . . . . . . . . . . . . . . . . . 12
1.1.5. Curiosidades de Cauchy-Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.1.7. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.1.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Pr
1.2. Puntos, lı́neas de corte y ceros de funciones complejas . . . . . . . . . . . . . . . . . . . . . . 21
1.2.1. Puntos y lı́neas de corte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.2. Singularidades, polos y ceros de funciones complejas . . . . . . . . . . . . . . . . . . . 23
1.2.3. Transformaciones conformes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2.4. Algunas consecuencias y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.2.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.2.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
or
1.2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.3. Integrales complejas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.3.1. Algunas propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.3.2. Teorema integral de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
ad
1.3.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2. Series I 50
2.1. Sucesiones y Series . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
Bo
2
ÍNDICE GENERAL
r
2.2.2. Criterio de Comparación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
a
2.2.3. Criterio de la Raı́z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.2.4. Criterio de d’Alembert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.2.5. Criterio de la Integral de Maclaurin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
in
2.2.6. Series alternantes y convergencia condicional . . . . . . . . . . . . . . . . . . . . . . . 79
2.2.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.2.8. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.2.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
m
2.3. Series de funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.3.1. Series de potencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.3.2. Convergencia de una serie de potencias . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.3.3. Convergencia uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
eli
2.3.4. Criterio Mayorante de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2.3.5. Criterio de Abel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
2.3.6. Nota sobre el algebra de series de potencias . . . . . . . . . . . . . . . . . . . . . . . . 88
2.3.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Pr
2.3.8. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2.3.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2.4. Serie de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.4.1. Algunas series de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
2.4.2. La expansión binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2.4.3. Sobre la función Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
2.4.4. Taylor en varias variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
or
2.4.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
2.4.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
2.4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
2.5. Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
ad
3
ÍNDICE GENERAL
3. Series II 111
3.1. Series y espacios de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.1.1. Completitud de E ∞ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.1.2. Conjunto completo de funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3.1.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.1.4. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.1.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.2. Series de Laurent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.2.1. Series de Taylor para funciones analı́ticas . . . . . . . . . . . . . . . . . . . . . . . . . 115
r
3.2.2. Las series de Laurent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
a
3.2.3. Integración por el método de los residuos: los residuos de Laurent . . . . . . . . . . . . 119
3.2.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
3.2.5. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
in
3.2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3.3. Teorema del Residuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3.3.1. Integrales impropias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3.3.2. Evaluación de integrale realesRe impropias . . . . . . . . . . . . . . . . . . . . . . . . . 123
m
∞
3.3.3. Integrales impropias del tipo −∞ dx f (x) . . . . . . . . . . . . . . . . . . . . . . . . . 124
3.3.4. Integrales de funciones racionales de cos θ y sen θ . . . . . . . . . . . . . . . . . . . . . 125
3.3.5. Integrales de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
3.3.6. Otras integrales impropias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
eli
3.3.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
3.3.8. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
3.3.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
3.4. Tranformadas de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Pr
3.4.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
3.4.2. Funciones pares e impares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
3.4.3. Bases discreta y contı́nuas: la base de ondas planas . . . . . . . . . . . . . . . . . . . . 132
3.4.4. Tranformadas discretas de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
3.4.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
3.4.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
3.4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
or
4. PolinomiosOrtogonales 137
4.1. Series de Polinomios Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.1.1. Polinomios de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
ad
4
ÍNDICE GENERAL
r
4.2.3. Ejemplos de Polinomios Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
a
4.2.4. Relaciones de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
4.2.5. Función generatriz generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
4.2.6. Ecuación diferencial para los Polinomios Ortogonales . . . . . . . . . . . . . . . . . . . 159
in
4.2.7. Aplicaciones para los polinomios ortogonales . . . . . . . . . . . . . . . . . . . . . . . 159
4.2.8. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
4.2.9. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
4.2.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
m
5. Ecuaciones diferenciales ordinarias 166
5.1. Motivación, origen y conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
5.1.1. Un ejemplo emblemático . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
eli
5.1.2. Ejemplos de algunas ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . 172
5.1.3. De ecuaciones y ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . 173
5.1.4. Orden y linealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
5.1.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Pr
5.1.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
5.1.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
5.2. Sobre las soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
5.2.1. Soluciones explı́citas e implı́citas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
5.2.2. Soluciones generales y particulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
5.2.3. Familia de soluciones n−paramétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
5.2.4. Solución particular, valores iniciales y valores de contorno . . . . . . . . . . . . . . . . 176
or
5
ÍNDICE GENERAL
r
6.2.1. Las ideas generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
a
6.2.2. Métodos y su clasificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
6.2.3. La idea de la integración y los métodos . . . . . . . . . . . . . . . . . . . . . . . . . . 214
6.2.4. El método de Euler y el problema de valores iniciales . . . . . . . . . . . . . . . . . . . 215
in
6.2.5. Los métodos de Runge-Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
6.2.6. Métodos multipaso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
6.2.7. Control del paso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
6.2.8. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
m
6.2.9. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
6.2.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
6.3. Algunas aplicaciones de ecuaciones diferenciales de primer orden . . . . . . . . . . . . . . . . 223
6.3.1. Ley de Malthus y el decaimiento radioactivo . . . . . . . . . . . . . . . . . . . . . . . . 223
eli
6.3.2. La ecuación logı́stica o ley de Verhulst . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
6.3.3. La Ley de enfriamiento de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
6.3.4. Interés compuesto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
6.3.5. Mecánica elemental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
Pr
6.3.6. Movimientos con aceleración constante . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
6.3.7. Modelado de concentraciones de soluciones . . . . . . . . . . . . . . . . . . . . . . . . 232
6.3.8. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
6.3.9. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
6.3.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
6
ÍNDICE GENERAL
r
7.4.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
a
7.4.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
7.4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
7.5. Ecuaciones diferenciales y las transformadas de Laplace . . . . . . . . . . . . . . . . . . . . . 267
in
7.5.1. Algunas definiciones previas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
7.5.2. Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
7.5.3. Transformadas de Laplace y las ecuaciones diferenciales lineales . . . . . . . . . . . . . 268
7.5.4. Integral de Convolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
m
7.5.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
7.5.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
7.5.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
7.6. Algunas aplicaciones de las ecuaciones de orden superior . . . . . . . . . . . . . . . . . . . . . 275
eli
7.6.1. Mecánica y Electricidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
7.6.2. Oscilaciones libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
7.6.3. Oscilaciones libres amortiguadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
7.6.4. Oscilaciones forzadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
Pr
7.6.5. Oscilaciones forzadas amortiguadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
7.6.6. Movimiento alrededor de un punto de equilibrio . . . . . . . . . . . . . . . . . . . . . . 284
7.6.7. Péndulo simple con desplazamiento finito . . . . . . . . . . . . . . . . . . . . . . . . . 285
7.6.8. Digresión elı́ptica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
7.6.9. ¿Cuán buena es la aproximación lineal? . . . . . . . . . . . . . . . . . . . . . . . . . . 294
7.6.10. El péndulo fı́sico: integración numérica . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
7.6.11. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
or
7
ÍNDICE GENERAL
r
9.1.4. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
9.1.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
a
9.2. Los Puntos y las Estrategias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
9.2.1. Ecuaciones e intervalos en puntos regulares . . . . . . . . . . . . . . . . . . . . . . . . 327
in
9.2.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
9.2.3. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
9.2.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
9.3. El Método de Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
m
9.3.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
9.3.2. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
9.3.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
9.4. Revisitando a Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343
eli
9.4.1. Otras formas de la ecuación de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . 348
9.4.2. Relaciones de recurrencia: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
9.4.3. Funciones de Bessel y las funciones elementales . . . . . . . . . . . . . . . . . . . . . . 349
9.4.4. Reflexión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
Pr
9.4.5. Función generatriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
9.4.6. Representación integral para las funciones de Bessel . . . . . . . . . . . . . . . . . . . 351
9.4.7. Ortogonalidad de las funciones de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . 352
9.4.8. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
9.4.9. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
9.4.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
or
8
ÍNDICE GENERAL
[Link]́ndice 376
12.1. Introducción a los CAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377
12.2. Maxima: Sintaxis básica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
12.2.1. Cálculos elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381
r
12.2.2. Bibliotecas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392
12.2.3. Maxima en modo texto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396
a
12.2.4. Invocando la ayuda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
12.2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398
in
m
eli
Pr
or
ad
rr
Bo
9
Capı́tulo 1
ar
Variable Compleja
in
m
eli
Pr
or
ad
rr
Bo
10
1.1. FUNCIONES DE VARIABLE COMPLEJA
r
todos los órdenes) y con infinitas derivadas. Esta noción se puede extender a cálculo en variable compleja
pero con otras propiedades.
a
En variable compleja, las funciones infinitamente diferenciables, en una región abierta siempre son analı́ti-
cas, y se denominan funciones holomorfas. Es decir, toda función holomorfa permite una representación en
in
serie de potencias en algún disco abierto donde la serie converge a la función. Si la serie de potencias converge
en todo el plano complejo se dice que la función es una función entera. Recordemos que no toda función de
variable real infinitamente derivable es necesariamente analı́tica. En otras palabras, toda función holomorfa
cumple con la definición de función analı́tica pero no toda función analı́tica es holomorfa.
m
El cálculo en variable compleja surge de manera natural en diferentes ramas de la matemática aplicada,
la mecánica cuántica, geometrı́a algebraica, combinatoria analı́tica, la teorı́a de números.
eli
La idea de función de variable (o variables) reales puede ser extendida (continuada, le dicen también)
al plano complejo. La idea es la de siempre: si en una determinada región del plano complejo a un número
complejo z le corresponde un número (o varios números) complejos w = f (z), diremos que f (z) es una
función de variable compleja z. Obvio que f (z) puede ser biyectiva, en cuyo caso tendremos que a z le estará
Pr
asociado uno y solo un número complejo w = f (z). Es claro también que siempre se podrá expresar
con u(x, y) la parte real y v(x, y) la parte imaginaria. Es decir, toda función en variable compleja
f :C→C
or
u : R2 → R y v : R2 → R
ad
Esta representación tiene una interpretación adicional. Como representamos un número complejo en el
plano 0xy como z = x + iy, pero w = f (z) también podrá ser representada como un punto en el plano 0uv.
Entonces, desde el punto de vista geométrico una función de variable compleja podrá ser entendida como
una ley de transformación entre pares de puntos (x, y) del plano 0xy del argumento z y los puntos (u, v) del
rr
Podemos también extender el concepto de continuidad de una función de variable real a una función
de variable compleja. Esto es: diremos que una función compleja1 w = f (z) será continua en z0 si para un
1A partir de ahora y por razones de simplicidad llamaremos a f (z) función compleja en vez de función de variable compleja.
11
1.1. FUNCIONES DE VARIABLE COMPLEJA
> 0 siempre existe un δ > 0 tal que |z − z0 | < δ tan pequeño como uno quiera y siempre puede encontrar
|f (z) − f (z0 )| < . La otra manera de verlo es la estándar: si existe el lı́mite cuando z → z0 , es decir,
En este punto se pueden resaltar que los lı́mites (y con ello la idea de continuidad) en el plano complejo
hereda las sutilezas y dificultades de los lı́mites y continuidades de las funciones en varias variables. En
segundo lugar cabe señalar que la diferencia con las funciones de variable real radica en que los y δ son
r
radios de un cı́rculo centrado en f (z0 ) y z0 , respectivamente. Adicionalmente, para el caso de las funciones
complejas no tiene sentido los lı́mites por la derecha y por la izquierda que planteábamos para funciones de
a
variable real. También es obvio que si
in
entonces f (z) será continua en z0 = x0 + iy0 .
m
La dificultad que subyace en esta definición es equivalente a las dificultades que enfrentamos en las defi-
niciones de derivadas para funciones de varias variables. Diremos entonces que, una función f (z) univaluada
en una región S será diferenciable en esa región si la derivada
eli
df f (z + ∆z) − f (z)
f 0 (z) = = lı́m
dz ∆z→0 ∆z
[u(x + ∆x, y + ∆y) − u(x, y)] + i [v(x + ∆x, y + ∆y) − v(x, y)]
= lı́m , (1.4)
∆x + i∆y
∆x,∆y→0
Pr
existe y es única.
Una vez más, al igual que en el caso de funciones de varias variables, el concepto de lı́mite (y con éste
el de derivada), debe existir sin importar la ruta o forma de aproximación al punto sobre el cual estamos
calculando la derivada. Esto es, si ∆z → 0 ⇔ ∆x + i∆y → 0, entonces
= lı́m ,
∆x→0 ∆x
[u(x, y + ∆y) − u(x, y)] + i [v(x, y + ∆y) − v(x, y)]
f 0 (z)∆x=0 = −i lı́m .
∆y→0 ∆y
ad
o ∆x = 0; ∆y → 0, podremos encontrar un criterio para identificar dónde, una función compleja, f (z), es
analı́tica. Esto es
12
1.1. FUNCIONES DE VARIABLE COMPLEJA
r
∆y→0 ∆y
∆u(x, y) ∆v(x, y)
a
= lı́m −i + ,
∆y→0 ∆y ∆y
in
y ambas tienen que coincidir. Con lo cual
∆u(x, y) ∆v(x, y) ∆u(x, y) ∆v(x, y)
f 0 (z)∆y=0 = f 0 (z)∆x=0 ⇔ lı́m +i = lı́m −i + ,
∆x→0 ∆x ∆x ∆y→0 ∆y ∆y
m
y equivalentemente
eli
Con ello hemos encontrado las condiciones necesarias para que una función compleja sea analı́tica, vale
decir: Las condiciones de Cauchy Riemann
∂u(x, y) ∂v(x, y)
Pr ∂v(x, y) ∂u(x, y)
= ∧ =− . (1.6)
∂x ∂y ∂x ∂y
Ahora tendremos un criterio más expedito para determinar que una función, como: f (z) = 2x + iy no es
analı́tica.
or
u(x, y) = 2x ∂u(x, y) ∂v(x, y) ∂v(x, y) ∂u(x, y)
⇒ = 2 6= 1 = ∧ =0=0=−
v(x, y) = y ∂x ∂y ∂x ∂y
u(x, y) = x2 − y 2
∂u(x, y) ∂v(x, y) ∂v(x, y) ∂u(x, y)
⇒ = 2x = ∧ = 2y = − .
v(x, y) = 2xy ∂x ∂y ∂x ∂y
pero como esas condiciones son necesarias porque para encontrarlas hemos seleccionado un par de rutas
muy especı́ficas: ∆y = 0; ∆x → 0 y ∆x = 0; ∆y → 0, se requiere exigir algunas condiciones adicionales.
rr
Sin demostración (puede consultar para detalles y demostraciones las referencias indicadas) exigiremos como
condición necesaria y suficiente para que una función sea analı́tica que las cuatro derivadas parciales para
u(x, y) y v(x, y), existan, sean continuas en la región S y que se cumplan las condiciones de Cauchy-Riemann.
Bo
13
1.1. FUNCIONES DE VARIABLE COMPLEJA
∇2 u(x, y) = ∇2 v(x, y) = 0 ,
r
es decir, satisfacen la ecuación de Laplace. Si derivamos apropiadamente las ecuaciones (1.6) respecto a una
y otra variable encontramos que
a
∂ 2 u(x, y) ∂ 2 u(x, y)
∂ ∂u(x, y) ∂ ∂v(x, y) ∂ ∂v(x, y) ∂ ∂u(x, y)
= = =− ⇒ + = 0,
∂x ∂x ∂x ∂y ∂y ∂x ∂y ∂y ∂x2 ∂y 2
in
y equivalentemente
∂ 2 v(x, y) ∂ 2 v(x, y)
∂ ∂v(x, y) ∂ ∂u(x, y) ∂ ∂u(x, y) ∂ ∂v(x, y)
=− =− =− ⇒
m
+ = 0,
∂x ∂x ∂x ∂y ∂y ∂x ∂y ∂y ∂x2 ∂y 2
por lo tanto, hemos demostrado que las partes reales e imaginarias de una función analı́tica son necesa-
riamente armónicas. La importancia de este resultado radica, en primer lugar, que no son arbitrarias las
eli
funciones u(x, y) y v(x, y) con las cuales construimos f (z). Ambas deben satisfacer la ecuación de Laplace.
En segundo lugar u(x, y) y v(x, y) están ligadas por las condiciones de Cauchy-Riemann, y esto implica
que al conocer una de las funciones armónicas conjugadas, siempre es posible encontrar (salvo una constante
de integración) la otra.
Para ilustrar lo anterior, supongamos la siguiente función armónica conjugada u(x, y) = 2x − x3 + 3xy 2
Pr
correspondiente a la parte real de f (z). Es fácil comprobar que es una función armónica, ahora construyamos
la parte imaginaria v(x, y). Esto es
∂u(x, y) ∂v(x, y)
u(x, y) = 2x − x3 + 3xy 2 ⇒ = = 2 − 3x2 + 3y 2 ⇒ v(x, y) = 2y − 3x2 y + y 3 + φ(x) ,
∂x ∂y
entonces
or
La segunda curiosidad, consecuencia de las ecuaciones (1.6), es que para una función compleja genérica
ad
f (z) = u(x, y) + iv(x, y), en la cual además se cumple que u(x, y) = const y v(x, y) = const, entonces se
cumplirá que: ∇u(x, y) · ∇v(x, y) = 0.
∂u(x, y) ∂u(x, y) ∂v(x, y) ∂v(x, y) ∂u(x, y) ∂v(x, y) ∂u(x, y) ∂v(x, y)
∇u(x, y)·∇v(x, y) = i+ j · i+ j = + ,
∂x ∂y ∂x ∂y ∂x ∂x ∂y ∂y
rr
+ = 0.
∂x ∂y ∂y ∂x
Es decir, u(x, y) =const y v(x, y) =const, corresponden a trayectorias mutuamente ortogonales. Esta “cu-
riosidad” nos permite construir sistemas de coordenadas alternativos en el plano complejo y, sobre todo
14
1.1. FUNCIONES DE VARIABLE COMPLEJA
saber como establecer su transformación a otros planos complejos. Esto se representa en la Figura 1.2 y será
considerado en la sección 1.2.3 de la página 25.
La tercera curiosidad es un resultado el cual, siendo una formalidad, nos indica que las funciones analı́ticas
f (z) dependen de z y no de su conjugado z ∗ . O dicho de otra manera: z y z ∗ son variables independientes.
Para demostrar esto procedemos primero a convencernos que si f (z) = u(x, y) + iv(x, y) y f (z) analı́tica,
entonces ∂f (z)
∂z ∗ = 0. Sin detenernos a pensar en el significado de la derivada respecto a la variable conjugada,
recordamos que operacionalmente
z + z∗
r
x=
2
∂f (z) ∂f (z) ∂x ∂f (z) ∂y 1 ∂u(x, y) ∂v(x, y) 1 ∂u(x, y) ∂v(x, y)
⇒ = + = + i − + i ,
a
z − z∗ ∂z ∗ ∂x ∂z ∗ ∂y ∂z ∗ 2 ∂x ∂x 2i ∂y ∂y
y=
2i
in
arreglando términos tendremos que es inmediato comprobar que se anula si se cumplen las condiciones (1.6)
z + z∗ z − z∗
∂f (z) 1 ∂u(x, y) ∂v(x, y) i ∂u(x, y) ∂v(x, y)
= − + + = 0 ⇒ f (z) 6⇔ f (x, y) = f , ,
∂z ∗ 2 ∂x ∂y 2 ∂y ∂x 2 2i
m
en otras palabras, la funciones analı́ticas son verdaderas funciones de variable complejas y no, como pudiera
parecer, de dos variables reales interpuestas.
eli
1.1.6. Ejemplos
1. Sea f (z) = x2 − y 2 + 2ixy
que es más o menos obvio si hubiéramos notado que f (z) = x2 − y 2 + 2ixy = (x + iy)2 ≡ z 2 , con lo
cual
(z + ∆z)2 − z 2 2z∆z + (∆z)2
f 0 (z) = lı́m = lı́m = lı́m (2z + ∆z) = 2z .
∆z→0 ∆z ∆z→0 ∆z ∆z→0
ad
2. Ahora bien, las cosas no siempre son ası́. Si consideramos f (z) = 2x + iy es rápido comprobar que no
es diferenciable en el plano complejo, ya que
el cual, claramente no coincide si las direcciones de aproximación a z0 = x0 + iy0 son distintas, vale
decir, por ejemplo: ∆y = 0; ∆x → 0 o ∆x = 0; ∆y → 0.
Como heredamos todas las ideas y métodos del campo real se cumplen todas las reglas de la derivación
Bo
15
1.1. FUNCIONES DE VARIABLE COMPLEJA
3. Las potencias de enteros positivos: 1, z, z 2 , . . . son analı́ticos en todo el plano complejo, al igual que
los polinomios como:
f (z) = c0 + c1 z + c2 z 2 + · · · + cn z n ,
donde: c0 , c1 ...cn son constantes complejas.
Para la función racional
g(z)
f (z) = ,
h(z)
r
tenemos que f (z) será analı́tica si g(z) y h(z) son analı́ticas, salvo en los puntos donde h(z) = 0.
4. Dada la función
a
f (z) = ex (cos(y) + isen(y))
in
podemos ver que:
m
por lo que se cumplen las condiciones de Cauchy-Riemann, por lo tanto f (z) es analı́tica para todo z.
eli
Como asumimos que |f (z)|2 = |u + iv|2 = u2 + b2 = C 2 , entonces, derivando
∂u ∂v ∂u ∂v
u +v =0 y u +v = 0.
∂x ∂x ∂y ∂y
Como ∂v
∂x = − ∂u
∂y y
∂v
∂y = ∂u
∂x , resulta:
Pr
∂u ∂u ∂u ∂v
u −v =0 y u −v = 0.
∂x ∂y ∂y ∂x
que podemos convertir en:
or
∂u ∂u
u2 + v 2 =0 y u2 + v 2 = 0.
∂x ∂y
entonces ∂u ∂u ∂u ∂v
∂x = ∂y = 0 y por las condiciones de Cauchy-Riemann también se tiene que ∂x = ∂y = 0, es
decir, u y v son constantes, por lo que f es constante.
6. Si utilizamos la forma polar para z = r (cos(θ) + isen(θ)) entonces f (z) = u(r, θ) + iv(r, θ) y las
condiciones de Cauchy-Riemann quedan de la forma
rr
∂u 1 ∂v ∂v 1 ∂u
= y =− .
∂r r ∂θ ∂r r ∂θ
Bo
16
1.1. FUNCIONES DE VARIABLE COMPLEJA
r
( % i1) %iˆ2;
a
−1 ( % o1)
in
( % i2) (x + %i*y)*(u - %i*v);
m
( % i3) expand( %);
eli
( % i4) gfactor( %);
Pr(v + iu) (y − ix) ( % o4)
En variable compleja la función logaritmo se define en el intervalo (π, -π] (El logaritmo principal)
( % i7) rectform(log(1 + %i));
ad
log (2) iπ
+ ( % o7)
2 4
El valor absoluto
( % i8) cabs(x + %i*y);
rr
p
y 2 + x2 ( % o8)
La forma polar de
Bo
17
1.1. FUNCIONES DE VARIABLE COMPLEJA
ei(i+1) + e−i(i+1)
( % o10)
2
r
( % i12) f(z):=z*exp(1/z);
a
1
f(z) := z exp ( % o12)
in
z
m
1
z ez ( % o13)
0 ( % o14)
eli
( % i16) u:realpart(f(x + %i*y)); v:imagpart(f(x + %i*y));
x y x y
y e y2 +x2 sin + x e y 2 +x2 cos (u)
y 2 + x2 y 2 + x2
Pr
x y x y
ye y 2 +x2 cos − xe y 2 +x2 sin (v)
y + x2
2 y + x2
2
( % i17) ’diff(f(z),z)=diff(f(z),z) ;
1
d 1 1 ez
or
ze z =e −
z ( % o17)
dz z
Las condiciones Cauchy-Riemann
( % i18) diff(u,x) - diff(v,y)=0, ratsimp;
ad
0=0 ( % o18)
0=0 ( % o19)
x2 − y 2
2 (u)
(y 2 + x2 )
18
1.1. FUNCIONES DE VARIABLE COMPLEJA
r
6 y 2 − 2xy − x2 y 2 + 2xy − x2
− 4 (u yy)
(y 2 + x2 )
a
( % i23) u xx + u yy;
in
0 ( % o23)
m
( % i24) u x: diff(u,x),factor;
2x 3y 2 − x2
3 (u x)
(y 2 + x2 )
eli
( % i25) u y:diff(u,y),factor;
2y y 2 − 3x2
3 (u y)
(y 2 + x2 )
Pr
( % i26) Int:integrate(u x,y)$
( % i27) φ: -integrate(u y,x) - integrate(diff(Int,x),x), factor;
0 (φ)
or
0 ( % o29)
rr
0 ( % o30)
Bo
( % i31) kill(all)$
19
1.1. FUNCIONES DE VARIABLE COMPLEJA
1.1.8. Ejercicios
1. Investigar los dominios del plano complejo para los cuales las funciones f (z) = |x| − i|y| y f (z) = |z|2 =
zz ∗ son analı́ticas.
2. Determine la función f (z) analı́tica cuya parte imaginaria es [y cos(y) + xsen(z)]ex
3. Muestre que si f (z) es analı́tica entonces f ∗ (z ∗ ) también lo es.
4. Encuentre las derivadas
r
a) (z − i)/(z + i) en i
a
b) (z − 4i)8 en 3 + 4i
c) (1,5z + 2i)/(3iz − 4) para todo z.
in
d) i(1 − z)n en 0
e) (iz 3 + 3z 2 )3 en 2i
f) z 3 /(z + i)3 en i
m
Cuales de las siguientes funciones son analı́ticas
a) f (z) = izz ∗
b) f (z) = e−2x (cos(2y) − isen(2y))
eli
c) f (z) = ex (cos(y) − isen(y))
d) f (z) = Re z 2 − i Im z 2
e) f (z) = 1/ z − z 5
f ) f (z) = ln |z| + i Arg(z)
Pr
g) f (z) = cos(x) cosh(y) − i sen(x)senh(y)
5. Cuales de las siguientes funciones son armónicas y encuentre la función analı́tica correspondiente si es
el caso.
a) u = x2 + y 2
b) u = sen(x) cosh(y)
or
c) v = ex sen(2y)
d) v = x/ x2 + y 2
6. Para que valores de a y b las siguientes funciones son armónicas. Encuentre la conjugada
ad
a) u = eπx cos(av)
b) u = cos(ax) cosh(2y)
c) u = cosh(ax) cos(y)
rr
d) u = ax3 + bxy
7. Escriba un programa para graficar lineas equipotenciales u = constante de una función armónica y de
su conjugada v en los mismos ejes. Aplique el programa a las siguientes funciones:
Bo
a) u = x2 − y 2 y v = 2xy
b) u = x3 − 3xy 2 y v = 3x2 y − y 3
c) u = ex cos(y) y v = ex sen(y)
20
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
r
un punto imagen w en el plano complejo de llegada. El mapeo de dirá que es uniforme o univaluado. Si por
le contrario, para cada valor de la variable z existen más de un valor de la variable w se dirá que el mapeo
a
es multivaluado. Tal vez el ejemplo más sobresaliente de funciones multivaluadas es la función logaritmo.
2
También debemos tener en cuenta la topologı́a del p plano complejo, aunque es similar a R existen dife-
in
2 2
rencias. Si z = x + iy ∈ C entonces su módulo |z| = x + y coincide con el modulo de un vector del plano
complejo. Por lo tanto, si un punto z0 ∈ C es dado y r > 0, se puede definir una bola abierta centrada en z0
y radio r como el conjunto
Ba (z0 , r) = {z ∈ C : |z − z0 | < r} ,
m
y una bola cerrada al conjunto
Bc (z0 , r) = {z ∈ C : |z − z0 | 6 r} .
Esto en equivalencia a los intervalos cerrados y abiertos en R.
eli
Para los números complejos también disponemos de una forma para indicar el infinito, es decir, números
complejos con módulo arbitrariamente grande. Esto es el equivalente al ±∞ de la recta real, pero requiere
un poco más de esfuerzo su visualización. Para hacer esta identificación se recurre a la definición de una
proyección estereogáfica entre el plano complejo y la Esfera de Riemann.
La Esfera de Riemann se define
Pr
S2 = (x1 , x2 , x3 ) ∈ R3 : x21 + x21 + x23 = 1 ,
P(x + iy) = (x1 , x2 , x3 ) 6= (0, 0, 1) con x + iy ∈ C
2
P : C∞ → S ⇒
P(∞) = (0, 0, 1)
ad
Tenemos entonces una recta de R3 que corta a la esfera S2 y pasa por los puntos (0, 0, 1) y (x, y, 0), identi-
ficando el infinito del plano complejo con el polo norte de la esfera de esfera de Riemann. Esto significa que
una bola abierta centrada en ∞ es
z cambia por diferentes trayectorias, por ejemplo, siguiendo distintos circuitos cerrados 0 ≤ θ < 2π a través
del “vector” z.
f (z) = z 1/2 ≡ r1/2 eiθ/2 → f (z) = r1/2 eiθ/2 → r1/2 ei(θ+2π)/2 = −r1/2 eiθ/2 .
21
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
Visto ası́ nos tendremos que preguntar ahora cuál fue el circuito que recorrimos con z, y dependiendo de
ese circuito identificaremos algunos puntos con caracterı́sticas distintas. Si el circuito cerrado descrito por z
no contiene el punto z = 0, la función f (z) = z 1/2 retoma su valor original (ver figura 1.1 cuadrante superior
izquierdo contorno C1 ). Pero sı́, como se aprecia en la misma figura 1.1, el circuito cerrado C2 si contiene
el punto z = 0 entonces la función no retoma su valor original, f (z) → −f (z). También es claro que si el
circuito cerrado lo recorremos dos veces θ → 4π entonces f (z) = z 1/2 retoma su valor inicial.
Podemos ver la segunda situación con más detalle: la del camino C2 , que podemos considerar como el
cı́rculo reiθ centrado en z = 0
r
Consideremos que originalmente un punto sobre el cı́rculo es z1 . Es decir que
a
f (z1 ) = w1 = r1/2 eiθ1 /2 .
in
Si completamos un cı́rculo completo, en sentido antihorario, para volver al mismo punto z1 le que
hemos hecho es un cambio en el argumento θ1 → θ1 + 2π. Por lo tanto
m
Si hacemos dos recorridos completos para volver a z1 , es decir, θ1 → θ1 + 4π resulta que
eli
y recuperamos el valor inicial.
Hemos notado el hecho de obtener diferentes valores para w. Cada uno de estos casos conforma una
rama de la función, es decir, cada rama de una función multivaluada es una función univaluada. En nuestro
ejemplo:
Pr
w1 = f1 (z) = r1/2 eiθ/2 0 6 θ < 2π
1/2
w = f (z) = z ⇒
w2 = f2 (z) = r1/2 eiθ/2 2π 6 θ < 4π
En términos generales, si existe un punto z0 que admite un entorno reducido y éste se encuentra contenido
en el dominio de la función, y si además existe una curva simple y cerrada C que pueda contener un entorno
or
de orden 1.
Los puntos alrededor de los cuales se construye un circuito cerrado en el diagrama de Argand y la función
no retoma su valor inicial se denominan puntos de corte y las lı́neas de corte, corte ramal (o simplemente
cortes) serán aquellas lı́neas que separan regiones en las cuales una determinada función es univaluada. Es
claro que los puntos de corte son puntos singulares, en los cuales la función deja de ser analı́tica y existirán
rr
1.1 cuadrante superior derecho la lı́nea de corte que sigue el eje positivo de las x.
La situación se torna más interesante cuando estas definiciones se analizan a la luz de funciones con más
de un punto de corte.
22
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
a r
in
m
Figura 1.1: Los distintos contornos que identifican los puntos de corte
eli
Consideremos la función
√ √
p p q
f (z) = z 2 + 1 ⇒ f (z) = (z − i)(z + i) ≡ (r1 eiθ1 ) (r2 eiθ2 ) = r1 r2 eiθ1 /2 eiθ2 /2 = r1 r2 ei(θ1 +θ2 )/2 .
Pr
Analicemos entonces, varios contornos en el plano de Argand. Otra vez, la figura 1.1 ilustra en el cuadrante
inferior los distintos contornos C1 , C2 , C3 y C4 .
Tal y como se aprecia en esa figura, se dan cuatro casos:
1. Contorno C1 no incluye ningún punto de corte, entonces: θ1min ≤ θ1 ≤ θ1max y θ2min ≤ θ2 ≤ θ2max ,
con lo cual f (z) retoma su valor inicial luego de recorrer el C1 .
2. Contorno C2 incluye z = i como punto de corte, entonces: 0 ≤ θ1 ≤ 2nπ y θ2min ≤ θ2 ≤ θ2max , por lo
or
3. Contorno C3 incluye z = −i como punto de corte, entonces: θ1min ≤ θ1 ≤ θ1max y 0 ≤ θ2 ≤ 2nπ, por
lo cual f (z) → −f (z).
ad
4. Contorno C4 incluye ambos como punto de corte,z = i y z = −i, entonces: 0 ≤ θ1 ≤ 2nπ y 0 ≤ θ2 ≤ 2nπ,
por lo cual f (z) → f (z) retoma su valor.
De este modo para construir los cortes que impidan que nuestra función sea multivaluada podremos
seleccionar:
rr
Un punto donde la función f (z) no es analı́tica se denomina un punto singular. Estos puntos pueden ser:
23
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
Singularidades aisladas: sı́ una función es analı́tica en todo el entorno de un punto z0 , excepto en
el propio punto z0 , entonces se dice que el punto z0 es una singularidad aislada o un punto singular de
la función f (z).
Por ejemplo, para la función f (z) = 1/z, sabemos que es analı́tica en todo punto excepto en z = 0.
La única singularidad de la función está en el punto z = 0 y este punto es entonces una singularidad
aislada.
Singularidades no aisladas: Si una función contiene un conjunto de singularidades aisladas en
una vecindad de un punto z0 , entonces se dice que z0 es una singularidad no aislada. Es decir, una
r
singularidad no aislada de una función es un punto lı́mite del conjunto de sus singularidades.
a
Clasificación de las singularidades aisladas
in
1. Un punto singular aislado z0 de una función f se denomina removible o evitable si:
lı́m f (z) ∃ .
z→z0
m
Observemos que:
a) la función f puede no estar definida en z0 y por esta razón la función no es analı́tica en z0 .
b) la función puede estar definida en z0 pero de valor diferente al lı́mz→z0 f (z). Con lo cual la función
eli
no es continua en z0 y por lo tanto no es analı́tica en z0 .
c) la función puede estar definida en z0 y su valor igual al del lı́mz→z0 f (z). En este caso la función
no es singular en z0 .
Por lo tanto, si f tiene una singularidad removible en z0 entonces una de las posibilidades (a) o (b)
Pr
debe ser la causa de que la función no sea analı́tica o regular en z0 .
Si una función g es igual a f en todos los puntos, excepto en z0 , y
entonces g no es singular en z0 , esto significa que la singularidad de f puede ser removida mediante la
or
redefinición de la función f en z0 .
2. Un punto singular aislado z0 de una función f que no esta definida en z0 se llama un polo de orden n
de f si:
n
lı́m (z − z0 ) f (z) = M 6= 0 ,
ad
z→z0
z→z0
Las singularidades removibles se caracterizan porque el valor de f (z) → 0/0 cuando z → z0 . El caso más
Bo
emblemático es la función
z3 z5 z2 z4
sen(z) 1
f (z) = ⇒ f (z) = z− + ··· = 1 − + ··· ⇒ lı́m f (z) = 1
z z 3! 5! 3! 5! z→0
24
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
con lo cual, luego de desarrollar por Taylor la función sen(z), se ha removido la singularidad aparente.
El comportamiento de una función compleja en infinito (o cuando tiende a infinito), vale decir, cuando
z → ∞ no está tan bien definida como en los casos de funciones de variable real. Es claro como una cantidad
real, digamos |f (z)| o |z| tiende a infinito, pero z es una cantidad “bidimensional” y, en principio, existirı́an
varias formas de tender a infinito. Para precisar el comportamiento de una función compleja de variable
compleja en infinito, hacemos un cambio de variable z = 1/ξ y estudiamos f (1/ξ) con 1/ξ → ∞.
De esta manera:
1.
r
1 1
lı́m z(1 + z 2 ) ≡ lı́m + 3, con lo cual tendrá un polo de orden 3.
z→∞ ξ→0 ξ ξ
a
2.
∞
1
in
X
lı́m ez ≡ lı́m y presenta una singularidad esencial para z → ∞ .
z→∞ ξ→0
n=0
n! ξ n
Los ceros de una función compleja (f (z0 ) = 0, entonces llamaremos z0 un cero de f (z)) se clasifican al
m
igual que los polos. Esto es
eli
1.2.3. Transformaciones conformes
Nos interesará ahora considerar transformaciones entre planos complejos, esto es:
Los ángulos entre dos curvas cualesquiera que se intercepten en el plano z serán los mismos que los que
formen las curvas transformadas en el plano w. Esto es, los ángulos entre las curvas serán invariantes
bajo la transformación.2
ad
y puede comprobarse de la siguiente manera. Considere dos curvas, C1 (z) y C2 (z), en el plano complejo
2 De esta propiedad es donde la transformación hereda su nombre de conforme. Son transformaciones isogonales es decir, que
25
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
a r
in
m
Figura 1.2: Tranformaciones conformes. Tomado de Eric W. Weisstein. Conformal Mapping. MathWorld–
eli
A Wolfram Web Resource. [Link]
z = x + iy. Supongamos además que estas curvas se interceptan en un punto z = z0 . Entonces, sobre las
tangentes a cada curva, en z0 , definimos otros dos puntos z1 y z2 de tal forma que
Pr
z1 − z0 = ρeiθ1 w1 − w0 = ρ1 eiφ1
⇒
z2 − z0 = ρeiθ2 w2 − w0 = ρ2 eiφ2
Nótese que hemos construido los puntos z1 y z2 sobre las tangentes a z0 a la misma distancia ρ de z0
y, en principio, hemos supuesto que las distancias a los puntos transformados w1 y w2 (las cuales hemos
or
identificado como ρ1 y ρ2 , respectivamente), no son iguales. Ahora bien, dado que w = g(z) es analı́tica
entonces
dg(z) dw w1 − w0 w2 − w0 ρ1 ρ2
= = lı́m = lı́m ⇒ g 0 (z0 ) = lı́m ei(φ1 −θ1 ) = lı́m ei(φ2 −θ2 ) .
dz dz z1 →z0 z1 − z0 z2 →z0 z2 − z0 ρ→0 ρ ρ→0 ρ
ad
z=z0 z=z0
Es claro que al comparar las magnitudes y las fases demostramos que las transformaciones conformes
preservan las distancias, ρ1 = ρ2 , y los ángulos (φ2 −φ1 ) = (θ2 −θ1 ). Adicionalmente, es muy fácil convencerse
que si la transformación conforme conserva los ángulos entre curvas y las escalas en todas direcciones las
figuras son transformadas en figuras equivalentes, quizá ampliadas y rotadas, pero no deformadas.
rr
26
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
a r
in
m
eli
Figura 1.3: Tranformaciones conformes. Cuadrante superior representa las conservación de ángulos y escala
bajo transformaciones y el inferior un ejemplo de transformaciones conforme para w = z 2 .
Pr
Por hipótesis supusimos que f y h eran analı́ticas, por lo cual es inmediato concluir que debido a que los
dos factores de la derecha son analı́ticos, la función F (w) también lo será.
Tal y como mostramos en la sección 1.1.5 si f (z) = u(x, y) + iv(x, y), es analı́tica, entonces u(x, y) y
v(x, y) serán funciones armónicas conjugadas, vale decir que satisfacen la ecuación de Laplace, con lo cual
∇2 u(x, y) = ∇2 v(x, y) = 0. Eso significa que si F = Φ(w) + iΨ(w), entonces:
2 2
∂ φ ∂2φ ∂ Φ ∂2Φ
or
+ 2 =0 + =0
∂x2 ∂x2 ∂y 2
∂y
f = φ + iψ ⇒ ⇔ F = Φ + iΨ ⇒
∂2ψ ∂2ψ ∂2Ψ ∂2Ψ
+ = 0 + = 0
∂x2 ∂y 2 ∂x2 ∂y 2
ad
Esto impone que si <[f (z)] = φ es constante en el plano x − y, también lo será <[F (w)] = Φ en r − s
(¡Demuéstrelo!).
Esta propiedad deriva una serie de aplicaciones en la solución de la ecuación de Laplace en dos dimen-
siones. Si bien es una técnica elegante y útil cuando es posible, no deja de ser limitada porque se restringe
rr
a 2D. Hoy los métodos numéricos para resolver ecuaciones diferenciales en derivadas parciales ha superado
con creces este tipo de técnicas. Los ejemplos son variados.
Las siguientes transformaciones representan:
Bo
27
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
a r
z−i
Figura 1.4: Transformaciones conformes para el ejemplo donde w = .
z+i
in
También la transformación de inversión w = 1/z que transforma los puntos del interior de un cı́rculo
1 1 1
unidad a su exterior y viceversa. Una vez más, w = = = e−iφ . Entonces es claro que
m
z |z|e iφ z
0 ≤ |z| ≤ 1 ⇒ ∞ < |w| ≤ 1 ∧1 ≤ |z| ≤ ∞ ⇒ 0 < |w| ≤ 1 .
z − z0
eli
Un caso más interesante lo constituye la transformación w = eiθ , la cual transforma los
z − z0∗
puntos z0 del semiplano superior complejo y > 0 al interior de un cı́rculo unidad en el w−plano (ver
figura 1.4. Para convencernos de ello notamos que
z − z0 z − z0
Pr
|w| = eiθ
=
z − z0∗ z − z0∗
.
1.2.5. Ejemplos
1. Consideremos la función
3z 2 + 2z
f (z) = ,
(z − 4)(z − i)
Bo
la función es analı́tica en todos los puntos, excepto en z = 4 y z = i. Entonces, las únicas singularidades
están en los puntos z = 4 y z = i, y como son un conjunto finito de singularidades cada una de estas
son singularidades aisladas.
28
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
2. Sea f la función:
−1
x y x y
f (z) = sen cosh − i cos senh ,
|z|2 |z|2 |z|2 |z|2
Si denotamos al denominador como g(z), entonces
x y x y
g(z) = sen 2 cosh − i cos senh
x + y2 x2 + y 2 x2 + y 2 x2 + y 2
r
= u(x, y) + iv(x, y) 6= 0 ,
a
Es claro que z 6= 0. Por otra parte, de las condiciones de Cauchy-Riemann se tiene:
y 2 − x2
∂u x y 2xy x y ∂v
= 2 cos x2 + y 2 cosh x2 + y 2 − 2 sen x2 + y 2 senh x2 + y 2 = ∂y
in
∂x 2
(x + y )2 2
(x + y )2
x2 − y 2
∂u 2xy x y x y ∂v
=− 2 cos 2 2
cosh 2 2
+ 2 sen 2 2
senh 2 2
=−
∂y (x2 + y 2 ) x +y x +y (x2 + y 2 ) x +y x +y ∂x
m
Las condiciones de Cauchy-Riemann se satisfacen en todas partes salvo en z = 0, donde ni g ni las
derivadas parciales están definidas. Como las derivadas parciales son continuas, entonces g es analı́tica
en todos los puntos excepto z = 0. Por lo tanto, f es analı́tica salvo en z = 0.
eli
Por otra parte, g = 0 si su parte real como su parte imaginaria son nulas, ası́ que las singularidades de
f , además de z = 0, vienen dadas por el siguiente sistema ecuaciones:
x y x y
sen 2 cosh = 0 y cos senh =0
x + y2 x2 + y 2 x2 + y 2 x2 + y 2
Pr
Como cosh(α) > 0, la primera ecuación se satisface si
x x
sen 2 2
=0 ⇒ 2 = ± nπ ,
x +y x + y2
puesto que cos(α) 6= 0 cuando senh(α) = 0, entonces la segunda ecuación se satisface si y = 0. Por lo
tanto, el sistema se satisface simultáneamente si
or
x
= ± nπ
x2 + y 2
1
⇒ = ± nπ , n = 0, 1, 2, ...
x
ad
y=0
Las singularidades ocurren en el eje real y en los puntos donde x = ± 1/nπ. El punto lı́mite de este
conjunto, cuando n → ∞, es el punto z = 0. Por lo tanto, f tiene una singularidad no aislada en z = 0
y singularidades aisladas en los puntos z = ± 1/nπ, con n = 1, 2, 3, ....
rr
3. Dada la función
z 2 + 16
f (z) = , z 6= 4i ,
z − 4i
esta función es el cociente de dos funciones enteras y por lo tanto es analı́tica, salvo donde el denomi-
Bo
29
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
a r
in
Figura 1.5: A la izquierda lineas |z| = constante, Arg(z) = constante y las respectivas imágenes en el plano
u − v. A la derecha, la gráfica para x = constante, y = constante.
m
y
lı́m f (z) = lı́m z + 4i = 8i.
z→4i z→4i
eli
la función f tiene una singularidad removible en z = 4i pues el lı́mite existe. Podemos definir una
función g igual a f , para z 6= 4i
z + 4i si z 6= 4i
g(z) =
8i si z = 4i
Pr
5. Para
senh(z) ez − e−z
f (z) = tanh(z) = = z ⇒ ez = ei(2n+1)π e−z es un polo
cosh(z) e + e−z
ad
términos podemos ver que: ρ = r2 y ψ = 2θ. Es decir, los cı́rculos r = r0 son mapeados a cı́rculos
ρ = r02 y las lı́neas θ = θ0 en lı́neas ψ = 2θ0 . En la figura 1.5, a la izquierda, podemos ver el mapeo
w = z 2 desde la región: 1 ≤ |z| ≤ 3/2 , π/6 ≤ θ ≤ π/3 a la región: 1 ≤ |w| ≤ 9/4 , π/3 ≤ θ ≤ 2π/3.
30
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
v 2 = 4C12 (C12 − u) ,
Esto es, parábolas que se abren a la izquierda. De manera similar para lı́neas y = C2 constantes.
r
v 2 = 4C22 (C22 + u) ,
a
parábolas que abren a la derecha. Ver la figura 1.5.
in
m
eli
Pr
or
ad
rr
Bo
31
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
r
net/es/[Link].
Construiremos un programa que llamaremos “drawrootC( )” al que luego le debemos introducir la ecua-
a
ción a resolver.
( % i1) drawrootC( f):=block( [Re,Im,s,raices,pl],
in
s: solve( f=0,z),
raices: factor(map(rhs,s)),
Re:map(realpart,raices),
m
Im:map(imagpart,raices),
pl:[ ],
pl:cons([points(Re,Im)] , pl),
pl:cons([xrange=[-2,2]],pl),
eli
pl:cons([yrange=[-2,2]],pl),
pl:cons([point size=4],pl),
pl:cons([grid=on],pl),
apply(wxdraw2d,pl), raices)$
Si queremos hallar las raı́ces de la ecuación z 5 +1 = 0 ejecutamos nuestro programa de la manera siguiente
Pr
( % i2) drawrootC(zˆ5+1);
or
ad
rr
( % t2)
Bo
32
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
Si queremos hacer un gráfico de una curva que está parametrizada, por ejemplo: x(t) = sen(t) y y(t) =
2sen(t), escribimos la siguiente instrucción
( % i3) wxplot2d([parametric,sin(t),sin(2*t), [t,-2* %pi,2* %pi]],[nticks,100])$
a r
in
m
( % t3)
El siguiente programa está diseñado para graficar una función f (z) utilizando cı́rculos concéntricos,
eli
centrados en el origen, y en sentido antihorario3 .
( % i4) wxdrawcircleC( f):=block([fx,fy,fxt,fyt,pl,j,ncirc,r,theta shift,lm,l,dx,dy,dxy,v,nt],
ratprint:false,
fx:realpart(rectform(subst(z=x+ %i*y, f))),
Pr
fy:imagpart(rectform(subst(z=x+ %i*y, f))),
pl:[], nt:200, r:2, ncirc:5, theta shift: %pi/20, lm:0,
for n:1 thru ncirc do (
l:cons(lm,makelist(cabs(subst(z=r*n/7*exp( %i*t), f)),t,0,2* %pi,.5)),lm:lmax(l)),
for j:1 thru ncirc do(
fxt:subst([x=r*cos(t)*j/ncirc,y=r*sin(t)*j/ncirc],fx),
or
fyt:subst([x=r*cos(t)*j/ncirc,y=r*sin(t)*j/ncirc],fy),
pl:cons([parametric(fxt,fyt,t,0,2* %pi)] , pl),
pl:cons([color=j-1],pl), pl:cons([key=string(r*j/ncirc)],pl),
dx:subst(t=3/nt,fxt)-subst(t=0,fxt),dy:subst(t=3/nt,fyt)-subst(t=0,fyt),
ad
dxy:sqrt(dxˆ2+dyˆ2),
v:vector([subst(t=0,fxt),subst(t=0,fyt)],[lm*dx/dxy/20,lm*dy/dxy/20]),pl:cons([v],pl),
pl:cons([head length=lm,head angle=1],pl),pl:cons([color=j-1],pl),
pl:cons([key=],pl)),pl:cons([xlabel=,ylabel=],pl),
pl:cons([nticks=200],pl),pl:cons([grid=on],pl),
rr
apply(wxdraw2d,pl) )$
Bo
33
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
Aquı́ podemos ver simplemente cı́rculos concéntricos que aumentan con el radio pues estamos visualizando
la función f = (z).
( % i5) wxdrawcircleC(z);
a r
in
m
( % t5)
Para el siguiente ejemplo, f (z) = (z − π/2)(z − 1), podemos ver la aparición de bucles cuando, a medida
eli
que crece el radio, se incluye el punto z = 0.
( % i6) wxdrawcircleC((z- %pi/2)*(z-1));
Pr
or
ad
( % t6)
rr
Bo
34
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
a r
in
m
( % t7)
El siguiente programa, aunque limitado, permite obtener gráficas para transformaciones conformes.
eli
( % i8) drawgridC( f):=block( [fx,fy,fxt,fyt,pl,j,ngrid],
fx:realpart(rectform(subst(z=x+ %i*y, f))),
fy:imagpart(rectform(subst(z=x+ %i*y, f))),
pl:[], ngrid:20,
for j:0 thru ngrid do(
fxt:subst([x=-1+j*2/ngrid,y=t],fx),
Pr
fyt:subst([x=-1+j*2/ngrid,y=t],fy),
pl:cons([parametric(fxt,fyt,t,-1,1)], pl)),
pl:cons([color=blue],pl),
for j:0 thru ngrid do(
fxt:subst([y=-1+j*2/ngrid,x=t],fx),
or
fyt:subst([y=-1+j*2/ngrid,x=t],fy),
pl:cons([parametric(fxt,fyt,t,-1,1)] ,pl) ),
pl:cons([color=red],pl),pl:cons([xlabel=,ylabel=”w=f(z)”],pl),
pl:cons([nticks=200],pl),apply(wxdraw2d,pl) )$
ad
rr
Bo
35
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
( % i9) drawgridC(z);
a r
in
m
( % t9)
( % i10) drawgridC(zˆ2);
eli
Pr
or
( % t10)
ad
rr
Bo
36
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
( % i11) drawgridC(zˆ3-1);
a r
in
m
( % t11)
( % i12) kill(all)$
eli
1.2.7. Ejercicios
1. Determine el tipo de singularidades (en caso de poseerlas) de las siguientes funciones en: z = 0 y z = ∞
a)
Pr f (z) =
1
z−2
b)
1 + z3
f (z) =
z2
c)
or
1
f (z) = senh
z
2. Identifique los ceros, polos y las singularidades esenciales de las siguientes funciones:
ad
a)
z−2 1
f (z) = sen
z2 1−z
b)
rr
f (z) = e1/z
c)
1
f (z) = tan
Bo
z
3. Encuentre el comportamiento en el infinito de
37
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS
a)
b
f (z) = a +
z2
b)
f (z) = z(1 + z 2 )
c)
f (z) = ez
r
4. Demostrar que la ecuación de la proyección estereográfica es
a
|z|2 − 1
2x 2y
P(x + iy) = , , con z = x + iy ∈ C.
|z|2 + 1 |z|2 + 1 |z|2 + 1
in
5. Demostrar que las ecuación para la inversa de la proyección estereográfica es la siguiente
x1 + x2 i
P −1 (x1 , x2 , x3 ) = si (x1 , x2 , x3 ) 6= (0, 0, 1).
m
x3 − 1
eli
7. Demuestre que bajo la transformación w = 1/z, las imágenes de las lı́neas y = x − 1 e y = 0 son el
cı́rculo u2 + v 2 − u − v = 0 y la lı́nea v = 0, respectivamente. Dibuje las cuatro curvas, determine
las direcciones correspondientes a lo largo de ellas y verifique la conformidad del mapeo en el punto
z0 = 1.
Pr
8. Demuestre que el ángulo de rotación en un punto distinto de cero z0 = r0 eiθ0 bajo la transformación
w = z n para (n = 1, 2, ...), es (n − 1)θ0 . Determine el factor de escala de la transformación en ese
punto.
9. Demuestre que la transformación w = sen(z) es conforme en todos los puntos excepto en
π
or
11. Dibuje o grafique la región dada y su imagen bajo las siguientes transformaciones
a) |z| ≤ 1/2, −π/8 < Arg(z) < π/8, w = z 2 .
rr
38
1.3. INTEGRALES COMPLEJAS
a r
1.3.1. Algunas propiedades
Es claro que esta integral es, necesariamente, una integral de lı́nea, ya que z tiene “dos dimensiones”
in
Z z2 Z z2
dz f (z) = [dx + idy] [u(x, y) + iv(x, y)]
z1 z1
Z x2 ,y2 Z x2 ,y2
m
= [u(x, y)dx − v(x, y)dy] + i [v(x, y)dx + u(x, y)dy] , (1.7)
x1 ,y1 x1 ,y1
con lo cual transformamos una integral compleja en una suma de integrales reales. Pero necesitamos definir
el contorno a través del cual vamos del punto z1 = x1 + iy1 al punto z2 = x2 + iy2 .
eli
La integración compleja tendrá las propiedades ya conocidas
R R R
C
dz (f (z) + g(z)) = C dz f (z) + C dzg(z).
R R
C
dz Kf (z) = K C dz f (z) con K una constante real o compleja.
Rb Ra
Pr
a
dz f (z) = − b dz f (z).
Rb Rm Rb
a
dz f (z) = a dz f (z) + m dz f (z).
R
C
dz |f (z)| ≤ M L , donde M = máx |f (z)| y L la longitud de C.
Esta última propiedad es importante porque permite establecer cotas a las integrales complejas sin tener
or
n→∞ z1
j=1 j=1 j=1 j=1
las funciones holomorfas en el plano complejo. Básicamente dice que si dos caminos de integración diferentes
conectan los mismos dos puntos, y la función que se está integrando es holomorfa en todas partes entre las
dos trayectorias, entonces las dos integrales de la función serán iguales.
39
1.3. INTEGRALES COMPLEJAS
a r
in
m
Figura 1.6: Regiones en el plano complejo
eli
1.3.3. El teorema y las regiones
Este teorema considera que si f (z) es holomorfa en una región simplemente conexa, R, en su contorno
C y su derivada f 0 (z) existe y es continua en esta región4 , entonces la circulación a lo largo de cualquier
contorno cerrado C se anula. Esto es:
Pr
I
dz f (z) = 0 . (1.8)
C
Antes que nada, y como parte de ese adiestramiento en lenguaje, precisaremos qué queremos decir (qué
quieren decir los matemáticos) con regiones simplemente conexas y múltiplemente conexas.
or
Una región simplemente conexa es aquella que no tiene “huecos”, o dicho de una manera más precisa
y elegante, en la cual una curva Γ puede ser reducida (encogida) a un punto sin salir de la región R. En
la figura 1.6 cuadrante Ia se muestra una región simplemente conexa y en los cuadrantes Ib y Ic regiones
múltiplemente conexas. Estas dos últimas figuras clarifican este concepto. Es decir, una región múltiplemente
ad
conexa es aquella que no es simplemente conexa y con eso queremos decir que “tiene huecos”, o lo que es lo
mismo existen curvas que no se pueden reducir a puntos en la región.
Tal y como hemos comentado la demostración rigurosa del Teorema de Cauchy está fuera de los alcances
de estas notas, pero algo se puede hacer si invocamos el Teorema de Stokes (o uno de los Teoremas de Green
en el plano) que vimos cuando estudiamos análisis vectorial. Con ello recordamos la ecuación (1.7), entonces
rr
Z z2 Z x2 ,y2 Z x2 ,y2
dz f (z) = [u(x, y)dx − v(x, y)dy] + i [v(x, y)dx + u(x, y)dy] .
z1 x1 ,y1 x1 ,y1
Bo
4 Esta última condición no es necesaria, pero la demostración del teorema se torna mucho más sofisticada, y referimos al
lector a los libros especializados, vale decir a las referencias [James Brown, Ruel Churchill 1999, Konrad Knopp 1996].
40
1.3. INTEGRALES COMPLEJAS
con lo cual, si una vez más suponemos f (z) = u(x, y) + iv(x, y) y dz = dx + idy, entonces tendremos que
I I Z Z
∂(−v) ∂(−u) ∂(u) ∂(−v)
(udx − vdy) + i (vdx + udy) = dxdy + +i dxdy + = 0,
C C R ∂x ∂y R ∂x ∂y
y acto seguido, como f (z) es analı́tica, invocamos las condiciones de Cauchy Riemann (ecuación (1.6)) y es
r
inmediato ver que se anula la integral de circulación.
a
1.3.4. Algunas observaciones y el Teorema de Morera
in
De la anterior “demostración” del Teorema de Cauchy Riemann emergen algunas observaciones
La primera es la insistencia de que la condición que la derivada f 0 (z) existe y es continua en esta región
no es necesaria.
m
La segunda es que el Teorema de Cauchy, es válido también para regiones múltiplemente conexas.
Consideremos una región como la descrita en la figura 1.6 cuadrante II, es claro que podemos circular
la integral en los siguientes contornos
I Z Z Z Z Z
eli
dz f (z) = dz f (z) ≡ dz f (z)+ dz f (z)+ dz f (z)+ dz f (z) = 0 ,
C ABDEAF GHF A ABDEA AF F GHF FA
R R
y como AF
dz f (z) = − F A dz f (z) entonces
Z Z I I
dz f (z) + dz f (z) = 0 ⇔ dz f (z) + dz f (z) = 0 ,
ABDEA F GHF
Pr C1 C2
con lo cual se nota que para regiones múltiplemente conexas, a pesar que las circulaciones son opuestas,
el “observador” que circula por C1 y C2 siempre tiene la región R a su izquierda.
Siguiendo con la reflexión anterior, podemos invertir el sentido de la circulación en el contorno C2 con
lo cual I I I I
dz f (z) − dz f (z) = 0 ⇔ dz f (z) = dz f (z) .
or
C1 C2 C1 C2
Es decir, que si f (z) es analı́tica en una región R, da igual cualquier recorrido por las fronteras de una
región y el valor de la integral permanecerá inalterado.
ad
Más aún, este resultado puede extenderse a regiones con n huecos de tal forma que, tal y como ilustra
en en la figura 1.6 cuadrante III
I Xn I
dz f (z) = dz f (z) .
C1 j=1 Cj
rr
Con lo cual estamos afirmando que, dada una región que contiene un número finito (¿numerable?) n
de singularidades, la integral a lo largo del contorno que encierra la región R es equivalente a la suma
de las integrales que encierran cada una de las n singularidades.
Bo
Enunciaremos sin demostración el Teorema de Morera5 , también conocido como el teorema inverso de
Cauchy.
5 Pueden consultar la demostración en la referencia [Arfken, Weber y Weber 2000].
41
1.3. INTEGRALES COMPLEJAS
Teorema
H de Morera: Si una función f (z) es continua en una región R encerrada por un contorno C y
C
dz f (z) = 0 entonces f (z) es analı́tica en R.
r
I
1 f (z) dz
a
= f (z0 ) . (1.9)
2iπ C z − z0
in
Para probar esta afirmación supongamos una vez más un circuito en encierra al polo z = z0 (ver figura
1.8 cuadrante II). Con lo cual, como f (z) es analı́tica en una región, el Teorema de Cauchy nos garantiza
I I
1 f (z) dz 1 f (z) dz
m
= ,
2iπ C z − z0 2iπ Γ z − z0
si z − z0 = reiθ , entonces
2π 2π
f (z0 + reiθ )rieiθ dθ
eli
Z Z
1 1
= f (z0 + reiθ )dθ .
2iπ 0 reiθ 2π 0
Si reacomodamos la expresión para la forma integral podemos hacer que esa fórmula sea válida para
todo z I
1 f (ζ) dζ
f (z) = .
2iπ C ζ − z
ad
Más aún, veremos que es fácil generalizar esta fórmula para derivadas de funciones, vale decir
I
(n) n! f (z) dz
f z0 ) = . (1.10)
2iπ C (z − z0 )n+1
rr
1 f (z)dz
f 0 (z0 ) =
2iπ C (z − z0 )2
f (z0 + h) − f (z0 )
I
1 f (z) 1 1
= lı́m = lı́m − dz ,
h→0 h h→0 2iπ C h z − z0 − h z − z0
42
1.3. INTEGRALES COMPLEJAS
a r
Figura 1.7: Integrales complejas y circuitos
in
tal y como se muestra en la figura 1.8, cuadrante III tenemos que
I I
0 1 f (z) dz 1 f (z) dz
f (z0 ) = lı́m = .
h→0 2iπ C (z − z0 − h)(z − z0 ) 2iπ C (z − z0 )2
m
Pero mucho más interesante hubiera sido “derivar respecto a una constante”. Este truco implica que
∂ n f (ζ)
I I I
1 f (ζ) dζ (n) 1 n! f (ζ) dζ
f (z) = ⇒ f (z) = dζ = (1.11)
2iπ C ζ − z 2iπ C ∂z n ζ − z 2iπ C (ζ − z)n+1
eli
Esta fórmula es muy util para calcular integrales. Considere, por ejemplo la siguiente integral
e2ζ dζ
I
2iπ (3) 8iπ −2
I= 4
≡ f (−1) con f (z) = e2z ⇒ I = e ,
C (ζ + 1) 3! 3
Pr
donde hemos supuesto que el contorno C encerraba el punto z = −1, porque de otro modo la función
e2z
serı́a analı́tica y la integral se anuları́a por el Teorema de Cauchy.
(z + 1)4
1.3.6. Ejemplos
1. Evaluemos la integral compleja f (z) = z −1 a lo largo de diferentes contornos, tal y como se ilustran en
or
la figura 1.7
a) un circuito cerrado a lo largo de una circunferencia de radio R
Z 2π
ad
I I
dz z −1 ≡ d(Reiθ ) R−1 e−iθ = i dθ = 2πi ,
0
z1 =(R,0) (R,0) 0
c) siguiendo dos lı́neas rectas entre los puntos (R, 0) → (0, R) → (−R, 0). En este caso, procedemos
utilizando la expresión cartesiana para los números complejos. Para ello, vamos a parametrizar
Bo
z = z(t) para (R, 0) → (0, R) y z = z(s) cuando (0, R) → (−R, 0). Veamos
Z z3 =(−R,0) Z z2 =(0,R) Z z3 =(0,−R)
−1 −1
dz z = dz z + dz z −1 ,
z1 =(R,0) z1 =(R,0) z2 =(0,R)
43
1.3. INTEGRALES COMPLEJAS
r
= 2 2
= 2
+ i 2
,
0 (1 − t) + it 0 (1 − t) − t 0 1 − 2t + 2t 0 1 − 2t + 2t
a
es decir
Z 1 1 1
t−
(−1 + i)dt 1 = 0 + i π − −π
π
in
1
= ln(1 − 2t + 2t2 )0 + i arctan 2
1 = ,
0 (1 − t) + it 2 2
0
2 2 2 2
y, la segunda integral también tendrá el mismo resultado, con lo cual
m
Z z2 =(−R,0)
dz
= πi ¡el mismo resultado que a través del arco de circunferencia!.
z1 =(R,0) z
Es interesante notar que si regresamos al punto (R, 0) a través del contorno (−R, 0) → (0, −R) →
eli
(R, 0) la integral cerrada se anula, no ası́ cuando nos regresamos a través el arco complementario
de circunferencia. En pocas palabras, como se esperaba, el valor de las integrales de camino, para
algunas funciones, dependerán del camino seleccionado. En la próxima sección veremos a cuáles
funciones corresponderá un mismo valor de la integral cerrada, independientemente del circuito
que uno elija.
2. Otro ejemplo ilustrativo lo constituye
Pr
R 2π
I
dz
Z 2π
Rieiθ dθ i
Z 2π n=0: 0
dθ = 2iπ
⇒ = n dθ e−inθ ⇒
(z − z0 )n+1 0 R n+1 ei(n+1)θ R 0 i
R 2π
n 6= 0 : Rn 0
dθ[cos(nθ) − isen(nθ)] = 0
donde hemos utilizado la forma polar z − z0 ≡ Reiθ e integrado a lo largo de una circunferencia de
or
radio R centrada en z = z0 .
3. Considere la función definida en una región R
1 z0 fuera de la región R
ad
f (z) = con
z − z0 z0 dentro de la región R
Si z0 está fuera de la región, entonces f (z) es analı́tica en R, con lo cual el Teorema de Cauchy
implica que I
dz f (z) = 0 .
rr
C
Si z0 está dentro de la región, entonces f (z) no es analı́tica en R por cuanto existe una singula-
ridad z = z0 . Si consideramos C el contorno que bordea a R, como una circunferencia centrada en
z = z0 y Γ otra circunferencia que aı́sla a z0 con un radio |z − z0 | = (esta situación se ilustra en
Bo
la figura 1.8 cuadrante I). Entonces, si hacemos z − z0 = z̃ = eiθ el Teorema de Cauchy implica
Z 2π Z 2π
ieiθ dθ
I I
dz dz
= = = i dθ = 2πi .
C z − z0 Γ z − z0 0 eiθ 0
44
1.3. INTEGRALES COMPLEJAS
a r
in
Figura 1.8: Circulaciones y Polos
m
4. Evaluar
ez
Z
1
I= dz , para los entornos: C: |z| = 3 y C: |z| = 1 .
2πi C z−2
eli
El entorno |z| = 3 contiene en su interior al punto z0 = 2, esto implica que:
ez
Z
1
dz = e2 .
2πi C z − 2
Pr
Para el entorno |z| = 1, vemos que el punto z0 = 2 no está contenido en ese entorno, esto significa que
el integrando es una función analı́tica en toda la región. Por lo tanto:
ez
Z
1
dz = 0 .
2πi C z − 2
5. Evaluar
or
Z
1
I= dz , para los entornos: C1 : |z − i| = 2 , C2 : |z| = 3 y C3 : |z + i| = 2 .
C z2 +4
ad
Para el contorno |z − i| = 2, tenemos que éste contiene en su interior al punto z0 = 2i. Si escribimos
rr
la integral como
Z 1
z+2i
I= dz ,
C z − 2i
Bo
45
1.3. INTEGRALES COMPLEJAS
Consideremos ahora el contorno |z| = 3. Este contorno contiene en su interior a los puntos 2i y −2i.
Podemos trazar dos contornos adicionales, de radio alrededor de cada punto, entonces:
Z Z Z
1 1 1
2+4
dz = 2+4
dz + 2+4
dz
C z C(2i) z C(−2i) z
Z 1 Z 1
z+2i z−2i
= dz + dz
C(2i) z − 2i C(−2i) z + 2i
1 1
r
= 2πi + 2πi
z + 2i z=2i z − 2i z=−2i
a
1 1
= 2πi + 2πi − = 0.
4i 4i
in
Finalmente, para el contorno |z + i| = 2 se tiene que éste contiene al punto z0 = −2i. Repitiendo lo
que hicimos en el primer caso tenemos:
m
Z 1
z−2i
I= dz ,
C z + 2i
eli
Z 1
z−2i 1 π
I= dz = 2πi − =− .
C z + 2i
Pr 4i 2
or
ad
rr
Bo
46
1.3. INTEGRALES COMPLEJAS
r
i cos (t) − sin (t) (dC)
a
( % i3) f(z):= 1/z;
in
1
f(z) := ( % o3)
z
Escribimos la forma que tiene el integrando
m
( % i4) integrando: f(C(t))*dC$
Y procedemos a hacer la integración
eli
( % i5) ’integrate(integrando,t,0,2* %pi)=integrate(integrando,t,0,2* %pi);
2π
i cos (t) − sin (t)
Z
dt = 2iπ ( % o5)
0 i sin (t) + cos (t)
Pr
Podemos recurrir a un progrma que nos permita integrar una función dada f (z) = C → C sobre un
camino z(τ ) = R → C, para un parámetro a ≤ τ <≤ b
( % i6) IntC(f,r,τ ,a,b):=block( [f1,dz,Iout],f1:subst(z=r,f),
dz:diff(r,τ ),
Iout: ’integrate(f1*dz,τ ,a,b)=integrate(f1*dz,τ ,a,b), Iout )$
or
0 i sin (τ ) + cos (τ )
Z 2π
(i cos (τ ) − sin (τ )) (i sin (τ ) + cos (τ )) dτ = 0 ( % o8)
0
47
1.3. INTEGRALES COMPLEJAS
2π
i cos (τ ) − sin (τ )
Z
dτ = 2iπ ( % o9)
0 i sin (τ ) + cos (τ ) − a
Para f (z) = (z 3 − 3)/(2z − i)
( % i10) IntC((zˆ3-3)/(2*z- %i),cos(τ )+ %i*sin(τ ),τ ,0,2* %pi);
Z 2π (i cos (τ ) − sin (τ )) (i sin (τ ) + cos (τ ))3 − 3
(24i − 1) π
dτ = − ( % o10)
r
0 2 (i sin (τ ) + cos (τ )) − i 8
a
( % i11) kill(all)$
in
1.3.8. Ejercicios
1. Repetir los mismos pasos del primer ejemplo, 1.3.6, para el caso de
f (z) = (z ∗ )−1 .
m
2. Evaluar las siguientes integrales
R2 1 2 R π/6 i2t R∞
(a) − 1 dt , (b) e dt , (c) e−izt dt , <(z) > 0.
eli
1 t 0 0
a) f (z) = (z + 2)/z y C:
or
antihorario.
d)
1 cuando y < 0
f (z) =
4y cuando y > 0
Bo
48
1.3. INTEGRALES COMPLEJAS
5. Evalúe la integral I
Ln(1 − z)dz ,
C
donde C es el contorno del paralelogramo con vértices en ±i, ±(1 + i).
6. Evalúe la integral I
dz
,
C z − 3i
donde C es el cı́rculo |z| = π y en sentido antihorario.
r
7. Evalúe la integral
a
I
<(z)dz ,
C
in
donde C es el el arco del semicı́rculo superior |z| = 1 y en sentido antihorario.
8. Evalúe la integral
2z − 1
I
dz ,
m
2
C z −z
donde C es la elipse con focos en z = 0 y z = 2 y en sentido antihorario.
9. Utilizando la formula integral de Cauchy integre la siguiente función en sentido antihorario,
eli
z2
f (z) =
z2 − 1
alrededor de los cı́rculos
(a) |z + 1| = 1 , (b) |z − 1 − i| = π/2 , (c) |z + i| = 14/10 , (d) |z + 5 − 5i| = 7 .
Pr
10. Integre las siguientes funciones alrededor del cı́rculo unitario y en sentido antihorario
(a) cos(3z)/(6z) , (b) e2z /(πz − i) , (c) z 3 /(2z − i) , (d) (z 2 sen(z)/(4z − 1) .
11. Integre en sentido antihorario
a) I
dz
or
, C : 4x2 + (y − 2)2 = 4 .
C z2 + 4
b) I
zdz
, C : cı́rculo con centro en − 1 y radio 3 .
ad
C z 2 + 4z + 3
c) I
z+2
dz , C : |z − 1| = 2 .
C z−2
d)
rr
ez dz
I
, C : |z| = 0, 6 .
C zez − 2iz
12. Demuestre que
Bo
I
1
= 0,
C (z − z1 )(z − z2 )
para un camino cerrado simple C que contiene los puntos z1 y z2 arbitrarios.
49
Capı́tulo 2
ar
Series I
in
m
eli
Pr
or
ad
rr
Bo
50
2.1. SUCESIONES Y SERIES
r
soluciones a través de una expansión en series.
Newton estudia la siguiente ecuación diferencial, que por contener una primera derivada llamaremos una
a
ecuación diferencial de primer orden:
dy(x)
= 1 − 3x + y(x) + x2 + xy(x) . (2.1)
in
dx
Para buscar su solución, Newton propone el siguiente método que consiste en suponer una solución que tiene
la forma de una serie infinita. El primer término de la serie es:
m
y = 0 + ···
el cual corresponde al valor inicial x = 0 en la ecuación (2.1).
Al insertar este valor en (2.1) resulta
eli
dy(x)
= 1 + ···
dx
que al integrarse se obtiene
y = x + ···
Sustituyendo esta última expresión en (2.1), resulta
Pr
dy(x)
= 1 − 3x + x + · · · = 1 − 2x + 2x2 + · · ·
dx
Integrando esta última ecuación, se obtiene
2
y = x − x2 + x2 + · · ·
3
or
Repitiendo el proceso:
dy(x) 1 2 x3 1 2
= 1 − 2x + x2 − x3 + x4 · · · ⇒ y = x − x2 + − x4 + x5 + · · ·
dx 3 3 3 12 15
ad
Continuando con el método repetidamente se van calculando los diferentes términos de la serie
x3 x4 x5 x6 x7
y = x − x2 + − + − + + ···
3 6 30 45 630
En la figura 2.1 se puede apreciar parte del manuscrito original donde aparece el esquema de solución
rr
Philosophiae Naturalis Principia Mathematica, más conocidos como los Principia, donde describió la ley de gravitación universal
Bo
y estableció las bases de la Mecánica Clásica mediante las leyes que llevan su nombre. Entre sus otros descubrimientos cientı́ficos
destacan los trabajos sobre la naturaleza de la luz y la óptica y el desarrollo del cálculo matemático. Newton fue el primero
en demostrar que las leyes naturales que gobiernan el movimiento en la Tierra y las que gobiernan el movimiento de los
cuerpos celestes son las mismas. Es, a menudo, calificado como el cientı́fico más grande de todos los tiempos, y su obra como
la culminación de la revolución cientı́fica. (Tomado de Wikipedia).
51
2.1. SUCESIONES Y SERIES
a r
in
m
Figura 2.1: El esquema de Newton
eli
Por otra parte, notemos que para cada valor de x y y, la ecuación (2.1) no es más que la derivada y 0 (x),
es decir la pendiente, de las soluciones de:
Pr
y 0 (x) = 1 − 3x + y(x) + x2 + xy(x) .
De esta manera, con un poco de paciencia, o con algún programa de computación algebraico apropiado, se
puede obtener el campo vectorial correspondiente a la ecuación diferencial, como se puede apreciar en la figura
2.2 (figura 2a). En realidad las soluciones se pueden ver como las curvas determinadas por las direcciones
indicadas en el campo vectorial, figura 2b. Las aproximaciones que se van obteniendo con el método mostrado
or
anteriormente se pueden observar, junto con la solución verdadera en la Figura 2c. Notemos que todas las
aproximaciones son más cercanas entre si cuando x toma valores cada vez más próximos a cero.
Comencemos entonces nuestro estudio sobre ecuaciones diferenciales precisamente con las series ma-
temáticas.
ad
1, 2, 3, 4, . . . , 1, x, x2 , x3 , . . . , a, b, c, d .
En matemáticas se puede entender las sucesiones como una aplicación desde los números naturales a
Bo
cualquier otro conjunto, no necesariamente de la misma naturaleza. Estos números se denominan los términos,
elementos o miembros de la sucesión. Siendo más rigurosos, una sucesión se puede definir como una función
sobre el conjunto de los números naturales, es decir, que estarı́amos hablando en este caso de una función
discreta.
52
2.1. SUCESIONES Y SERIES
a b (c)
2 2 2
y 1
y(x) 1 y 1
K K
K K K2 K1
2 1 0 1 2
2 1 0 1 2 0 1 2 x
x x
r
1
K
1 K1
a
K
2
K
2 K2 C1 C2 C3 C4 Sol.
in
Figura 2.2: (a) Representación de los campos vectoriales. (b) Diferentes soluciones para la ecuación diferencial (2.1).
(c) La solución correcta correspondiente al valor inicial y(0) = 0 con las diferentes soluciones aproximadas.
m
Es bastante común que se confundan las sucesiones con series matemáticas, veremos que una serie en-
tenderemos es en realidad una suma de términos.
Las sucesiones se diferencian de los conjuntos en el hecho de que es importante considerar el orden en que
eli
aparecen distribuidos. Además, un mismo término de una sucesión puede aparecer varias veces en posiciones
diferentes. Esto significa que las siguientes sucesiones finitas son diferentes:
a, b, c, d 6= b, c, d, a .
Una sucesión puede contener infinitos elementos y en este caso se denomina una sucesión infinita, por lo
Pr
tanto, si a cada número entero positivo se le asocia un elemento un , entonces el conjunto ordenado:
u1 , u2 , u3 , ...un , . . . .
define una sucesión infinita. Cada término un tendrá un siguiente término un+1 y por lo tanto no existe un
último término.
Las sucesiones se pueden expresar de una manera más sencilla definiendo el n-ésimo término, como por
or
ejemplo:
1
un = , n = 1, 2, 3, . . .
n
cuyos primeros cuatro términos son:
1 1 1
ad
1, , , .
2 3 4
Otra manera de definir sucesiones es por medio de una relación de recurrencia, por ejemplo, para la bien
conocida sucesión de Fibonacci la relación de recurrencia es:
u1 = u2 = 1 , un+1 = un + un−1 , n ≥ 2,
rr
de Fibonacci, esta función cuando se expande en potencias de x tiene como coeficientes, ¡los números de
Fibonacci!
x
f (x) = = x + x2 + 2 x3 + 3 x4 + 5 x5 + 8 x6 + 13 x7 + 21 x8 + 34 x9 + · · ·
1 − x − x2
53
2.1. SUCESIONES Y SERIES
También es posible definir una sucesión a través del concepto de función. Se define una función para los
enteros positivos, de manera que f (n) es el término n-ésimo de la sucesión para cada n = 1, 2, 3, . . . . Por lo
tanto, los términos de las sucesión se escriben como:
r
nπ π
3π 5π
f (n) = sen ⇒ sin , sin (π) , sin , sin (2 π) , sin ...
2 2 2 2
a
1 3 4 5 6
f (n) = (−1)n 1 + ⇒ −2, , − , , − . . .
n 2 3 4 5
in
Las sucesiones pueden tener la caracterı́stica de ser crecientes o decrecientes. Una sucesión {f (n)} se dice
que es creciente si:
f (n) ≤ f (n + 1) ∀ n ≥ 1 ,
m
es decir, cada término es menor o igual al término siguiente. Y si de impone la condición f (n) < f (n + 1) se
denomina estrictamente creciente. Por otro lado, una sucesión se llama decreciente si:
eli
f (n) ≥ f (n + 1) ∀ n ≥ 1.
creciente o decreciente.
Nos vemos ahora en la necesidad de hablar del
significado de los términos convergencia o diver-
gencia de una sucesión.
Figura 2.3: Sucesión convergente a cero.
rr
Revisemos el concepto de convergencia (divergencia). Cuando una sucesión converge, lo que significa
es que tiende a un valor particular llamado su lı́mite, diremos en éste caso la sucesión será una sucesión
convergente. Las sucesiones que no son convergentes se denominan divergentes.
54
2.1. SUCESIONES Y SERIES
En otras palabras, una sucesión tiene lı́mite si los elementos de la sucesión se hacen cada vez más y más
cercanos a algún valor L (llamado lı́mite de la sucesión). Esto significa que dado un número real ε mayor que
cero, todos menos un número finito de elementos de la sucesión estarán siempre a una distancia a L menor
que ε.
Matemáticamente es lo siguiente:
lı́m f (n) = L . (2.2)
n→∞
Si una sucesión f (n) converge, entonces el lı́mite 2.2 existe, es único y la sucesión es acotada.
En la figura 2.3 podemos ver una representación gráfica para la sucesión:
r
n+1
f (n) = .
a
2n2
Esta serie converge, y es fácil ver que:
in
n+1
lı́m = 0.
n→∞ 2n2
m
cuales suelen ser divergentes por no tener lı́mite.
Estas sucesiones presentan términos que se al-
ternan de manera indefinida. Cuando cambian
de signo se llaman sucesiones alternadas, co-
eli
mo la que mencionamos anteriormente f (n) =
(−1)n ⇒ −1, 1, −1, 1, −1, . . . .
Un ejemplo particular de sucesiones oscilantes
convergentes es la sucesión de Cauchy. Una suce-
sión de números reales: x1 , x2 , x3 , . . . se denomi-
na una sucesión de Cauchy fundamental si para
Pr
todo número positivo ε existe un entero positi-
vo M tal que para todos los números naturales
n, m > M se cumple: Figura 2.4: Sucesión de Cauchy.
|xm − xn | < ε .
or
En este tipo de sucesiones los elementos se la sucesión se vuelven arbitrariamente cercanos entre sı́ a
medida que la sucesión progresa, como se puede ver en la figura 2.4. Esta condición, necesaria para hablar
de convergencia, se llama la condición de Cauchy.
Existe una serie de resultados interesantes que podemos mencionar:
ad
de una manera bastante particular. Por ejemplo, si un = 1/n, es claro que un converge a cero a medida que
n → ∞. Pero si un = eαn , el lı́mite dependerá del valor de α.
Por lo tanto, la pregunta a responder tiene que ver con el hecho de saber si los términos de un tienden,
o no, a un lı́mite finito cuando n crece indefinidamente.
55
2.1. SUCESIONES Y SERIES
r
i=1
Es decir, partimos con s1 = u1 y decimos que para todo n ∈ N se tiene que sn+1 = sn + un+1 . La sucesión
a
{sn } la llamaremos la serie de término general an definida a través de la sucesión {un } y la representaremos
por:
∞
in
X
un . (2.3)
n=1
Al número
n
m
X
sn = ui
i=1
eli
consecutiva lo términos de una sucesión diferente.
Si la sucesión sn tiende a un lı́mite S, la serie infinita
∞
X
ui ,
Pr i=1
se dice que es convergente y converge al valor S, el cual es único. Entonces se puede escribir:
∞
X n
X
S = u1 + u2 + u3 + · · · + un + · · · = un = lı́m {sn } = lı́m ui . (2.4)
n→∞ n→∞
n=1 i=1
or
El número S se denomina la suma de la serie infinita y debe ser entendido como el lı́mite de la sucesión.
Lo anterior se puede formalizar diciendo que la condición para la existencia de un lı́mite S es que para
cada ε > 0 existe un número N = N (ε) ∈ N tal que:
Esta afirmación se denomina criterio de Cauchy2 sobre la convergencia de las series parciales, y viene
a ser la condición necesaria y suficiente para que una suma parcial si converja a medida que avanzamos en
los términos de la serie.
Se dirá que la serie diverge si el valor de la sumatoria aumenta indeteniblemente.
rr
n=1
2 Augustin Louis Cauchy Parı́s, 1789 - 1857, matemático francés pionero en los estudios de análisis (real y complejo) y
de la teorı́a de los grupos de permutación. Cauchy hizo aportes importantes en los criterios de convergencia y divergencia de
series infinitas, ası́ como también, en ecuaciones diferenciales, determinantes, probabilidades y fı́sica matemática
56
2.1. SUCESIONES Y SERIES
r
∞
X
rn = uk , (2.6)
a
k=n+1
in
De las series nos interesa conocer cuánto suman. Es decir, cuál es el valor de si para una serie finita
donde i = N . Pero también estamos interesados en conocer cuánto suma una serie infinita.
m
Probablemente, de cursos anteriores hemos conocido algunas series emblemáticas, estudiemos aquı́ algunas
de estas series:
eli
Serie aritmética
Seguramente con anterioridad hemos oı́do hablar de progresiones aritméticas. Ellas son, sencillamente
series de la forma:
N −1
sN =
X
Pr
(a + nd) = a + (a + d) + (a + 2d) + (a + 3d) + (a + 4d) + · · · + [a + (N − 1)d] ,
n=0
resultando:
Nh i
2sN = N [a + a + (N − 1)d] ⇒ sN = Primer Término + Último Término
ad
2
obviamente, si N → ∞ la serie diverge.
Serie Geométrica
De ésta serie también sabemos que:
rr
N
X
sN = xn = 1 + x + x2 + x3 + · · · + xN ,
n=0
Bo
57
2.1. SUCESIONES Y SERIES
1 − xN +1 1 xN +1
(1 − x)sN = 1 − xN +1 ⇒ sN = = − ,
1−x 1−x 1−x
r
n=0
a
Por lo tanto podemos ver que si |x| < 1 tendremos que la suma será:
n ∞
xn+1 1
in
X X
lı́m = 0 ⇒ lı́m xn = xn = . (2.8)
n→∞ 1 − x n→∞ 1 − x
n=0 n=0
m
Series Aritmético-geométricas
Estas series, un poco más exóticas y como su nombre lo sugiere son una combinación de las anteriores.
N −1
eli
X
sN = (a + nd)xn = a + (a + d)x + (a + 2d)x2 + (a + 3d)x3 + (a + 4d)x4 + · · · + [a + (N − 1)d] xN −1 .
n=0
Utilizando la misma estrategia que aplicamos a las series geométricas (se deja como ejercicio al lector)
Pr
se llega a encontrar el valor, nada intuitiva, de la suma S:
a − [a + (N − 1)d] xN xd(1 − xN −1 )
sN = + .
1−x (1 − x)2
a xd
S= + .
1 − x (1 − x)2
Serie Armónica
ad
Quizá no la conocı́amos con este nombre (y menos por sus propiedades) pero seguro nos la hemos
tropezado.
∞
X 1 1 1 1 1 1
= 1 + + + + + ··· + ···
n=1
n 2 3 4 5 n
rr
Esta serie infinita resulta ser engañosa, en apariencia parece converger, pero no es ası́. Además notemos
lo siguiente:
20 220 20220
X 1 X 1 X 1
≈ 3, 5977 , ≈ 5, 9731 , ≈ 10, 492 ,
Bo
n=1
n n=1
n n=1
n
la suma de los primeros 20 términos es más grande que la suma de los siguientes ¡200 términos! y da
la impresión de que la serie crece muy lentamente hacia algún valor lı́mite.
58
2.1. SUCESIONES Y SERIES
Si analizamos con más cuidado, veremos que hay sutilezas. Acomodemos los términos de la siguiente
forma:
∞
X 1 1 1 1 1 1 1 1 1 1 1
=1+ + + + + + + + + + ··· + +···
n=1
n 2
|{z} 3 4 5 6 7 8 9 10 16
| {z } | {z } | {z }
σ0 σ1 σ2 σ3
r
n=1
n 1 + 1 2 + 1 2 + 2 4 + 1 4 + 2 4 + 3 4 + 4
| {z } | {z } | {z }
σ0 σ1 σ2
a
n
2
1 1 1 X 1
+ + + ··· + +··· + + ···
in
8+1 8+2 8+8 n
2 +j
| {z } j=1
σ3
con lo cual:
1 7 1 533 1 95549 1
σ0 =
; σ1 = > ; σ2 = > ; σ3 = > ;···
m
2 12 2 840 2 144144 2
y claramente diverge ya que:
1 1 1 1
1 + σ0 + σ1 + σ2 + σ3 + · · · > 1 + + + + + ···
2 2 2 2
eli
Esta prueba aparentemente se le debe a Nicole D’Oresme3 .
Ahora bien, notemos que para todo n ∈ N resulta:
Z n
dx dx
Z
Pr 2
Z 3
dx
Z 4
dx
Z k+1
dx X
n−1 Z k+1
dx
= ln(n) ⇒ ln(n) = + + + ··· + =
1 x 1 x 2 x 3 x k x k x
k=1
n−1 Z k+1
X dx 1 1 1
≤ < 1 + + + ··· + .
k k 2 3 n
k=1
or
Es decir
1 1 1
lı́m 1 + + + · · · + ≥ lı́m ln(n) = +∞ .
n→∞ 2 3 n n→∞
Por lo tanto:
ad
∞
X 1
= +∞ .
n=1
n
X 1 1 1 1
ζ(z) = z
= z + z + z + ··· , <(z) > 1 .
n=1
n 1 2 3
3 Nicole D’Oresme (1323-1382) Matemático francés que inventó la geometrı́a coordenada antes de Descartes. Sobre la serie
Bo
sobre las geometrı́a del espacio han tenido un profundo impacto en el desarrollo de la fı́sica teórica. Igualmente clarificó
la noción de integral al introducir el concepto de lo que hoy se conoce como integral de Riemann. Más detalles en http:
//[Link]/[Link].
59
2.1. SUCESIONES Y SERIES
Esta última expresión es también un ejemplo donde a partir de una serie se define una función, en
este caso una función analı́tica. Aquı́ z puede ser un número complejo, z = a + ib, y la serie converge
cuando su parte real es mayor o igual a 1.
La función Zeta de Riemann viene también definida por:
Z ∞ Z ∞ z −x
1 xz x e
ζ(z) = dx , donde Γ(z) = dx ,
Γ(z) 0 x (ex − 1) 0 x
r
Las mayorı́a de las series que hemos mencionado P con anterioridad tienen la particularidad de que todos
a
sus términos son positivos, es decir, para la serie an se tiene que an ≥ 0, y por lo tanto:
in
sn = sn−1 + an ≥ sn−1 ,
de manera que las sumas parciales sn son una sucesión monótona creciente.
m
2.1.4. Derivación de series geométricas elementales
Las series infinitas se encuentran entre las más poderosas herramientas que se introducen en un curso
de cálculo elemental. Son un ejercicio bastante inteligente para la manipulación de limites y son una buena
eli
herramienta para el estudio de las ecuaciones diferenciales, en el desarrollo de métodos numéricos y para
estimar el comportamiento de funciones.
Consideremos la serie geométrica:
a + az + az 2 + az 3 + · · · + az n + · · ·
Pr
con |z| < 1. Este es uno de los pocos ejemplos donde se puede encontrar el término de las sumas parciales a
través de una expresión sencilla. Esta serie se puede tomar como punto de partida para encontrar la suma
de un gran número de series interesantes. Consideremos el caso a = 1 y z = x, como en la ecuación (2.8).
1
1 + x + x2 + x3 + · · · + xn + · · · = , |x| < 1 . (2.9)
1−x
or
60
2.1. SUCESIONES Y SERIES
r
Si se deriva (2.9) entonces:
a
1
1 + 2x + 3x2 + · · · + nxn−1 + · · · = , |x| < 1 . (2.16)
(1 − x)2
in
Si se integra (2.12):
x2 x3 x4 (−1)n xn+1
x− + − + ··· + + · · · = ln(1 + x) , |x| < 1 . (2.17)
m
2 3 4 n+1
Si se integra (2.13) ahora resulta:
x3 x5 x7 (−1)n x2n+1
eli
x− + − + ··· + + · · · = arctan(x) , |x| < 1 . (2.18)
3 5 7 2n + 1
Siguiendo a Laplace, quien dijo que habı́a que leer a Euler: “Read Euler, read Euler. He is the master of
us all ”, podemos hacer lo siguiente con la serie (2.17):
Pr
ln(1 + x) = x −
x2
+
x3
−
x4
+ ··· (2.19)
2 3 4
Es bueno acotar que Euler utilizó esta expresión para construir ¡tablas de logaritmos!
Ahora hagamos lo siguiente, cambiemos x por −x en la ecuación anterior:
x2 x3 x4
ln(1 − x) = −x − − − − ··· (2.20)
or
2 3 4
restando (2.19) menos (2.20):
x2 x3 x4 x2 x3 x4
ln(1 + x) − ln(1 − x) = x− − + · · · − −x − − − − ···
ad
+
2 3 4 2 3 4
2x3 2x5
= 2x + + + ···
3 5
Es decir:
rr
2x3 2x5
1+x
ln = 2x + + + ···
1−x 3 5
Para valores pequeños de x, digamos x = 1/3 resulta:
Bo
3 5
1
2 13 2 13
1+ 3 1
ln 1 = ln (2) = 2 + + + · · · ≈ 0,6930041152
1− 3
3 3 5
61
2.1. SUCESIONES Y SERIES
Euler notó la siguiente conexión entre logaritmos y las series armónicas. Cambiando x por 1/n en (2.19)
se obtiene
1 1 1 1 1
ln 1 + = − 2 + 3 − 4 + ···
n n 2n 3n 4n
por lo tanto:
1 1 1 1 1
= ln 1 + + 2 − 3 + 4 − ···
n n 2n 3n 4n
y para valores de n muy grandes, se cumple que:
r
1 n+1
= ln
a
n n
Ahora bien, para diferentes valores de n se obtienen las siguientes relaciones
in
1 1 1
n=1 ⇒ 1 ln (2) + − + − · · ·
=
2 3 4
1 3 1 1 1
n=2 ⇒ = ln + − + − ···
m
2 2 8 24 64
1 4 1 1 1
n=3 ⇒ = ln + − + − ···
3 3 18 81 324
.. .. .. .. ..
eli
. . . . .
1 n+1 1 1 1
= ln + 2 − 3 + 4 − ···
n n 2n 3n 4n
Si sumamos columna por columna resulta:
Xn
1
3
Pr
4
n+1
= ln (2) + ln + ln + · · · + ln
k 2 3 n
k=1
1 1 1 1 1 1 1 1
+ 1 + + + ··· + 2 − 1+ + + ··· + 3
2 4 9 n 3 8 27 n
1 1 1 1
+ ··· + 4 − ···
or
+ 1+ +
4 16 81 n
Es fácil ver que la suma de los logaritmos de la primera lı́nea se puede escribir como el logaritmo de sus
productos, es decir,
ad
3 4 n+1 3 4 n+1
ln (2) + ln + ln + · · · + ln = ln 2 ··· = ln (n + 1) .
2 3 n 2 3 n
De manera que, y siguiendo a Euler que llevó a cabo un estimado para los términos sobrantes, resulta lo
siguiente:
n
rr
X 1
≈ ln (n + 1) + 0,577218 .
k
k=1
Para valores de n muy grandes la suma de las serie armónica es igual a un logaritmo más una constante.
Bo
62
2.1. SUCESIONES Y SERIES
La constante de Euler juega un papel central en otras ramas de las matemáticas, por ejemplo, en el
análisis real aparece como: Z ∞
γ=− e−x ln (x) dx .
0
r
an = f (n) − f (n − 1) .
a
para alguna función f (n).
En ese caso es inmediato demostrar lo siguiente:
in
N
X N
X N
X
sN = an = f (n) − f (n − 1) = f (N ) − f (0) . (2.22)
n=1 n=1 n=1
m
Por ejemplo, si tenemos la serie:
N
X 1
,
n=1
n(n + 1)
eli
se puede ver que:
1 1 1 1
an = =− + ⇒ f (n) = − ,
n(n + 1) n+1 n n+1
por lo tanto, la suma se podrá expresar como:
Pr
sN = f (N ) − f (0) = −
1
+1=
N
.
N +1 N +1
Se puede ir más allá si identificamos que el término n-ésimo tiene la forma:
an = f (n) − f (n − m) ,
N
X N
X N
X
sN = an = f (n) − f (n − m) . (2.23)
n=1 n=1 n=1
ad
Hay que hacer notar que el argumento n − m puede ser positivo o negativo. Con lo cual el método de la
diferencia resulta versátil y muy útil cuando se requiere encontrar la suma de series de variada dificultad.
Podemos ver que:
Si m = 1
N
rr
X
sN = an = f (N ) − f (0) .
n=1
Si m = 2
N
X
sN = an = f (N ) + f (N − 1) − f (0) − f (−1) .
n=1
63
2.1. SUCESIONES Y SERIES
Si m = 3
N
X
sN = an = f (N ) + f (N − 1) + f (N − 2) − f (0) − f (−1) − f (−2) .
n=1
r
se tiene que el término n-ésimo es:
a
1 1 1 1
an = =− + ⇒ f (n) = − ,
n(n + 2) 2(n + 2) 2n 2(n + 2)
in
de manera que:
1 1
an = f (n) − f (n − 2) = − − − ,
2(n + 2) 2n
m
de forma y manera que, como m = 2, resulta:
3 1 1 1 N (3 N + 5)
sN = f (N ) + f (N − 1) − f (0) − f (−1) = − + = .
4 2 N +2 N +1 4 (N + 1) (N + 2)
eli
Ahora bien, con alguna frecuencia surgen las series de números naturales. La más simple es:
N
X N (N + 1)
sN = 1 + 2 + 3 + · · · + N = n= ,
Pr n=1
2
n=1
Este resultado, nada intuitivo, surge de la aplicación ingeniosa del método de la diferencia. Tal y como
hemos dicho, se trata de encontrar que el elemento genérico de la serie sea: an = f (n) − f (n − 1) = n2 para
alguna función.
ad
entonces:
rr
n=1
6 6
64
2.1. SUCESIONES Y SERIES
con lo cual:
N (N + 1)(2N + 1) N (N + 1) N (2N 2 + 15N + 31)
r
sN = + + 3N = .
6 2 6
a
2.1.6. Algebra elemental de series
in
Las series se suman, se igualan y se multiplican. Para ello es importante que tengamos cuidado con los
ı́ndices y sus valores. Consideremos un par de series infinitas:
∞
X ∞
X
u= an y v= bn ,
m
n=0 n=0
eli
n=0 n=0 n=0
Para finalizar se puede comprobar que las series también se pueden multiplicar:
∞
X ∞
X ∞
X
uv = an bn = cn ,
ad
donde:
cn = a0 bn + a1 bn−1 + · · · + aj bn−j + · · · + an−2 b2 + an−1 b1 + an b0 .
Cuando las sucesiones comprenden sumas y productos de otras sucesiones, es decir, sı́ uk y vk son dos
rr
65
2.1. SUCESIONES Y SERIES
P∞
Teorema: P Si la serie n=1 un converge, entonces cualquiera de sus restos converge. Si cualquier resto
∞
de la serie n=1 un converge, entonces la propia serie también converge, y si además:
∞
X ∞
X ∞
X
S= un , si = un , ri = un .
n=1 n=1 n=i+1
Entonces:
S = si + ri .
r
Se tiene entonces que es posible agregar o quitar un número finito de términos a la serie dada y esta
a
operación no influirá sobre su convergencia. También se desprende del teorema anterior que si la serie converge
entonces su resto tiende a cero:
in
lı́m ri = lı́m (S − si ) = 0 .
i→∞ i→∞
m
Una propiedad importante de las series finitas es la propiedad denominada telescópica:
n
X
(ak − ak+1 ) = a1 − an+1 , (2.24)
eli
k=1
P
para el caso de series infinitas, se consideran aquellas series un donde cada término se puede expresar
como una diferencia de la forma:
un = an − an+1 .
Pr
Las series telescópica son series cuyas sumas parciales se van cancelando de manera tal que al final resulta
un número fijo de términos:
Teorema: Sean {un } y {an } dos sucesiones de números reales o complejos tales que:
or
∞
X
un = a1 − L donde L = lı́m an .
n→∞
n=1
∞
X 1
2+n
.
n=1
n
Podemos demostrar que:
Bo
1 1 1
un = = − ,
n2 +n n n+1
66
2.1. SUCESIONES Y SERIES
Pero si aplicamos el teorema anterior, tenemos entonces que: an = 1/n , a1 = 1 y además ya vimos que
la sucesión an = 1/n converge:
1
L = lı́m an = lı́m = 0.
n→∞ n
r
n→∞
Por lo tanto:
∞
a
X 1
2+n
= 1.
n=1
n
in
Las series pueden llegar a tener comportamientos extraños, como se ve con la siguiente serie armónica
alternada:
∞
X (−1)(n−1) 1 1 1 1 1
= 1 − + − + − + ··· ,
n 2 3 4 5 6
m
n=1
Recordemos que anteriormente estudiamos la serie geométrica (2.7), la cual volveremos a escribir pero
está vez intercambiando x → −x, de manera que nos queda de la siguiente forma:
xn+1
eli
1
1 − x + x2 − x3 + · · · + (−1)n xn + (−1)n+1 = . (2.25)
1+x 1+x
Ecuación que es válida para todo n ∈ N y x 6= 1.
Integrando (2.25) entre 0 y 1 se obtiene:
1 1 1 n 1 n+1
Z 1
Pr xn+1
1 − + − + · · · + (−1) + (−1) dx = ln(2)
2 3 4 n+1 0 1+x
n+1
X (−1)(k−1) Z 1
xn+1
+ (−1)n+1 dx = ln(2) .
k 0 1+x
k=1
Por lo tanto:
or
n+1 1
(−1)(k−1) xn+1
X Z
ln(2) − = (−1)n+1 dx .
k 0 1+x
k=1
1 1 n+1
xn+1 X (−1)(k−1)
Z Z
n+1 1 1
dx ≤ x dx = ⇒ ln(2) − =
0 1+x 0 n+2 k n+2
k=1
Entonces:
rr
∞
" n+1
#
X (−1)(k−1) X (−1)(n−1)
lı́m ln(2) − = 0 ⇒ ln(2) = .
n→∞ k n=1
n
k=1
67
2.1. SUCESIONES Y SERIES
la cual contiene exactamente los mismos términos, aunque en orden diferente, pero ahora la serie converge
a S = 32 ln(2). Esta aparente contradicción surge cuando pasamos por alto el hecho de que al sumar los
términos de una serie no se hace la suma con los infinitos términos, lo que hacemos es calcular un lı́mite
de una sucesión de términos que se obtienen sumando de manera consecutiva los términos de otra sucesión
dada, es decir, lo que se hacemos es aplicar un proceso de lı́mite. Para que al sumar no importe el orden de
los sumandos tendrı́amos que sumar los infinitos términos de la sucesión.
A pesar de que las series pueden presentar estos comportamientos extraños, las series resultan muy buenas
representaciones aproximadas de funciones, por ejemplo:
r
∞
x2 x3 x4 X xn
ex = 1 + x + + + + ··· = . (2.26)
2! 3! 4! n!
a
n=0
La suma directa de una serie infinita no es un método práctico para estudiar su convergencia, por ejemplo,
in
la serie
∞
X ln(k)
,
k2
k=2
converge al valor 0, 937548..., pero para obtener estos primeros cinco decimales se tendrı́a que sumar unos
m
107 términos!
Es necesario entonces desarrollar algunos criterios que nos permitan saber si una serie puede llegar a
converger o no.
eli
2.1.8. Ejemplos
1. Dada la sucesión {un } de números reales, se llama sucesión de Cauchy o sucesión fundamental, en el
caso de que satisfaga el requisito siguiente: dado un número real r positivo se pueda conseguir dos
enteros positivos p y q tal que de p > n0 y q > n0 se deduzca que |cp − cq | < r?.
Pr
En los números reales toda sucesión de Cauchy converge a algún lı́mite. Esta particularidad implica
un resultado importante en el análisis real que es la caracterización de Cauchy para la convergencia de
sucesiones:
Una sucesión de números reales es convergente (en los reales) si y solo si es de Cauchy.
2. Demuestre que
or
∞
X 1
n
=1
n=1
2
Se tiene que
1 1 1 1
ad
sn = + + 3 + ··· + n ,
2 22 2 2
1
y que al multiplicar por 2 se obtiene
1 1 1 1 1
sn = 2 + 3 + 4 + · · · + n+1 ,
2 2 2 2 2
rr
restando
1 1 1 1
1− sn = − n+1 = 1 − n .
2 2 2 2
Bo
por lo tanto
1
lı́m 1 − n = 1,
n→∞ 2
la serie converge.
68
2.1. SUCESIONES Y SERIES
r
N
a
X
( %o2) n2
n=1
(%i3) sum(1/n^2, n, 1, inf);
in
∞
X 1
( %o3)
n=1
n2
m
La función sum nos deja indicada la suma porque no hemos especificado el rango para los valores de la
suma.
(%i4) sum(n^2, n, 1, 20);
eli
( %o4) 2870
También podemos utilizar float o numer para pedirle al programa que nos escriba el valor numérico
(%i5) sum(1/n^2, n, 1, 1000),float;
Pr
( %o5) 1,643934566681561
Con las funciones simpsum o simplify sum es posible que el programa realice la suma simbólica.
(%i6) sum(n^2, n, 1, N),simpsum;
or
2 N3 + 3 N2 + N
( %o6)
6
(%i7) simplify_sum(sum(n^2, n, 1, N));
2 N3 + 3 N2 + N
ad
( %o7)
6
Con este último comando podemos escribir la expresión de la sumatoria de manera más elegante.
(%i8) sum(n^2, n, 1, N)=simplify_sum(sum(n^2, n, 1, N));
rr
N
X 2 N3 + 3 N2 + N
( %o8) n2 =
n=1
6
Bo
69
2.1. SUCESIONES Y SERIES
∞
X xn
( %o9) = ex
n=0
n!
(%i10)sum(1/n^2, n, 1, inf)=simplify_sum(sum(1/n^2, n, 1, inf));
∞
X 1 π2
( %o10) =
n=1
n2 6
Podemos ahorrarnos el estar escribiendo el término enésimo varias veces si definimos la función f = f (n)
en primer lugar.
r
(%i11)f:(-1)^(n-1)/n$ sum(f, n, 1,inf)=simplify_sum(sum(f, n, 1,inf));
a
∞ n−1
X (−1)
( %o11) = log(2)
in
n=1
n
En el siguiente ejemplo el programa no podrá encontrar la serie de manera simbólica, pero como comen-
tamos anteriormente, podemos evaluar la serie para algunos valores de N . En este caso, para N >10.000 el
consumo en tiempo de cálculo para la computadora comienza a notarse.
m
(%i12)f:log(n)/n^2;
log(n)
( %o12)
eli
n2
(%i13)sum(f, n, 1,inf)=simplify_sum(sum(f, n, 1,inf));
∞ ∞
X log(n) X log(n)
( %o13) =
n2 n2
n=1 n=1
Pr
(%i14)sum(f,n,2,10),numer;sum(f,n,2,100),numer;sum(f,n,2,1000),numer;sum(f,n,2,10000),numer;
( %o14) 0,6185026440390787
( %o15) 0,8817261267819703
( %o16) 0,9296439518465429
( %o17) 0,9365272663288963
or
Este último ejercicio puede ser resuelto de una manera más eficiente si expresamos la función de variable
discreta como una sucesión utilizando la opción de crear una lista, makelist, para evaluarla.
Primero escribimos la función discreta, note que usamos :=
ad
(%i18)g[n]:=log([n])/[n]^2;
log([n])
( %o18) gn :=
[n]2
(%i19)makelist(sum(g[n],n,2,N),N,[10,100,1000,10000]),numer;
rr
(%i20)kill(all)$
(%i1) F[1]:1$ F[2]:1$ F[n]:=F[n-1]+F[n-2];
70
2.1. SUCESIONES Y SERIES
( %o3) Fn := F [n − 1] + F [n − 2]
(%i4) makelist(F[n],n,1,15);
( %o4) [1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610]
Maxima ya contiene la sucesión de Fibonacci fib(n) en sus librerı́as de funciones propias. En este caso
aplicaremos la función map para evaluar la sucesión en los diferentes valores de su argumento n
(%i5) fib(8);
r
( %o5) 21
a
(%i6) map (fib, [ 1, 2, 3, 4, 5, 6, 7, 8, 9, 10]);
in
( %o6) [1, 1, 2, 3, 5, 8, 13, 21, 34, 55]
m
(%i7) G[n]:=(-1)^n*(1+1/n);
1
( %o7) Gn := (−1)n 1 +
n
eli
(%i8) makelist(G[n],n,1,15);
3 4 5 6 7 8 9 10 11 12 13 14 15 16
( %o8) −2, , − , , − , , − , , − , , − , , − , , −
2 3 4 5 6 7 8 9 10 11 12 13 14 15
Podemos hacer operaciones básicas con sucesiones, como sumarlas
Pr
(%i9) S[n]:=F[n]+G[n]; makelist(S[n],n,1,15);
( %o9) Sn := Fn + Gn
5 2 17 19 55 83 177 296 561 967 1741 3015 5293 9134
( %o10) −1, , , , , , , , , , , , , ,
2 3 4 5 6 7 8 9 10 11 12 13 14 15
Operaciones combinadas
or
(%i11)C[n]:=3*F[n]-n*G[n]; makelist(C[n],n,1,15);
( %o11) Cn := 3Fn − n Gn
( %o12) [5, 0, 10, 4, 21, 17, 47, 54, 112, 154, 279, 419, 713, 1116, 1846]
ad
Multiplicación
(%i13)M[n]:=F[n]*G[n]; makelist(M[n],n,1,15);
rr
( %o13) M
n := Fn Gn
3 8 15 28 104 189 340 121 1068 3262 5655 1952
( %o14) −2, , − , , −6, , − , ,− , ,− , 156, − , ,−
2 3 4 3 7 8 9 2 11 13 14 3
Bo
División
(%i15)D[n]:=F[n]/G[n]; makelist(M[n],n,1,15);
71
2.1. SUCESIONES Y SERIES
Fn
( %o15) Dn :=
Gn
1 2 3 12 25 48 91 56 153 979 1728 3029 5278 4575
( %o16) − , , − , , − , , − , , − , 50, − , ,− , ,−
2 3 2 5 6 7 8 3 5 12 13 14 15 8
Consideremos la siguiente sucesión:
(%i17)f[n]:=(n+1)/(2*n^2);
n+1
( %o17) fn :=
r
2n2
a
Para algún valor de n en particular:
(%i18)f[2];
in
3
( %o18)
8
Para un conjunto de valores:
m
(%i19)makelist(f[n],n,1,15);
3 2 5 3 7 4 9 5 11 6 13 7 15 8
( %o19) 1, , , , , , , , , , , , , ,
eli
8 9 32 25 72 49 128 81 200 121 288 169 392 225
Si queremos graficar la sucesión hacemos lo siguiente
(%i20)N[n]:=n$ LisN:makelist(N[n],n,1,50)$ Listf:makelist(f[n],n,1,50)$
Pr
(%i21)wxplot2d([discrete,LisN,Listf],[style,[points,2,2,1]],[xlabel,"n"],[ylabel,"f(n)"]);
( %o21)
or
ad
rr
Bo
72
2.1. SUCESIONES Y SERIES
(%i22)g[n]:=1+(-1)^n/(n);
(−1)n
( %o22) gn := 1 + ;
n
(%i23)Listg:makelist(g[n],n,1,50)$
(%i24)wxplot2d([discrete,LisN,Listg],[style,[points,2,2,4]],[xlabel,"n"],[ylabel,"g(n)"]);
( %o24)
a r
in
m
eli
Pr
2.1.10. Ejercicios
1. Encuentre la suma de los 100 primeros enteros.
or
2. Encuentre la distancia total que recorre una pelota que rebota verticalmente y que en cada rebote
pierde 2/3 de su energı́a cinética.
5 8 11
3. Encuentre la suma de la serie S = 2 + 2 + 4 + 8 + ···.
ad
4. Demuestre que
a)
∞
X 1
=1
n(n + 1)
rr
n=1
b)
∞
X 1 1
=
(2n − 1)(2n + 1) 2
Bo
n=1
73
2.2. CRITERIOS DE CONVERGENCIA
1
b) un = 1+n2
n2
c) un = 1+n
(an+b)2
d ) un = cn2 +d
P 2
PN N N 2 (N +1)2
6. Muestre que sN = 1 + 23 + 33 + · · · + N 3 = 3
n=1 n = n=1 n = 4 .
r
P∞ n x
a) n=1 nx = (1−x)2
a
x2 +x
P∞ 2 n
b) n=1 n x = (1−x)3
in
x3 +4x2 +x
P∞ 3 n
c) n=1 n x = (1−x)4
x4 +11x3 +11x2 +x
P∞ 4 n
d) n=1 n x = (1−x)5
8. Demuestre que:
m
" n
# " n #
X 1 X1
lı́m − ln (n + 1) = lı́m − ln (n) .
n→∞ k n→∞ k
k=1 k=1
eli
2.2. Criterios de convergencia
PN
La pregunta que nos planteamos es la siguiente: Si hacemos que N → ∞ entonces ¿la suma k=1 ak ,
tiene un lı́mite? A pesar de que sólo podremos calcular la suma de algunas series, existen algunas formas
Pr
de averiguarlo. Es decir, en la mayorı́a de los casos nos será imposible y nos tendremos que conformar con
saber si convergen o no, o peor aún, si una suma parcial converge sin poder calcular el valor de esa suma.
Los términos de una serie pueden ser positivos, negativos o números complejos y las series pueden conver-
ger (decrecer o crecer hacia un valor finito) no converger (incrementar o decrecer indefinidamente) u oscilar.
Existe una serie de criterios y teoremas de aplicación general que expondremos a continuación.
P
Para estudiarP la convergencia de una serie infinita dada, ai veremos que siempre podremos asociarle
otra de la forma |ai |, es decir, la serie de valores absolutos, con lo cual garantizamosP la positividad (y que
sean números reales) de los términosP de la serie. Si la serie de los valores absolutos |ai | converge, entonces
ad
también convergerá la serie original ai y diremos que esa serie P es absolutamente convergente. Sin embargo
si la serie de valores absolutos diverge, no podremos decir que ai converja. De hecho, si converge diremos
que es condicionalmente convergente y, con un rearreglo de sus términos podrá converger, diverger u oscilar.
P P
Teorema: Si |an | converge, entonces también converge an y se tiene que:
rr
∞ ∞
X X
an ≤ |an |
n=1 n=1
Bo
Para una serie de términos positivos el criterio de convergencia más intuitivo (necesario pero no suficiente)
es que en lı́mite cuando n → ∞ el término n-ésimo tienda a cero. Con lo cual tenemos que si esta condición
no se satisface, la serie diverge.
74
2.2. CRITERIOS DE CONVERGENCIA
P
Teorema: Si la serie an converge, el término n-ésimo tiende a cero, esto significa que:
lı́m an = 0 .
n→∞
r
sin embargo, como ya vimos anteriormente, esta serie diverge. Esto significa que el teorema suministra una
condición suficiente para que exista la divergencia de la serie, es decir,
Psi para el término n-ésimo de la serie
a
an no se cumple que tiende a cero cuando n → ∞, entonces la serie an diverge.
Una serie que es convergente pero que no es absolutamente convergente es la siguiente
in
∞
X 1 1 1 1
(−1)n+1 = 1 − + − + · · · = ln(2)
n=1
n 2 3 4
porque ya vimos que la serie de los valores absolutos asociada a la serie anterior es
m
∞
X 1
n=1
n
eli
la cual diverge.
n=0 }
e
y es claro que la serie indicada no es otra cosa que e, con lo cual la serie claramente converge y su suma es
1 + e.
75
2.2. CRITERIOS DE CONVERGENCIA
r
1
(an ) n = 1 para un n suficientemente grande y ρ independiente de n ⇒ (?)
a
Otra forma, más compacta de expresarlo serı́a
in
ρ<1 ⇒ converge
1
Sı́ ρ = lı́m (an ) n entonces: ρ>1 ⇒ diverge
n→∞
m
ρ=1 ⇒ (?)
eli
1
cuando ρ < 1 la serie converge
(an ) n 6 ρ ⇒ an 6 ρn ⇒
cuando ρ > 1 la serie diverge
La serie converge.
cociente, compara el valor relativo de un término de la serie con el que le precede. Este criterio se resume
también fácilmente
ρ < 1 ⇒ converge
an+1
rr
Si ρ = lı́m entonces: ρ > 1 ⇒ diverge
n→∞ an
ρ = 1 ⇒ indeterminado
Bo
5 Jean Le Rond d’Alembert Parı́s, Francia 1717 - 1783. Matemático francés pionero en el estudio de las ecuaciones
diferenciales y su utilización en la Fı́sica, en particular en el estudio de los fluı́dos. Más detalles en [Link]
wiki/Jean_Le_Rond_d’Alembert
76
2.2. CRITERIOS DE CONVERGENCIA
Nótese que si
an+1
ρ<1 ⇒ ρ<x<1 ⇒ < x ⇒ an+1 = an x .
an
Entonces para un N < n, pero también suficientemente grande, tendremos que los términos de la serie a
partir de ese N serán
aN + aN +1 + aN +2 + aN +3 · · · = aN + xaN + x2 aN + x3 aN · · · = aN 1 + x + x2 + x3 + x4 · · ·
y que no es otra cosa que una serie geométrica con razón x < 1 y por consiguiente converge. Es claro que un
r
argumento similar se puede utilizar para probar la divergencia.
Un ejemplo inmediato lo constituye la serie
a
∞ n+1
1 1 3 1 5 X n 2n+1 1n+1 1 1
+ + + + + ··· = ⇒ n = = 1+ ,
2 2 8 4 32 2n 2 n 2 n
in
n=1 2n
1 1 1
ρ = lı́m 1+ = < 1,
n→∞ 2 n 2
m
con lo cual tiene que converger.
eli
con una integral. Ası́ supondremos que existe una función f (x) continua y monótonamente decreciente para
un valor de x > x0 y que, adicionalmente, se cumple que para algún valor entero x = n el valor de la función
RN
es igual a un término de la serie,
P∞ esto es, f (n) = an . Entonces se tendrá que si el lı́mite lı́mN →∞ dx f (x)
existe y es finito, entonces n=1 an converge. Por el contrario si el lı́mite no existe o es infinito, entonces
diverge.
Pr
La idea de este criterio es comparar la integral de f (x) (el área bajo la curva) con la suma de rectángulos
que representa la serie. Entonces, la suma parcial
i
X i
X
si = an ≡ f (n) .
n=1 n=1
or
Pero: R i+1
si > 1
dx f (x) Z i+1 Z i
⇒ dx f (x) ≤ si ≤ dx f (x) + a1
Ri 1 1
si − a1 < dx f (x)
ad
1
dondePa1 = f (1), con lo cual, al hacer i → ∞ tendremos que si el lı́mite de la integral existe, entonces la
∞
serie n=1 an converge.
Z ∞ ∞
X Z ∞
dx f (x) ≤ an ≤ dx f (x) + a1
1 n=1 1
rr
n=1 n− 2
6 Colin Maclaurin 1698, Argyllshire, Escocia - 1746 Edinburgo, Escocia. Matemático escocés quien escribió el Tratado de
los Fluxiones el primer tratado que expuso de una manera sistemática y rigurosa el cálculo diferencial ideado por Newton. Este
tratado fue como respuesta a la crı́tica de Berkeley sobre la falta de rigurosidad de los métodos Newton.
77
2.2. CRITERIOS DE CONVERGENCIA
a r
in
Figura 2.5: El criterio de la integral
m
Hacemos
N
−1
Z
1 1
f (x) = ⇒
3 2
dx
3 2
= ,
x− x− N − 23
2 2
eli
debemos ahora calcular el lı́mite
−1
lı́m =0
N →∞ N − 32
con lo cual claramente converge.
Pr
Este criterio es muy útil para acotar (entre un ı́nfimo y un supremo) el residuo de una determinada serie.
Vale decir
∞
X N
X ∞
X Z ∞ ∞
X Z ∞
an = an + an ⇒ dx f (x) ≤ an ≤ dx f (x) + aN +1 .
n=1 n=1 n=N +1 N +1 n=N +1 N +1
| {z }
Residuo
or
n=1
X 1
−z −z
ζ(z) = n ⇒ dx x =
n=1 1 ∞
ln(x)|1 Para z = 1
y
Pes claro que para z > 1 el lı́mite existe y es finito, por lo tanto, la función Zeta de Riemann, ζ(z) =
Bo
∞ −z
n=1 n , converge para z > 1.
78
2.2. CRITERIOS DE CONVERGENCIA
r
n
n=1
a
Entonces, si la serie es monótona decreciente para un n suficientemente grande tenemos lo que se denomina
el Criterio de Leibniz:
in
an > an−1 ∀ n>N
∞
X
(−1)n+1 an converge, si: ∧
m
n=1
an → 0 cuando n → ∞
eli
determinado N par y N > n, entonces
donde todos los paréntesis son positivos, con lo cual s2m > 0 y se incrementa al incrementar m. Ahora bien,
si rearreglamos la serie tendremos que
Pr
s2m = aN − (aN −1 − aN −2 ) − (aN −3 − aN −4 ) + · · · − (aN +2m−1 − aN +2m−2 ) − aN +2m−1 ,
donde, otra vez los paréntesis son positivos y es inmediato comprobar que entonces s2m < an para todo m.
Como an → 0 cuando n → ∞, la serie alternante necesariamente converge.
or
La series alternantes ya eran conocidas desde hace mucho tiempo, como por ejemplo la serie
∞
X x2 x3 x4 xn
an = x − + − + · · · + (−1)n−1 + ··· .
n=1
2 3 4 n
ad
Esta serie converge y su suma es ln(1 + x) para −1 < x ≤ 1. Para x positivo es una serie alternante y en
el caso particular de x = 1 se tiene:
1 1 1 1
1 − + − + · · · + (−1)n−1 + · · · = ln(2) .
2 3 4 n
rr
3 5 7 2n − 1 4
79
2.2. CRITERIOS DE CONVERGENCIA
Teorema: Si {an } es una sucesión monótona decreciente con lı́mite igual a cero, la serie alternante
∞
X
(−1)n−1 an ,
n=1
converge.
r
0 < (−1)n (S − sn ) < an+1 para n ≥ 1 .
a
Consideremos la siguiente serie
in
∞
X 1 1 1 1
(−1)n−1 = 1 − + − + ··· .
n=1
n 2 3 4
m
1
lı́m = 0,
n→∞ n
eli
por lo tanto, de acuerdo al teorema anterior la serie converge; como ya hemos visto.
Consideremos ahora la serie
Z n+1
1 dx
a2n−1 = y a2n = para n = 1, 2, 3, ... .
2 n x
n=1
converge.
2.2.7. Ejemplos
ad
rr
Bo
80
2.2. CRITERIOS DE CONVERGENCIA
r
|L − an | < ε para n > N ⇒ |sn − am | < ε para, todo n, m > N .
a
Consideremos la siguiente sucesión:
n−1
in
an = .
n+2
(%i1) a[n]:=(n-1)/(n+2);
m
n−1
( %o1) an :=
n+2
Calculemos |L − an |, con L = 1
eli
(%i2) I1:(factor(1-a[n]));
3
( %o2)
n+2
3
Entonces < ε para todo n > N . Lo que implica que
n+2
Pr
3
ε− >0
n+2
(%i3) I2:factor(epsilon-I1);
εn + 2ε − 3
or
( %o3)
n+2
Lo que tenemos entonces es:
εn + 2ε − 3
> 0,
ad
n+2
para todo n > N . Despejemos n de la desigualdad.
(%i4) sol:solve(I2=0,n);
2ε − 3
rr
( %o4) n = −
ε
(%i5) I3:rhs(sol[1]);
Bo
2ε − 3
( %o5) −
ε
81
2.2. CRITERIOS DE CONVERGENCIA
Por lo tanto
2ε − 3
n>− .
ε
Entonces, dado un ε, y por muy pequeño que éste sea, se tiene
(%i6) epsilon:0.01; N:I3,numer; assume(n>N)$ is(I1<epsilon);
( %o6) 0.01
( %o7) 298.0
r
( %o8) true
a
(%i9) epsilon:0.0001; N:I3,numer; assume(n>N)$ is(I1<epsilon);
in
( %o10) 29998.0
( %o11) true
(%i12)epsilon:0.000001; N:I3,numer; assume(n>N)$ is(I1<epsilon);
m
( %o12) 9.999999999999999 × 10−7
( %o13) 2999998.0
( %o14) true
eli
Este procedimiento que podemos seguir haciendo para ε cada vez más pequeño, pero siempre con ε > 0.
La condición se seguirá cumpliendo para un N que se incrementará a medida que ε se tiende a cero.
Es claro que también podemos escribir
(%i15)’limit(a[n],n,inf)=limit(a[n],n,inf);
Pr
n−1
( %o15) lı́m =1
n→∞ n+2
> restart:
> assume(p>1):
> Limit(Int((x)∧ (-p),x=1..infinity),x=infinity)=
or
limit(int((x)∧ (-p),x=1..infinity),x=infinity);
> assume(p<=1):
> Limit(Int((x)∧ (-p),x=1..infinity),x=infinity)=
limit(int((x)∧ (-p),x=1..infinity),x=infinity);
ad
2.2.9. Ejercicios
1. Encuentre el radio de convergencia de las siguientes series
a)
rr
∞
X
n2 xn
n=0
Bo
b)
∞
X 2n n
x
n=0
n!
82
2.3. SERIES DE FUNCIONES
c)
∞
X 5n n
x
n=0
n3/2
d)
∞
X n4 n
x
n=0
5n
e)
r
∞
X xn
a
n=0
[3 + (−1)n ]n
f)
in
∞
X xn
n=0
2n+(−1)n
m
2.3. Series de funciones
La idea de series se puede ampliar al permitir que sus términos sean función de alguna variable (una o
varias), esto es an = an (x). Esta extensión del concepto se serie, trae como consecuencia que ahora las sumas
eli
parciales dependen de x
Xn
sn (x) = ak (x) = a0 (x) + a1 (x) + a2 (x) + · · · ,
k=0
con lo cual, si
Pr ∞
X
lı́m sn (x) = S(x) = ak (x) ,
n→∞
k=1
entonces, el comportamiento de las serie también dependerá de la variable.
La convergencia de la serie podrá ser posible para algunos valores de x y no para otros. El punto central
con las series de funciones f (x) complicadas es la de tratar de construir funciones como una serie de términos,
ak (x), más simples. Ası́, esas sumas parciales fn (x) constituirán la función deseada
or
∞
X n
X
f (x) = ak (x) = lı́m ak (x) .
n→∞
k=1 k=1
ad
Estaremos interesados en aquellas funciones a las cuales converjan las sumas parciales de una serie. Para
fijar conceptos, comenzaremos por las series de funciones más comunes: Las Series de Potencias.
n=0 n=0
Esta asociación tiene la ventaja de permitirnos intuir algunos comportamientos de la serie para algunos
valores de x. Los coeficientes cn son números independientes
P∞ de x. Pero, más aún, estas series pueden ser
series de potencias de número complejos. Vale decir, n=0 cn z n con z = x + iy.
83
2.3. SERIES DE FUNCIONES
r
Una serie de potencias n=0 cn (x − x0 ) convergerá absolutamente sı́
n
a
X
j
lı́m cj (x − x0 ) = ρ , existe.
n→∞
j=0
in
P∞ n
P∞ se cumplirá nel criterio de convergencia absoluta. Esto es, si n=0 |cn (x − x0 ) | converge, en-
También
tonces, n=0 cn (x − x0 ) converge, pero el inverso no es siempre verdad.
Los criterios más populares para evaluar la convergencia, se seguirán cumpliendo. Ası́ el criterio de
m
d’Alembert y el de la raı́z de Cauchy se podrán reescribir como:
n+1
c
n+1 (x − x 0 )
ρ(x) < 1 ⇒ converge
lı́m
n→∞
cn (x − x0 )n
ρ(x) = ⇒
eli
ρ(x) > 1 ⇒ diverge
n
p
lı́mn→∞ n cn (x − x0 )
Sólo que ahora es bueno enfatizar que ρ = ρ(x) dependerá de la variable. Llamaremos, de ahora en
adelante a este lı́mite el radio o entorno de convergencia, el cual delimitará los valores de x para que la serie
de potencias converja.
Pr
Consideremos el siguiente ejemplo, dada la serie
∞
x2 x3 xn X xn
1+x+ + + ··· + + ··· = ,
2 6 n! n=0
n!
por lo tanto n+1
or
x
an+1 (n + 1)! x
lı́m = lı́m n n→∞ n + 1 = 0 ,
= lı́m
n→∞ an n→∞
x
n!
ad
es decir,
an+1
ρ(x) = lı́m = 0,
n→∞ an
con lo cual la serie converge para todo valor de x.
Para puntualizar:
rr
Si una serie converge en x = x1 , convergerá absolutamente para |x − x0 | < |x1 − x0 | y divergerá para
|x − x0 | > |x1 − x0 |.
P∞ n
Se llama radio de convergencia, ρ = ρ(x) a aquella cantidad tal que la serie n=0 an (x − x0 ) converge
Bo
84
2.3. SERIES DE FUNCIONES
Con ello es inmediato identificar el error que se comete cuando se corta la serie en un N suficientemente
r
grande
N ∞
a
X X
S(x) = an (x) + an (x)
n=1 n=N +1
| {z } | {z }
in
sn (x) ≈
Hay que resaltar el hecho de que las suma de funciones continuas an (x) no necesariamente habrá de
ser continua, el concepto de convergencia uniforme busca garantizar que esa suma de funciones continuas
también sea continua.
m
Recordemos la idea de continuidad de una función. Una función será continua si sus lı́mites por la derecha
y por izquierda coinciden
lı́m± f (t) = f (x)
t→x
eli
Por otro lado, a partir del hecho de que
f (x) = lı́m fn (x)
n→∞
Es decir, al suponer que la suma de términos continuos tiende a una función continua estamos suponiendo
que podemos intercambiar los lı́mites, pero eso no es siempre cierto. Consideremos el caso (extremo)
n
fn = n 2 x 1 − x2 con: 0 ≤ x ≤ 1 y n = 1, 2, 3, . . .
or
entonces:
Z 1 h i
lı́m fn = 0 ⇒ dx lı́m fn (x) = 0
n→∞ n→∞
ad
0
Z 1 2 Z 1
n
dx fn (x) = ⇒ lı́m dx fn → ∞
0 2(n + 1) n→∞ 0
∞
X x2 x2 x2 x2
f (x) = ak (x) = x2 + 2
+ 2 + 3 + ··· + k
+ ··· ,
1+x (1 + x2 ) (1 + x2 ) (1 + x2 )
k=0
Bo
de manera que
x2
ak (x) = k
.
(1 + x2 )
85
2.3. SERIES DE FUNCIONES
Como
an+1 (x) 1
= <1 ∀ x 6= 0 ,
an (x) 1 + x2
la serie es absolutamente convergente ∀ x (x 6= 0).
Sin embargo, tenemos que f (0) = 0. El término n-ésimo para la suma parcial es
n−1
X 1 1 1 + x2
fn (x) = x2 k
= 1 + x2 − n−1 = 1 + x2 − n ,
(1 + x2 ) (1 + x2 ) (1 + x2 )
r
k=0
a
lı́m fn (x) = 1 + x2 , x 6= 0 .
n→∞
in
pero hemos establecido que f (0) = 0 de manera que f (x) no es continua.
Para el caso de series de funciones, existen un par de criterios que identifican la convergencia uniforme. El
criterio Mayorante de Weierstrass7 y el criterio de Abel8 . Estos criterios desarrollan la noción de convergencia
uniforme la cual es necesaria para asegurar el intercambio en los lı́mites.
m
2.3.4. Criterio Mayorante de Weierstrass
La idea de convergencia uniforme se introduce para garantizar que la sumas infinitas de un conjunto de
eli
funciones sea continua.
Una condición suficiente, pero no necesaria, para que la serie
∞
X
a1 (x) + a2 (x) + a3 (x) + · · · + an (x) + · · · = an (x)
Pr n=1
es uniformemente convergente. P∞
La demostración se obtiene a partir de la definición misma de convergencia. Si j=1 Mj converge, entonces
para n + 1 ≥ N se tiene
ad
∞
X ∞
X ∞
X
Mj < y como |ai (x)| ≤ Mi ⇒ |ai (x)| < ⇒ |S(x) − sn (x)| ≡ |ai (x)| <
j=n+1 j=n+1 j=n+1
P∞
con la cual la serie n=1 an (x) será uniformemente convergente para todo x ∈ [a, b].
rr
Ahora bien, como consideramos los Mi ≥ 0. La serie en cuestión también será absolutamente convergente.
Otra vez, los criterios de convergencia absoluta y, en este caso, de convergencia uniforme, no son consecuencia
uno del otro, ni están relacionados.
7 Karl Theodor Wilhelm Weierstrass (1815 - 1897). Matemático Alemán con importantes contribuciones al análisis
Bo
86
2.3. SERIES DE FUNCIONES
Las series
∞ ∞
X (−1)n X xn
para − ∞ < x < ∞ ∧ (−1)n−1 para 0 ≤ x ≤ 1
n=1
n + x2 n=1
n
r
X 1, 0 ≤ x < 1
(1 − x)xj =
0, x=1
j=0
a
P∞
con lo cual se puede concluir que una serie arbitraria f (x) = j=1 ai (x) no podrá converger uniformemente
en intervalos en los cuales la función f (x) sea discontinua.
in
Por ejemplo, la serie
1 1
f (x) = cos(x) + 2 cos2 (x) + 2 cos3 (x) + · · ·
2 3
es uniformemente convergente, porque al tomar Mk = 1/k 2 la serie
m
∞
X 1
,
k2
k=1
eli
2
converge a π /6.
n→∞
i=0
entonces la serie converge uniformemente en [a, b].
Para que se cumpla el criterio de Abel, fn (x) tiene que estar acotada (0 ≤ fn ≤ M ∀ n) y tiene que ser
monótonamente decreciente en el intervalo en el cual esté definida, fn+1 (x) ≤ fn (x) con x ∈ [a, b].
ad
En resumen, si la serie
∞
X
f (x) = a1 (x) + a2 (x) + a3 (x) + · · · + an (x) + · · · = an (x)
n=1
rr
es uniformemente convergente para a ≤ x ≤ b, entonces es posible integrar y diferenciar término por término.
∞
df X dak
=
Bo
dx dx
k=1
Z β X∞ Z β
f (x) dx = ak (x) dx ,
α k=1 α
87
2.3. SERIES DE FUNCIONES
donde a ≤ α < β ≤ b.
La convergencia uniforme no implica convergencia absoluta y convergencia absoluta no implica conver-
gencia uniforme, como se vio anteriormente, la serie
∞
X x2
n ,
n=0
(1 + x2 )
r
términos pueden ser multiplicados e intercambiado el orden de la suma. Las series uniformemente conver-
a
gentes se comportan como las series finitas donde la serie es continua si cada término de la serie también lo
es.
La serie
in
∞
X (−1)n−1 1 1 1
2
= 2
− 2
+ + ···
n=1
n+x 1+x 2+x 3 + x2
es únicamente condicionalmente convergente, pero, es también uniformemente convergente.
m
2.3.6. Nota sobre el algebra de series de potencias
El álgebra elemental de series se puede reconsiderar a la luz de las series de potencias. De esta forma
eli
recordamos que los ı́ndices en las series son mudos
∞
X ∞
X ∞
X
n−1 j−1 k
an n (x − x0 ) = aj j (x − x0 ) = ak+1 (k + 1) (x − x0 )
n=1 j=1 k=0
Pr
en la última sumatoria hemos hecho k = j − 1, por lo cual j = k + 1.
Las series se igualan
∞
X ∞
X
n n−1
bn (x − x0 ) = an n (x − x0 )
n=0 n=1
∞ ∞ ∞
or
X n
X k
X n
bn (x − x0 ) = ak+1 (k + 1) (x − x0 ) = an+1 (n + 1) (x − x0 )
n=0 k=0 n=0
por lo cual
ad
bn = an+1 (n + 1) .
Si la igualdad hubiera sido
∞ ∞ ∞
X n
X n−1
X n an
an (x − x0 ) = an n (x − x0 ) = an+1 (n + 1) (x − x0 ) =⇒ an+1 =
(n + 1)
rr
an (x − x0 ) + bk (x − x0 ) = a0 + a1 (x − x0 ) + (an + bn ) (x − x0 )
n=0 k=2 n=2
88
2.3. SERIES DE FUNCIONES
o también
∞
X ∞
X ∞
X
n k+2 n
an (x − x0 ) + bk+2 (x − x0 ) = a0 + a1 (x − x0 ) + (an + bn ) (x − x0 )
n=0 k=0 n=2
∞
X n
= (an + cn−2 ) (x − x0 ) ,
n=0
r
Nótese como en los dos ejemplos anteriores hemos hecho coincidir los dos ı́ndices de la sumatoria desde
el comienzo.
a
La series también se multiplican, esto es
"∞ #" ∞ # ∞
X n
X n
X n
in
an (x − x0 ) bn (x − x0 ) = cn (x − x0 )
n=0 n=0 n=0
con
cn = a0 bn + a1 bn−1 + a2 bn−2 + · · · + aj bn−j + · · · + an−2 b2 + an−1 b1 + an b0
m
Si alguna de las series de potencias es absolutamente convergente, entonces su multiplicación con otra, será
absolutamente convergente.
Pero también las series de potencias se ¡invierten! y para ello utilizamos todo lo visto anteriormente
veamos. Supongamos que se tiene una serie del tipo
eli
∞
X
2 n n
y − y0 = a0 + a1 (x − x0 ) + a2 (x − x0 ) + · · · + an (x − x0 ) + · · · = an (x − x0 )
n=0
n
Es decir tenemos y−y0 expresado en términos de una serie de potencias de (x − x0 ) entonces, igual podremos
Pr n
plantearnos invertir el proceso, vale decir, expresar (x − x0 ) en términos de potencias (y − y0 ) Esto es
k
X∞ X∞ X∞
n j
x − x0 = bn (y − y0 ) ⇒ x − x0 = bk aj (x − x0 )
n=0 k=0 j=0
y al igualar términos con la misma potencia, despejamos los coeficientes bn en términos de los an , de forma
or
que
1
b1 =
a1
a2
ad
b2 = −
(a1 )3
2(a2 )2 − a1 a3
b3 =
(a1 )5
5a1 a2 a3 − a21 a4 − 5a32
b4 =
rr
(a1 )7
.. ..
.= .
Bo
P∞ P∞ n
Igualmente, si una serie f (x) = n=0 an (x − x0 ) = n=0 cn (x − x0 ) converge para un entorno −R ≤
x ≤ R entonces por el criterio de Mayorante de Weierstrass, convergerá absoluta y uniformemente para
−S ≤ x ≤ S con 0 ≤ S ≤ R.
Más aún, el criterio de Abel nos garantiza las siguientes propiedades:
89
2.3. SERIES DE FUNCIONES
n P∞ n
Dado que todos los términos an (x) = cn (x − x0 ) son funciones continuas de x y f (x) = n=0 cn (x − x0 )
converge uniformemente para un entorno −S ≤ x ≤ S, entonces la función f (x) es continua en el in-
tervalo de convergencia.
n
Si los términos an (x) = cn (x − x0 ) son funciones continuas de x, entonces la serie puede ser derivada
término a término "∞ ∞
#
d X n
X n−1
cn (x − x0 ) = cn n (x − x0 )
dx n=0 n=1
r
(nótese como cambia el comienzo de la serie) y convergerá a
∞ ∞
a
X n−1 df (x) d X
cn n (x − x0 ) → an (x) ∧ an (x) continuas ∧ an (x) ,
n=1
dx dx n=0
in
converge uniformemente en [a, b].
De igual manera las series pueden ser integradas término a término
Z b Z b ∞ ∞ Z b ∞
m
X n
X n
X cn n+1
dx f (x) = dx cn (x − x0 ) = dx cn (x − x0 ) = (x − x0 ) .
a a n=0 n=0 a n=0
n + 1
2.3.7. Ejemplos
eli
1. Otro caso ocurre cuando consideramos la siguiente serie de potencias:
∞
X n+1 n 2 3 4
(−1) n (x − 2) = x − 2 − 2 (x − 2) + 3 (x − 2) − 4 (x − 2) + · · · ,
n=1
por lo tanto:
Pr
(−1)n+2 (n + 1) (x − 2)n+1
n + 1
ρ(x) = lı́m = |x − 2| lı́m = |x − 2|
n+1 n n
n→∞ (−1) n (x − 2) n→∞
2. Dada la serie
∞ ∞
X X x
an (x) = ,
n=1 n=1
[(n − 1)x + 1] [nx + 1]
cuya suma n-ésima parcial es
nx
rr
sn (x) =
.
nx + 1
La función sn (x) es una función continua de x ∀ 0 ≤ x ≤ 1, y para todo n. Por otro lado,
S(x) = lı́m sn (x) = 0 , si x = 0
Bo
n→∞
S(x) = lı́m sn (x) = 1 , si x 6= 0 .
n→∞
Existe una discontinuidad en x = 0 para S(x) y por lo tanto la condición (2.3.3) no se cumplirá.
90
2.3. SERIES DE FUNCIONES
r
2. Demuestre que la serie
∞
n + x2
a
X
(−1)n ,
n=1
n2
in
converge uniformemente, pero no absolutamente.
3. Determine el radio de convergencia de la serie
x x2 x3 xn
m
+ √ + √ + ··· + √ + ···
a+1 a+ 2 a+ 3 a+ n
eli
4. Considere la siguiente sucesión
sen(nx)
fn (x) = √ , n = 1, 2, 3, . . .
n
demuestre que:
Pr
d h i d
lı́m fn (x) 6= lı́m fn (x) ,
dx n→∞ n→∞ dx
1− + − + ···
3 5 7
b)
b a b a b
a− + − + ··· + − + ···
ad
2 3 4 2n − 1 2n
donde a y b son constantes positivas.
6. Utilizando fracciones parciales, demuestre que
a)
rr
∞
X 1 23
=
(k + 1)(k + 3)(k + 5) 480
k=1
Bo
b)
∞
X 3k − 2
= 1.
k(k + 1)(k + 2)
k=1
91
2.4. SERIE DE TAYLOR
r
f (x), f (x), f (x), · · · , f (x) están definidas en el intervalo [a, b].
De cursos anteriores se sabe que:
a
Z a+h Z a+h
0
dx f (x) = f (a + h) − f (a) ⇒ f (a + h) = f (a) + dx f 0 (x) ⇒ f (a + h) ≈ f (a) + hf 0 (a) ,
in
a a
donde hemos supuesto que en intervalo [a, a + h] la función f 0 (x) es constante y tiene como valor f 0 (a).
Ahora bien, esto vale para todo x y para cualquier función, por lo tanto se cumple que:
m
f (x) ≈ f (a) + (x − a)f 0 (a) ,
eli
f 00 (x) ≈ f 00 (a) + (x − a)f 000 (a) ,
.. ..
. .
f (n−1) (x) ≈ f (n−1) (a) + (x − a)f (n) (a) .
que no es otra cosa que una aproximación de segundo orden a f (a + h). En general podemos construir
or
" #
Z a+h Z a+h Z a+h
f (a + h) = f (a) + dx f 0 (x) = f (a) + dx f 0 (a) + dx f 00 (x)
a a a
"Z #
Z a+h a+h
0 00
ad
y si repetimos ese procedimiento n veces, suponiendo que las derivadas de f (x) existan, tendremos la apro-
Bo
92
2.4. SERIE DE TAYLOR
y también es fácil convencerse por inspección que el residuo o el error que cometemos en la aproximación
n − 1 viene dado por la integración enésima de la derivada enésima, vale decir
Z a+h Z a+h Z a+h
Rn = du dv ·|· ·{z· ·}· dx f 000 (x)
a a n veces a
r
dτ g(τ ) = hg(ξ) ⇒ Rn = f (ξ) con a ≤ ξ ≤ a + h
a n!
a
Ahora bien, una elección astuta del parámetro h = x − a nos lleva a la conocida expresión de la serie de
Taylor para una función de una variable
in
(x − a)2 00 (x − a)3 000 (x − a)n−1 (n−1)
f (x) = f (a) + (x − a)f 0 (a) + f (a) + f (a) + · · · + f (a) + Rn
2! 3! (n − 1)!
y el error vendrá dado por
m
(x − a)n (n)
Rn = f (ξ) con a ≤ ξ ≤ a + h
n!
ası́ la expansión de Taylor especifica el valor de una función en un punto x en términos de el valor de la
función y sus derivadas en un punto de referencia a. La expansión se hace en términos de potencias de la
eli
diferencia, (x − a), entre el punto que se evalúa y el punto de referencia.
Algunas otras formas de expresar la serie de Taylor, serı́an
∞ ∞ dn ∞
X hn (n) X hn dx n
X hn Dn d
f (x + h) = f (x) = f (x) = f (x) = ehD f (x) donde, D ≡
n=0
n! n=0
n!
Pr n=0
n! dx
x2 00 x3 xn−1 (n−1)
f (x) = f (0) + xf 0 (0) + f (0) + f 000 (0) + · · · + f (0) + Rn
2! 3! (n − 1)!
or
x2 x3 x4 xn
ex
ad
2! 4! 6! (2n − 2)!
x3 x5 x7 x2n−1
arctan(x) = x− + − + · · · + (−1)n+1 + · · · para − 1 < x < 1
3 5 7 (2n − 1)
Bo
x2 x3 x4 xn
ln(1 + x) = x− + − + · · · + (−1)n+1 + · · · para − 1 < x < 1
2 3 4 n
2
x x3 m!
(1 + x)m = 1 + mx + m(m − 1) + m(m − 1)(m − 2) + · · · + xn + · · · ∀x
2 3! n!(m − n)!
93
2.4. SERIE DE TAYLOR
Si tenemos una función y queremos determinar su serie de potencias, es posible que los cálculos se
simplifiquen notablemente si utilizamos apropiadamente las series elementales anteriores, por ejemplo:
2 3 4
αx2 +βx 2
αx2 + βx αx2 + βx αx2 + βx
e = 1 + αx + βx + + + + ···
2 3! 4!
desarrollando los términos binomiales
2 1 1 1 2 1 1 4
eαx +βx = 1 + β x + α + β 2 x2 + β α + β 3 x3 + α + α β2 + β x4 + · · ·
2 6 2 2 24
r
Si se quiere hacer el desarrollo alrededor de un punto diferente de x0 = 0, podemos completar cuadrados:
a
2 2
2
+βx/α+β 2 /4α2 −β 2 /4α2 ) 2
+βx/α+β 2 /4α2 )−β 2 /4α
eαx +βx
= eα(x +βx/α)
= eα(x = eα(x
2 2 2 2
= eα(x+β/2α) −β /4α = eα(x+β/2α) e−β /4α
in
2
= e−β /4α 1 + α(x + β/2α)2 + α2 (x + β/2α)4 /2 + · · ·
m
2.4.2. La expansión binomial
Por su uso frecuente, consideremos el caso de la expansión binomial
∞
eli
x2 x3 X m!
(1 + x)m = 1 + mx + m(m − 1) + m(m − 1)(m − 2) + · · · = xn ,
2 3! n=0
n!(m − n)!
∞
X m
= xn ,
n
n=0
Pr
m
donde el término se denomina el coeficiente binomial y la serie termina cuando m = n.
n
Ahora bien, escrito de la forma compacta se sugiere que el exponente m tendrı́a que ser entero y positivo.
Pero no es ası́. La serie explı́cita no se restringe a valores enteros y positivos de m. Por ello, la forma compacta
pero exacta de la expansión binomial es
or
Donde hemos utilizado la función Γ(x) como la generalización del factorial para
m valores que no se restringen
a enteros positivos. Nótese también que si el exponente es negativo, 1 + xa tiene una singularidad o un
polo en x = −a.
Cuando n es un entero positivo tendremos
rr
Z ∞ Z ∞
−t n
n! = Γ(1 + n) = e t dt = e−t+n ln(t) dt
0 0
Esta integral, como se puede ver en la figura, nos recuerda la forma de una Gaussiana con un máximo
Bo
94
2.4. SERIE DE TAYLOR
a r
in
Figura 2.6: La función Gamma para n = 5
m
Si conservamos los términos hasta segundo orden, la integral puede ser aproximadamente igual a:
eli
Z ∞ Z ∞
2 2
n! ∼ e−n+n ln(n)−(t−n) /2n dt = nn e−n e−(t−n) /2n dt
0 0
Para valores de n grandes, y esto es lo que se conoce como la aproximación de Stirling, se tiene:
Z ∞
n −n
n! ∼ n e
Pr 2 √
e−(t−n) /2n dt = nn e−n 2πn
−∞
√ √
n n! nn e−n 2πn n!/(nn e−n 2πn)
1 1 0,922 0,922
2 2 1,919 0,960
ad
Z ∞
Γ(k) = xk−1 e−x dx , k > 0 . (2.27)
0
95
2.4. SERIE DE TAYLOR
r
0 0
se puede demostrar que el primer término de (2.28) se hace cero, por lo tanto:
a
1
Γ(k) = Γ(k + 1) , k>0 (2.29)
in
k
es decir:
Γ(k + 1) = kΓ(k) , k > 0. (2.30)
m
Veamos:
k =1 → Γ(2) = 1Γ(1) = 1 = 1!
k =2 → Γ(3) = 2Γ(2) = 2 · 1 = 2!
k =3 → Γ(4) = 3Γ(3) = 3 · 2 · 1 = 3!
eli
k =4 → Γ(5) = 4Γ(4) = 4 · 3 · 2 · 1 = 4!
entonces, si k = n es un entero positivo, se tiene que
Γ(n + 1) = n! (2.31)
Pr
Ahora bien, podemos hacer lo siguiente. Partimos de (2.29):
1
Γ(k) = Γ(k + 1) , k 6= 0 , (2.32)
k
reemplazamos k → k + 1 en (2.32) y obtenemos:
or
1
Γ(k + 1) = Γ(k + 2) , k 6= −1 , (2.33)
k+1
si sustituimos (2.33) en (2.32) resulta:
ad
Γ(k + 2)
Γ(k) = , k 6= 0, −1 , (2.34)
k(k + 1)
Γ(k + 3)
Γ(k + 2) = , k 6= −2 , (2.35)
(k + 2)
Bo
Γ(k + 3)
Γ(k) = , k 6= 0, −1, −2 . (2.36)
k(k + 1)(k + 2)
96
2.4. SERIE DE TAYLOR
Γ(k + n)
Γ(k) = , k 6= 0, −1, −2, . . . , −(n − 1) . (2.37)
k(k + 1)(k + 2) · · · (k + n − 1)
r
el valor de Γ 21 lo podemos buscar en alguna
√tabla matemática.
a
Eneste caso, lo que se obtiene es Γ 12 = π. Esto significa que si conocemos Γ 1
2 se puede determinar
Γ − 12 , por lo tanto
in
√
1
Γ − = −2 π .
2
Algunos ejemplos:
m
0! = Γ(0 + 1) = Γ(1) = 1
√
− 12 ! Γ(− 21 + 1) = Γ 1
= 2 = π
√
eli
− 23 ! Γ(− 23 + 1) = Γ − 12 = −2 π
=
1 1√
Γ( 12 + 1) = Γ 3
= 12 Γ 1
2 ! = 2 2 = 2 π
1
(x − a)2 fxx ab + 2(x − a)(y − a) fxy |ab + (y − a)2 fyy |ab
+
2!
1
(x − a)3 fxxx |ab + 3(x − a)2 (y − a) fxxy |ab + 3(x − a)(y − a)2 fxyy |ab + (y − a)3 fyyy |ab
+
3!
+ ···
ad
x =x0
n=0 n=0
∂ ∂ ∂2 ∂2 ∂2
Bo
97
2.4. SERIE DE TAYLOR
2.4.5. Ejemplos
2.4.6. Practicando con Maxima
La gráfica mostrada en la Figura 1 pueden obtenerse de la siguiente manera:
> restart:
> n := 5:
> f := exp(-t)*t∧ n;
> Int(f,t=0..infinity)=int(f,t=0..infinity);
r
> GAMMA(5+1);
> plot(f,t=0..20);
a
> ‘f(5)‘=evalf(subs(t=5,f));
in
2.4.7. Ejercicios
1. Utilice la siguiente definición Z x
1
m
tan−1 x = ,
0 1 + t2
expanda el integrando y luego integre término por término para derivar la siguiente expansión conocida
como expansión de Gregory
eli
∞
x3 x5 X (−1)n 2n+1
tan−1 x = x − + − ··· = x .
3 5 n=0
2n + 1
π
Evalúe la serie para x = 4.
Pr
2. Utilizando la definición Z x
−1 1
sen x= √ ,
0 1 + t2
derive las expresiones siguientes
∞
(2n)! x2n+1
or
X
sen−1 x = ,
n=0
4n (n!)2 2n + 1
∞
!
−1 π √ X 1.3.5. · · · .(2n − 1) n
sen (1 − x) = − 2x 1 + x .
ad
2 n=1
4n (2n + 1)n!
3. Encuentre los primeros cinco términos, diferentes de cero, de la serie de Taylor, de la función
1 + x 2 + 2x ln(1 + 2x)
f (x) = − .
rr
x2 1 + 2x x
98
2.5. SERIES DE FOURIER
r
Es claro que {|u1 i , |u2 i , |u3 i · · · , |un i , · · · } es un conjunto de funciones ortogonales por cuanto
a
R 2π
0
dx sen(nx) sen(mx) = 0
in
R
2π
0 si n 6= m dx cos(nx) sen(mx) = 0
0
R 2π dx cos(nx) cos(mx) = 0
0
hun |um i = δnm | |un i |2 ⇒
m
R 2π
0
dx = 2π
R 2π
||un i|2 si n = m dx cos2 (nx) = π
0
eli
R 2π dx sen2 (nx) = π
0
Tal y como se muestra en la figura 2.7 distintas funciones pueden ser expandidas con sumas parciales de
Fourier. A diferencia de las series de potencias, que imponen que las funciones a ser expandidas deben ser
continuas y continuamente diferenciables en el intervalo, la series de Fourier pueden representar funciones
or
√
2π 0
si i = 0
∞
X R 2π
|f i = ci |ei i ⇒ ci = hei |f i = √1 dx f (x) cos(nx) = c2n ≡ am si i = 2n
π 0
i=0
√1 R 2π
dx f (x) sen(nx) = c2n−1 ≡ bm si i = 2n − 1
rr
π 0
donde los ci son los coeficientes de Fourier, con lo cual podemos escribir
∞
a0 X
Bo
el término a0 es colocado fuera de la sumatoria, y multiplicado por 1/2, solo por conveniencia.
99
2.5. SERIES DE FOURIER
a r
in
m
eli
Figura 2.7: Expansiones de Varias funciones en sumas parciales de Series de Fourier. Tomado de Eric W.
Weisstein. Fourier Series. [Link]
Pr
De manera equivalente, si el perı́odo es T y para un t0 genérico
2
R t0 +T
a0 = T t0
dt f (t)
∞
a0 X 2πnt 2πnt
2
R t0 +T 2πnt
F (t) = + an cos + bn sen con an = T t0
dx f (t) cos T
2 T T
or
n=1
R t0 +T
2 2πnt
bn = dt f (t) sen
T t0 T
La figura 2.7 muestra la aproximación de las distintas sumas parciales para distintas funciones, a medida
que aumentamos el número de términos la aproximación mejora.
ad
Podemos expresar la expansión de una serie de Fourier de manera más compacta, ésta expresión se conoce
en algunos ámbitos como la expresión integral para la series de Fourier
Z 2π
1
F (x) = √ dt f (t)
2π 0
rr
X∞ Z 2π Z 2π
+ dt f (t) cos(nt) cos(nx) + dt f (t) sen(nt) sen(nx)
n=1 0 0
Bo
Z 2π ∞ Z 2π
1 X
= √ dt f (t) + dt f (t) cos(n[t − x]) .
2π 0 n=1 0
También es muy común expresar una serie de Fourier en término de una base compleja. Vale decir
100
2.5. SERIES DE FOURIER
Podremos reescribir (una vez más) la expresión de una suma parcial de la serie de Fourier, dado que
1 π
Z
an cos(nx) + bn sen(nx) = dt f (t) cos(n[t − x]) ,
r
π −π
a
tendremos que
n n Z
a0 X 1 π
a0 X
in
Fn (x) = + [ak cos(kx) + bk sen(kx)] = + dt f (t) cos(n(t − x))
2 2 π −π
k=1 k=1
"Z n
#
π n1 X o
−i(t−x)k
= < dt f (t) + e .
2
m
−π k=1
eli
Fn (x) = dt f (t) ≡ dt f (t) K(x, n, t) ,
sen 21 (t − x)
2π −π 2π −π
Z π
1
Fn (x) = dt f (t) K(x, n, t) .
2π −π
ad
Este tipo de relaciones se denomina transformación integral y en particular ésta es una de las expresiones
de las llamadas Transformadas de Fourier.
Las condiciones que una determinada función f (x) debe cumplir para poder ser representada como una
serie de Fourier, se conocen con el nombre de condiciones de Dirichlet9 las cuales pueden ser esquematizadas
en los siguientes puntos:
Bo
101
2.5. SERIES DE FOURIER
la función f (x) debe se univaluada y continua a trozos (continua menos, en un número finito de puntos)
con un número finito de máximos y mı́nimos
R T /2
la integral −T /2 dx|f (x)| debe ser convergente. Donde [−T /2, T /2] quiere indicar el intervalo de defi-
nición de una función con perı́odo T .
Podemos formalizar un poco más las condiciones de Dirichlet en el llamado teorema de Fourier.
Teorema de Fourier: Sea f (x) una función en el intervalo −π ≤ x ≤ π y definida para el resto de la
r
recta real tal que cumpla con f (x + 2π) = f (x). Es decir f (x) es 2π−periódica. Supongamos además
que existe la integral
a
Z π Z π
1
dx f (x) , y que Ck = dx e−ikx f (x) con k = 0, ±1, ±2, · · · .
in
−π 2π −π
y si |f (x)| está acotada para un intervalo [a, b] con −π < a ≤ x ≤ b < π, entonces
∞
1
m
X
F (x) = Ck e−ikx es convergente al valor F (x) = lı́m f (x + ) + lı́m f (x − )
2 →0+ →0−
k=−∞
eli
En este punto se pueden puntualizar varias cosas:
1. El valor F (x) = 21 lı́m→0+ f (x + ) + lı́m→0+ f (x − ) al cual converge la expansión de Fourier,
cobra particular importancia cuando el punto x = x0 es una discontinuidad. Tal y como veremos más
Pr
adelante (sección 2.5.3) y expresa este teorema, las series de Fourier son particularmente apropiadas
para expandir funciones discontinuas (en un número finito de puntos en el intervalo), sin embargo,
por ser una base de funciones continuas no puede reproducir la discontinuidad como tal. La expansión
de Fourier alrededor de un punto de discontinuidad x → x±0 tenderá al valor F (x) → F (x±0 ) ≡ Fm
donde Fm = F (x+0 )+F2
(x−0 )
. Es decir, tenderá al valor medio de los valores de la discontinuidad por la
izquierda F (x−0 ) y por la derecha F (x+0 ).
or
2π −π 2 0 n=1 n π −π
k=−∞
Para ilustrar esta relación entre la función f (x) y su expansión en serie de Fourier F (x) analicemos el
siguiente ejemplo
rr
La siguiente función, muy conocida en el ámbito de los circuitos eléctrico, se denomina la función onda
cuadrada
−1 si − 21 T ≤ t < 0
Bo
f (t) =
+1 si 0 ≤ t ≤ 12 T ,
102
2.5. SERIES DE FOURIER
En este caso se puede integrar entre [0, T /2] y luego multiplicar todo por 2.
Z T Z T
2 2 2 2 2πnt sen (nπ)
a0 = dt = 1 , an = cos dt = = 0,
T 0 T 0 T nπ
T
1 − (−1)n
1 − cos (nπ)
Z
2 2 2πnt
bn = sen dt = = ,
T 0 T nπ nπ
Entonces solo sobreviven los b2n+1 ya que coeficientes pares se anulan: b2n = 0.
r
∞
X 2πnt 4 sen(3ωt) sen(5ωt) sen(7ωt)
a
f (t) = a0 + 2 bn sen =1+ sen(ωt) + + + + ···
n=1
T π 3 5 7
in
donde hemos denotado ω = 2π/T .
Al definir la función ω podemos interpretar los coeficientes de Fourier an , bn como las contribuciones de
cada uno de los armónicos an , bn → ωn = 2nπ T . A partir de estas contribuciones se construye el espectro de
potencia, el cual está relacionado con la energı́a que aporta cada uno de estos armónicos. Por ello construimos
m
p
un cantidad En = a2n + b2n y graficamos En vs n tal y como se puede comprobar en la figura 2.9, cuadrantes
IV y VII. Se encuentra que se puede asociar un espectro de potencia a cada señal y con lo cual realizar una
especie de identificación.
En este punto podemos hacernos algunas preguntas:
eli
¿qué hubiera pasado si en vez de considerar el intervalo − T2 , T2 hubiéramos considerado (0, T )?
T x0 T 2
Donde los lı́mites de integración no se han visto alterados porque la función es periódica. Es inmediato
comprobar que
Bo
2πns πn 2πns πn 2πns πn
sen + = sen cos + cos sen ,
T 2 T 2 T 2
103
2.5. SERIES DE FOURIER
es decir
" #
2 πn Z x0 +T
2πns
πn Z x0 +T
2πns
bn = cos ds f (s)sen + sen ds f (s) cos ,
T 2 x0 T 2 x0 T
r
Si f (x) impar en T /4 entonces a2n = b2n−1 = 0.
a
2.5.3. El Fenómeno de Gibbs
in
Tal y como hemos mencionado, a diferencia de las series de potencias, las series de Fourier manejan razo-
nablemente bien las discontinuidades, pero por ser una base de funciones continuas, no puede reproducirlas.
Tal y como comentamos en el Teorema de Fourier y muestra la figura 2.8 el valor de las sumas parciales de
m
Fourier en un punto de discontinuidad x = x±0 será el promedio de los valores F (x−0 ) (por la izquierda)
y F (x+0 ) (por la derecha) en la discontinuidad. Esto es la expansión de Fourier alrededor de un punto de
discontinuidad x → x±0 tenderá al valor F (x) → F (x±0 ) ≡ Fm donde Fm = F (x+0 )+F 2
(x−0 )
.
Podemos ver en la figura 2.8 que, tanto por la izquierda como por la derecha de la discontinuidad de la
eli
función escalón, las sumas parciales de Fourier oscilan y no convergen a los valores x±0 . El comportamiento
oscilante de las sumas parciales de Fourier alrdedor de las discontinuidades, que no desaparecen ni en el
lı́mite se denominan fenómeno de Gibbs en honor a su descubridor Josiah Willard Gibbs.10
Para entender qué pasa en la discontinuidad consideremos una variación de la onda cuadrada considerada
anteriormente (??). Entonces sus sumas parciales serán
Pr
1 si 0 ≤ t < π 1
n
2X 1
c
f (t) = ⇒ F2n (x) = + sen ((2k − 1)x) ,
2 π 2k − 1
0 si π ≤ t < 2π
k=1
n Z t n
!
2 t 1 t
Z Z
c 1 2X 1 X 1 sen(2ns)
F2n (t) = + ds cos(2k − 1)s = + ds cos(2k − 1)s = + ds
2 π 0 2 π 0 2 π 0 sen(s)
k=1 k=1
donde, utilizando la fórmula de Moivre y convirtiendo esa serie de cosenos en una de exponenciales la cual,
ad
c
Es inmediato convencerse que las sumas parciales F2n (x) siempre tendrán máximos y mı́nimos
c
dF2n (x) sen(2nx) mπ
= = 0, ⇒ para x = con m = 1, 2, 3, · · ·
dx sen(x) 2n
Bo
10 Josiah Willard Gibbs 1839 - 1903. Algunos lo consideran el primer Fı́sico Norteamericano, de hecho fue el primero en
recibir un tı́tulo de doctorado por una universidad norteamericana (Yale University). Hizo importantes aportes en electromagne-
tismo y sobre todo en termodinámica y fı́sica estadı́stica, sentando las bases matemáticas para estas disciplinas. En matemáticas
es conocido su estudio de las oscilaciones de las expansiones de las series de Fourier en los puntos de discontinuidad.
104
2.5. SERIES DE FOURIER
Las Series de Fourier tienden a sobre-estimar el valor de los puntos de discontinuidad en ±18 % esto es
un valor de ≈ 1,1789797. La inclusión de más términos en las sumas parciales no mejoran la situación. El
fenómeno de Gibbs no se restringe a Series de Fourier sino que también se presenta en las demás series de
funciones (ver detalles en la referencia: Arfken-Weber-2000) .
El fenómeno de Gibbs fue observado ¡experimentalmente! por primera vez por Albert Michelson.11 . Para
finales de 1800 Michelson habı́a creado un dispositivo mecánico para medir las componentes de Fourier de
señales eléctricas. Al incorporarle una onda cuadrada observó que una oscilación inesperada en los puntos
de discontinuidad. Creyó que esa oscilación se debı́a a defectos del dispositivo. Luego de probar múltiples
tipos de señales periódicas y observar un comportamiento similar, decidió comentárselo a su amigo Willard
r
Gibbs, de la Universidad Yale. Al poco tiempo Gibbs volvió con una explicación que dejó intacta la fama de
a
Michelson como instrumentista. El fenómeno es una consecuencia de la teorı́a de series de Fourier y no del
equipo diseñado por Michelson12 .
in
2.5.4. Corrección al fenómeno de Gibbs: Factor σ de Lanczos
Una de las estrategia para corregir las oscilaciones del fenómeno de Gibbs se le debe a Lanczos13 . Con-
siderando el mismo caso de la función onda cuadrada, se puede intentar sustituir la función oscilante Fnc (x)
m
por su promedio F̄nc (x) alrededor del punto x. Vale decir
π π
" n
#
n x+ 2n n x+ 2n
Z Z
c c c 1 2X 1
F2n (x) → F̄2n (x) = ds F2n (s) = ds + sen((2k − 1)s) ,
π x− 2n π x− 2n 2 π 2k − 1
eli
π π
k=1
k=1
| {z }
σ
Con lo cual hemos identificado el factor σ de Lanczos. Siguiendo este mismo proceso se puede generalizar
para cualquier función de tal modo que una serie de Fourier genérica podrá ser corregida con un factor σ
ad
para lograr
n−1
" # n−1
a0 X sen kπ n a0 X
F̄n (x) = + kπ
(ak cos(kx) + b k sen(kx)) ≡ + σk (ak cos(kx) + bk sen(kx)) .
2 n
2
k=1 k=1
rr
11 Albert Abraham Michelson Strelno, Prussia, 1852 - Pasadena EEUU. 1931. Premio Nobel en Fı́sica (1907) uno de los
fı́sicos experimentales más habilidosos de todos los tiempos. La precisión y lo ingenioso de los instrumentos creados por él son
famosos. Con importantes contribuciones en medidas de fenómenos en óptica. Una de sus contribuciones más conocidas son
los experimentos para mostrar la inexistencia del Ether como medio de transmisión para el fenómeno electromagnético. Más
detalles [Link]
Bo
Teórica. En matemáticas es conocido inventar la transformada rápida de Fourier. Más detalles en [Link]
[Link]/Biographies/[Link]
105
2.5. SERIES DE FOURIER
2.5.5. Ejemplos
1. Variedades de dientes de sierra
Otra función muy común es la denominada dientes de sierra
f (t) = at si 0 ≤ t ≤ T , con a constante
los coeficientes son los siguientes:
2 T
Z
r
a0 = atdt = aT ,
T 0
a
2 T
Z
2πnt aT
dt = 2 2 nπsen (2n π) − sen2 (nπ) = 0 ,
an = at cos
T 0 T π n
in
Z T
2 2πnt aT
bn = at sen dt = − .
T 0 T nπ
m
∞ ∞
a0 X 2πnt aT aT X sen (ωnt)
f (t) = at = + bn sen = − , para 0 ≤ t ≤ T .
2 n=1
T 2 π n=1 n
eli
En el caso particular de hacer a = 3 y T = 2 → ωn = nπ, entonces:
∞
6 X sen (nπt) 6sen (π t) 3sen (2 π t) 2sen (3 π t) 3sen (4 π t) 6sen (5 π t)
f (t) = 3t = 3− = 3− − − − − +· · ·
π n=1 n π π π 2π 5π
Pr
La figura 2.9 (cuadrantes V y VI) muestra la construcción de esta función y su representación en Series
de Fourier.
A partir de esta función podemos hacer unas variaciones. Por ejemplo considérese la función
R T /2
a0 = T2 −T /2 atdt =0
or
−T T R T /2
an = T2 −T /2 at cos 2πnt
f (t) = at si ≤ t ≤ , con a constante ⇒ T dt = 0
2 2
b = 2 R T /2 at sen 2πnt dt = − aT (−1)n .
n T −T /2 T nπ
ad
Claramente es una función impar f (−x) = −f (x) y ası́ lo refleja su expansión en series de Fourier. Si
hacemos a = 3 y T = 2 → ωn = nπ tendremos que la expresión para de la serie es
6sen (π t) 3sen (2 π t) 2sen (3 π t) 3sen (4 π t) 6sen (5 π t) −T T
f (t) = 3t = − + − + +· · · con ≤t≤ ,
π π π 2π 5π 2 2
rr
la cual, si bien es parecida no es igual a la anterior, debido que estamos expandiendo otra función.
Otra variación posible de la función “diente de sierra” puede ser la versión completamente par del
“diente”, f (−x) = f (x). Esta es
Bo
−at si −T
2 ≤t≤0
f (t) =
at si 0 ≤ t ≤ T2
106
2.5. SERIES DE FOURIER
r
En este caso son los coeficiente bn los que se anulan.
a
Adicionalmente, nótese que para n par, los coeficientes an también se anulan, Otra vez, si hacemos
a = 3 y T = 2 → ωn = nπ tendremos la serie:
in
3 12 cos (π t) 4 cos (3 π t) 12 cos (5 π t) −T T
f (t) = − − − + ··· con ≤t≤
2 π2 3π 2 25 π2 2 2
m
2. Función cuadrática
Otro caso, complementario al anterior por sus propiedades de simetrı́a, es la expansión en series de
Fourier de la función f (x) = x2 para −π < x < π. Entonces los coeficientes se la expansión serán
eli
Rπ 2
a0 = π1 −π x2 dx
= 2π3
2
f (x) = x ⇒
a = 2 R π x2 cos(nx)dx = 4(−1)n
n π 0 n2
ya que los coeficientes correspondientes a los términos impares bn se anulan. Con lo cual
Pr ∞
π2 X (−1)n cos(nx)
x2 = +4 .
3 n=1
n2
Nótese que como un resultado particular, al evaluar en x = π, se tiene la función zeta de Riemann ζ(2)
∞ ∞
π2 1 1 π2
or
X X
π2 = +4 ⇒ ζ(2) ≡ = .
3 n=1
n2 n=1
n2 6
Pero este caso se presta también para considerar funciones no periódicas. Supongamos que queremos
desarrollar la expansión de Fourier para f (t) = t2 pero en este caso con 0 < t < 2. Si este fuera el caso,
ad
empezamos por suponer que la función tienen un perı́odo, digamos T = 4. Esto es −2 ≤ t ≤ 2. Con lo
cual
2 2 2 4 2 2
Z Z
8
a0 = t dt = t dt =
4 −2 4 0 3
rr
Z 2
4 2 2
Z
2 2πnt πnt 16 16
an = t2 cos dt = t cos dt = 2 2 cos(nπ) = 2 2 (−1)n .
4 −2 4 4 0 2 π n π n
Bo
107
2.5. SERIES DE FOURIER
ar
in
m
eli
Pr
or
ad
rr
Bo
108
2.5. SERIES DE FOURIER
r
2 2
Lar raíces de los polinomios de Legendre representan las abscisas del problema
a
O x := [fsolve(p)];
x := K0.77459666924148337704, 0., 0.77459666924148337704 (2)
in
Se puede construir una procedimiento que tome como entrada una función f x y genere los valores
aproximados
O proced := f -> sum(c['i']*f(x['i']),'i'=1..n):
Se calculan los pesos a partir de resolver el siguiente sistema lineal de ecuaciones:
m
O ecs := []:
O for i from 1 to n do
O ecs := [op(ecs),proced(z->z^(i-1)) = int(z^(i-1),z=-1..1)]:
O end do:
O ecs;
eli
c1 C c2 C c3 = 2, K0.77459666924148337704 c1 C 0.77459666924148337704 c3 = 0,
2
0.60000000000000000001 c1 C 0.60000000000000000001 c3 =
3
Pr
O sys := {op(ecs)}:var := {seq(c[k],k=1..n)}:
O pesos := solve(sys,var); assign(pesos):
pesos := c1 = 0.55555555555555555555, c2 = 0.88888888888888888891, c3
= 0.55555555555555555555
Para probar el método, generemos aleatoriamente un polinomio de grado 2 n K 1
O q := randpoly(z,degree=2*n-1);
or
q := K56 K 7 z 5 C 22 z 4 K 55 z 3 K 94 z 2 C 87 z (3)
con el polinomio anterior construyamos una función g x
O g := unapply(q,z);
g := z/K56 K 7 z 5 C 22 z 4 K 55 z 3 K 94 z 2 C 87 z (4)
ad
O exacto := int(q,z=-1..1);
2488
exacto := K (6)
15
Ahora podemos comparar el resultado exacto con el aproximado
Bo
O evalf(exacto - calculado);
0. (7)
FIN
109
2.5. SERIES DE FOURIER
a r
in
Figura 2.8: Aproximaciones por series de Fourier para la función escalón, linea roja. Las curvas corresponden
a sumas parciales de Fourier: F40 (x), F100 (x), F200 (x),
m
eli
Pr
or
ad
Figura 2.9: Un par de funciones, definidas con un perı́odo T , a ser expresadas en como expansiones en Series
de Fourier. En los cuadrantes I y II, encontramos una onda cuadrada. La primera (cuadrante I) definida en
rr
ilustra las aproximaciones de la serie de Fourier para n = 3, 7, 20, mientras que el espectro de potencia se
presenta en el cuadrante IV. La onda “diente de sierra”, definida en un intervalo (0, T ), se presenta en el
Bo
110
Capı́tulo 3
ar
Series II
in
m
eli
Pr
or
ad
rr
Bo
111
3.1. SERIES Y ESPACIOS DE HILBERT
r
El segundo concepto fue la posibilidad de expresar un determinado vector (una función) como combinación
lineal de una base (de dimensión infinita) de un espacio vectorial E ∞ . Efectivamente, esa combinación lineal
a
(de dimensión infinita) habrá de converger a el valor de la función en ese punto. En su momento expresamos
estos conceptos intuitivos y fácilmente demostrables para E n (un espacio vectorial Euclidiano de dimensión
finita, n−dimensional) y sin mayores justificaciones hicimos el “salto ” a E ∞ (un espacio Euclidiano infinito-
in
dimensional). Ahora, equipados con los conceptos de convergencia uniforme estamos en capacidad de explorar
esas razones que antes eludimos.
Ambos conceptos tienen que ver con la palabra completitud, la cual, como veremos, no tiene el mismo
m
significado en cada una de las situaciones antes mencionadas, pero será complementario. En el primer caso
la completitud de E ∞ se logra al poder expresar un vector como una combinación lineal de una base infinita
que converja al valor del vector. En el segundo caso diremos que la base {|ei i} para E ∞ será completa si
expande la totalidad de los vectores de E ∞ .
eli
3.1.1. Completitud de E ∞
La primera idea de completitud de un Espacio de Hilbert E ∞ tiene que ver con el hecho que, en ese
espacio, donde la norma de un vector es finita kak2 = ha |ai < ∞, la combinación lineal de los elementos de
Pr n→∞
una base infinita, {|ei i}, converja al vector |ai. Esto es, ai |ei i −→ |ai.
Para el caso de E n es inmediato que, dada una base (ortonormal, por ejemplo)
la norma es finita, por cuanto es la suma de términos finitos (las componentes del vector (a1 , a2 , a3 , · · · an )).
Sin embargo, para el caso de E ∞ las componentes del vector será función de las sumas parciales, esto es
or
Es decir que, efectivamente, componente a componente el vector |an i converja al vector |ai.
ad
El criterio de convergencia de Cauchy en este caso significa que: dadas dos sumas parciales (desarrollos
parciales en una determinada base infinita {|ei i}) |an i = ai |ei i con i = 1, 2, . . . n y |am i = aj |ej i con
j = 1, 2, . . . m entonces:
k |am i − |an i k = k |am i − |ai − |an i + |ai k ≤ k |ai − |an i k + k |ai − |am i k < 0 + 00 ≡ ,
rr
con lo cual las diferencias en las sumas parciales serán siempre menor que un 0 < < 1.
Nótese que hemos utilizado la desigualdad triangular kx + yk ≤ kxk + kyk, y es esa misma desigualdad
Bo
112
3.1. SERIES Y ESPACIOS DE HILBERT
vale decir, hemos demostrado que el término j−ésimo (y con ello todas las componentes del vector) de una
n→∞ m→∞
suma parcial, converge al término correspondiente de la serie lı́mite. Esto es, ajn −→ ajm −→ aj por lo
tanto que la combinación lineal converge al vector. Nos queda por demostrar si su norma es finita, o lo que
es lo mismo, ha |ai = ai ai < ∞ con i = 1, 2, 3, · · · ∞.
Es claro que:
M
X ∞
X
|ajn − ajm |2 ≤ |ajn − ajm |2 ≡ k |am i − |an i k2 < ,
j=1 j=1
r
PM
con lo cual si m → ∞ tendremos que j=1 |ajn − aj |2 < , y si ahora hacemos:
a
∞
X ∞
X ∞
X
M →∞ ⇒ |ajn − aj |2 < ⇒ ha |ai = |aj |2 ≡ |aj + ajn − ajn |2 .
in
j=1 j=1 j=1
m
para que resulte:
2
(|α| − |β|) ≤ 2 |α|2 + |β|2 .
eli
∞
X X∞ ∞
X
ha |ai ≡ |aj + ajn − ajn |2 ≤ 2 |aj − ajn |2 + |ajn |2 < ∞ .
j=1 j=1 j=1
Pr
3.1.2. Conjunto completo de funciones
El segundo sentido de completitud tiene que ver con que el conjunto (funciones) de vectores base expandan
la totalidad del espacio vectorial (de funciones). Esto es, si {|ui i} ⇔ {ui (x)} es una base ortonormal para
E ∞ entonces:
∞
or
X
|ai = ai |ui i ⇒ k |ai k2 = ha |ai = ai ai = |ak |2 con i = 1, 2, 3, . . . ∞ .
k=1
Otra vez es la misma afirmación que consideramos en el caso de un espacio finito dimensional E n , en el cual
demostramos que una base {|ui i} con i = 1, 2, 3, · · · , n expandı́a todo el espacio.
ad
Si adicionalmente existe una función cuadrado integrable, L2[a,b] definidas en el intervalo [a, b], la cual
pueda ser aproximada por la base:
∞
X N
X Z b N
X
k |f i k2 ≡ hf |f i < ∞ ⇒ |f i = ci |ui i ∼ ci |ui i ⇔ kf (x)k2 ≡ dx|f (x)|2 ⇒ f (x) ∼ cj uj (x) .
rr
Nótese que hemos supuesto la existencia de un producto interno y si las bases son ortonormales tendremos
que:
Bo
Z b Z b Z b ∞
X
dx g ∗ (x)f (x) ⇒ uk |ul i ≡ dx u∗k (x)ul (x) = δlk ⇒ kf (x)k2 ≡ dx|f (x)|2 = |cj |2 .
hg |f i ≡
a a a j=0
113
3.1. SERIES Y ESPACIOS DE HILBERT
donde: Z b
ck = dx u∗k (x)f (x) .
a
Para demostrar que E ∞ es completo, comenzamos por demostrar la llamada desigualdad de Bessel.
Esta es: dada una base ortonormal infinita, {|ui i} ⇔ {ui (x)} para un espacio vectorial de Hilbert, E ∞ , de
Rb
funciones cuadrado integrable f (x) ∈ L2[a,b] , con un producto interno definido por hg |f i ≡ a dx g ∗ (x)f (x),
entonces se cumple que:
∞
r
X Z b Z b
kf (x)k2 ≥ |ck |2 con ck = uk |f i = dx u∗k (x)f (x) dx g ∗ (x)f (x) .
∧ hg |f i ≡
a a
a
k=1
Para demostrar la desigualdad de Bessel, partimos de una afirmación obvia en espacios finito dimensio-
in
nales:
| {z } | {z } | {z }
ck c∗
i δik
m
donde k, i = 1, 2, 3, . . . , n Entonces, queda demostrada la desigualdad de Bessel al tomar el lı́mite n → ∞:
n ∞
n→∞
X X
0 ≤ k |f i k2 − |ck |2 =⇒ k |f i k2 ≥ |ck |2 .
eli
k=1 k=1
Si definimos el error, Mn , que se comete al aproximar una función con su expansión hasta
un término
n−ésimo como Mn (b − a) ≡ k |f i − αi |ui i k2 demostraremos que Mn es mı́nima si αi = ci = ui |f i.
Para ello procedemos como es costumbre, partiendo de la definición que acabamos de hacer y nos con-
centramos en el caso finito dimensional:
Pr
0 ≤ Mn (b − a) ≡ k |f i − αi |ui i k2 = k |f i − (αi − ci ) |ui i − ck |uk i k2 .
Desarrollando
n
X
=k |f i k2 − c∗i (αi − ci ) − 2c∗i ci − (αk∗ − c∗k )ck + kαj − cj k2 + (αk∗ − c∗k )ck + c∗i (αi − ci ) + c∗i ci
j=1
" n
# n
ad
X X
= k |f i k2 − kci k2 + kαj − cj k2 .
i=1 j=1
Pero la desigualdad de Bessel garantiza que la cantidad entre corchetes es positiva, por lo tanto Mn es
mı́nima (y la denotaremos M̃n ) cuando seleccionamos αj = cj . Más aún, M̃n decrece cuando n → ∞, vale
decir:
rr
n ∞
n→∞
X X
M̃n (b − a) = k |f i k2 − kci k2 =⇒ M̃∞ (b − a) = k |f i k2 − kci k2 ,
i=1 i=1
Bo
114
3.2. SERIES DE LAURENT
Podemos enumerar las condiciones para la cual exigiremos que una función pueda ser expresada en
términos de una base completa de funciones.
r
Que f (x) sea cuadrado integrable f (x) ∈ L2[a,b] .
a
P∞
Que la base sea completa, {|ui i} ⇔ {ui (x)} i.e. k |f i k2 = i=1 kci k2 .
in
P∞
Que la serie ci |ui i ⇔ i=1 ci ui (x) converja uniformemente, para x ∈ [a, b].
3.1.3. Ejemplos
m
3.1.4. Practicando con Maxima
3.1.5. Ejercicios
eli
3.2. Series de Laurent
Anteriormente consideramos series complejas de potencias. En esta sección revisaremos, desde la pers-
pectiva de haber expresado la derivada n-ésima de una función analı́tica, el equivalente a las series de Taylor
para funciones complejas de variable complejas.
Pr
3.2.1. Series de Taylor para funciones analı́ticas
Si f (z) es analı́tica en un cı́rculo de radio R, encerrado por un contorno C y centrado en un punto z = z0 ,
entonces f (z) puede ser expandida en series de potencias (enteras positivas) para todo |z − z0 | < R de la
forma:
or
∞
X f (n) (z0 ) f 00 (z0 ) f (n) (z0 )
f (z) = (z − z0 )n ≡ f (z0 ) + f 0 (z0 )(z − z0 ) + (z − z0 )2 + · · · + (z − z0 )n + Rn ,
n=0
n! 2 n!
ad
(z − z0 )n
I
f (ζ) dζ
Rn (z) = .
2iπ C (ζ − z0 )n (ζ − z)
Para probar esta afirmación partimos de la fórmula integral de Cauchy escrita convenientemente:
rr
I I
1 f (ζ) dζ 1 f (ζ) 1
f (z) = = dζ , (3.1)
2iπ C ζ − z 2iπ C ζ − z0 1 − z − z0
Bo
ζ − z0
115
3.2. SERIES DE LAURENT
de donde:
n+1
z − z0
2 n
z − z0 z − z0 z − z0 ζ − z0
I I
1 f (ζ) dζ 1 f (ζ)
f (z) = ≡ dζ 1 + + + ··· + + ,
2iπ C ζ −z 2iπ C ζ − z0 ζ − z0 ζ − z0 ζ − z0 ζ −z
ζ − z0
z − z0
este último corchete proviene de una forma ingeniosa de utilizar una serie geométrica de razón r = .
ζ − z0
r
Para entenderlo, recordemos que para una serie geométrica, se cumple que:
a
1 − rn+1 1 rn+1 1 rn+1
1 + r + r2 + r3 + · · · + rn = = − ⇒ = 1 + r + r2 + r3 + · · · + rn + .
1−r 1−r 1−r 1−r 1−r
in
Entonces:
n+1
z − z0
n j
X z − z0 ζ − z0
I I
1 f (ζ) dζ 1 f (ζ)
f (z) = ≡ dζ + ,
m
2iπ ζ −z 2iπ C ζ − z0 j=0 ζ − z0 ζ −z
C
ζ − z0
con lo cual:
eli
n n
f (j) (z0 )
I
X 1 f (ζ) X
f (z) = (z − z0 )j dζ j+1
+ R n (z) = (z − z0 )j + Rn (z) , (3.2)
j=0
2iπ C (ζ − z0 ) j=0
j!
donde:
(z − z0 )n
I
f (ζ)
Rn (z) =
Pr
2iπ
dζ
(ζ − z0 )n (ζ − z)
. (3.3)
C
Obvio que la serie (3.2) converge si Rn (z) → 0 cuando n → ∞ y de eso es fácil convencerse al acotar la
ecuación (3.3). Esto es, considerando ζ sobre el contorno C y z en el interior de R, entonces:
(z − z0 )n |z − z0 |n
I I
f (ζ) f (ζ)
|Rn (z)| =
dζ
n (ζ − z)
<
n (ζ − z)
dζ
2iπ C (ζ − z 0 ) 2π C
(ζ − z0 )
or
|z − z0 |n 1
< M n 2πR ,
2π R
f (ζ)
donde, una vez más, hemos utilizado la forma polar ζ̃ = ζ − z0 = Reiθ y hemos acotado < M , con
ad
n ζ − z
z − z0
lo cual es inmediato constatar que lı́mn→∞ = 0 ⇒ Rn (z) → 0, con lo cual la serie converge.
R
Veamos el siguiente ejemplo, vamos a expandir
1
rr
f (z) = ,
1−z
alrededor de z = z0 .
Esto es:
Bo
∞
1 1 1 2 1 3 (z − z0 )n X (z − z0 )n
f (z) = + (z−z0 )+ (z−z0 ) + (z−z0 ) +· · ·+ +· · · = .
1 − z0 (1 − z0 )2 (1 − z0 )3 (1 − z0 )4 (1 − z0 )n+1 n=0
(1 − z0 )n+1
116
3.2. SERIES DE LAURENT
a r
in
m
Figura 3.1: Expansión de Laurent
eli
Hemos dicho que si una función f (z) es analı́tica en una región (digamos que circular) R, entonces puede
ser expandida por series de Taylor. Sin embargo, si f (z) tiene un polo de orden p, digamos, en z = z0 , dentro
de la región R, no será analı́tica en ese punto, mientras que la función: g(z) = (z − z0 )p f (z) si lo será en
todos los puntos de esa región. Entonces f (z) podrá ser expandida como series de potencias (de Laurent) de
la forma
Pr
∞ ∞ ∞ I
X
k
X
n
X u−n 1 f (ζ) dζ
f (z) = uk (z − z0 ) = un (z − z0 ) + n
, con un = , (3.4)
n=0 n=0
(z − z0 ) 2iπ C (ζ − z0 )n+1
k=−∞
principal de f (z).
Para demostrar (3.4) o (3.5), recordamos que, tal y como muestra la figura 3.1 cuadrante I, si f (z) es
analı́tica en la regiún anular, entonces el Teorema de Cauchy, nos garantiza que
I I I I
1 f (ζ) dζ 1 f (ζ) dζ 1 f (ζ) dζ 1 f (ζ) dζ
f (z) = + ≡ −
2iπ C1 ζ − z0 2iπ C2 ζ − z0 2iπ C1 ζ − z0 2iπ C2 ζ − z0
rr
donde en el segundo caso hemos supuesto que ambas circulaciones tienen el mismo sentido.
Del mismo modo como procedimos en la ecuación (3.1) reescribimos el segundo par de integrales como
Bo
I I
1 f (ζ) 1 1 f (ζ) 1
f (z) = dζ + dζ
2iπ C1 ζ − z0 1 −
z − z0 2iπ C2 z − z0 ζ − z0
1−
ζ − z0 z − z0
117
3.2. SERIES DE LAURENT
y ahora invocando, una vez más la progresión geométrica (??) podemos construir expresiones de integrales
equivalentes a la ecuación (??). Vale decir
n n
z − z0 ζ − z0
n−1
X z − z0 j
n−1
X ζ − z0 j
ζ − z0 z − z0
I I
1 f (ζ) 1 f (ζ)
f (z) = dζ + + dζ +
2iπ C1 ζ − z0 j=0 ζ − z0 ζ − z 2iπ C2 z − z0 j=0 z − z0 ζ −z
ζ − z0 z − z0
y equivalentemente
r
n−1 I n−1 I
1 X f (ζ) 1 X 1
(z − z0 )j dζ f (ζ)(ζ − z0 )j +Rn2 (z)
a
f (z) = dζ j+1
+R n1 (z) + j+1
2iπ j=0 C (ζ − z0 ) 2iπ (z − z0 ) C
| 1 {z } j=0 | 2 {z }
uj u−j
in
(3.6)
Con lo cual queda demostrado la forma funcional de los coeficientes de la expansión de Laurent. La demos-
tración de la convergencia, esto es n → ∞ ⇒ Rn1 (z) → Rn2 (z) → 0 sigue el mismo esquema que utilizamos
para demostrar la convergencia de la ecuación (3.4) y se lo dejamos como ejercicio al lector.
m
Otra manera de representar las series de Laurent es por medio de las fórmulas:
∞ ∞
X
k
X bk
f (z) = ak (z − z0 ) + , R1 < |z − z0 | < R2 . (3.7)
(z − z0 )k
eli
k=0 k=1
donde:
Z
1 f (z)
ak = dz , k = 0, 1, 2, . . . , (3.8)
2πi C (z − z0 )k+1
bk =
1
Z
Pr f (z)
dz , k = 1, 2, . . . . (3.9)
2πi C (z − z0 )−k+1
En este caso, se supone que la función es analı́tica en el dominio anular: R1 < |z − z0 | < R2 y C es un
contorno cerrado simple en torno a z0 y contenido en la región anular.
En el caso de bk podemos ver que el integrando se puede escribir también como f (z)(z − z0 )k−1 . Si f
es analı́tica en |z − z0 | < R2 , entonces el integrando es una función analı́tica en dicho disco y por lo tanto
or
bk = 0. Es decir, la serie (3.7) se reduce a una serie de Taylor donde los coeficientes son:
f (k) (z0 )
Z
1 f (z)
ak = dz = , k = 0, 1, 2, . . . .
2πi C (z − z0 )k+1 n!
ad
En muchos casos las expansiones en series de Laurent no se generan a partir de las ecuaciones (3.4)
o (3.7) sino a partir de manipulaciones algebráicas y expansiones en Taylor moduladas por otros factores.
Analicemos el siguiente ejemplo.
El primero lo haremos directamente, vale decir, que como lo vamos a hacer no lo haremos otra vez.
Queremos hacer una representación en serie de Laurent de la función:
rr
1
f (z) = .
z(z − 1)
Bo
118
3.2. SERIES DE LAURENT
es decir
1 1
f (z) = = − − 1 − z − z2 − z3 − · · ·
z(z − 1) z
r
3.2.3. Integración por el método de los residuos: los residuos de Laurent
a
Las expansiones de funciones en series de potencias dejan “residuos” al detener la expansión a para una
determinada potencia. Esto se puede apreciar claramente en la expresión de Taylor para funciones analı́ticas.
in
Ahora, las expansiones de Laurent nos muestran otro “residuo”. Explotaremos las series de Laurent para
funciones con polos y construiremos un método para evaluar integrales de funciones en esos puntos. Primero
estudiaremos los residuos en general y luego los utilizaremos para evaluar integrales.
Hemos dicho que si f (z) tiene un polo de orden p en z = z0 ∈ R, entonces
m
I ∞
X a−p a−p+1 a−1
dz f (z) 6= 0 ⇒ f (z) = ak (z−z0 )k = p
+ p−1
+· · ·+ +a0 +a1 (z−z0 )+a2 (z−z0 )2 +· · ·
C n=−∞
(z − z 0 ) (z − z0 ) (z − z 0 )
más aún, tendremos que los coeficientes de la expansión pueden ser calculados a partir de
eli
I I
1 f (ζ) dζ
an = n = 0, ±1, ±2, · · · si n = −1, ⇒ f (ζ) dζ = 2iπa−1 ≡ 2iπRes f (z) (3.10)
2iπ C (ζ − z)n+1 C
1 iπ
a−1 = − ⇒ f (ζ) dζ = 2iπa−1 = −
3! C 3
En general, si f (z) tiene un polo de orden p en z = z0 ∈ R, entonces
∞
dp−1
ad
X
(z−z0 )p f (z) = a−p +a−p+1 (z−z0 )+· · ·+a0 (z−z0 )p +· · · ⇒ [(z−z0 )p
f (z)] = (p−1)!a −1 + bn (z−z0 )n
dz p−1 n=1
dz dz (z + i)2
eiz eiz
f (z) = 2 ≡ ⇒
(z + 1)2 (z + i)2 (z − i)2
d d
eiz
z0 = −i ⇒ [(z + i)2 f (z)] =
dz dz (z − i)2
119
3.2. SERIES DE LAURENT
con lo cual
eiz eiz (z + i)2 ieiz − eiz 2(z + i) −4ie−1 − −4ie−1
= lı́m 1 d i
Res 2 2 2
= lı́m 2
= =−
(z + 1) i z→i 1! dz (z + i)
z→i (z + i) 16 2e
r
(z − z0 )p(z) (z − z0 ) p(z0 )
Res f (z)|z0 = lı́m = p(z0 ) lı́m = 0 (3.12)
a
z→z0 q(z) z→z0 q(z) q (z0 )
porque hemos utilizado el Teorema de L’Hopital. Este caso lo podemos ejemplificar si consideramos una
in
función
4 − 3z
z = 0 ⇒ Res f (z)| = = −4
z=0
2z − 1 z=0
4 − 3z 4 − 3z
m
f (z) = 2 ≡ con polos en (3.13)
z −z z(z − 1)
4 − 3z
z = 1 ⇒ Res f (z)|z=1 = =1
2z − 1 z=1
eli
3.2.4. Ejemplos
1. Expandir
f (z) = ln(1 + z)
alrededor de z = 0 (Serie de Maclaurin)
Pr
∞
(−1)n+1 n! f 00 (0) 2 f 000 (0) 3 z2 z3
X
f (z) = ln(1+z) = ln(1 + z)|z=0 + n+1
z n ≡ f (0)+f 0 (0)z+ z + z +· · · = z− + +· · ·
n=1
(1 − z)
z=0 2 3! 2 3
2. Expandir
1+z
or
f (z) = ln ,
1−z
alrededor de z = 0 (Serie de Maclaurin)
ad
∞
z2 z3 z2 z3 z3 z5 2z 2n+1
X
1+z
ln ≡ ln[1+z]−ln[1−z] = z − + · · · − −z − − ··· = 2 z + + ··· = .
1−z 2 3 2 3 3 5 n=0
2n + 1
3. Dada la función:
1
f (z) = .
z(z − 2)
Bo
120
3.2. SERIES DE LAURENT
por lo tanto:
∞
1 1 1 1 X zn
f (z) = = − −
z(z − 2) 2z 2 n=0 2n+1
r
11 1 1 1 1 1 1 5
= − − − z − z2 − z3 − z4 − z − ··· , 0 < |z| < 2 .
a
2z 4 8 16 32 64 128
4. Sea la función
in
1
f (z) = .
(z − 1)(z − 3)
Esta función tienes polos de orden 1 en z = 1 y z = 3. Además, expresando f (z) como una suma de
m
fracciones parciales, tendremos:
1 1 1 1
f (z) = =− − , 1 < |z| < 3 ,
(z − 1)(z − 3) 2 z−1 z−3
eli
Para 1 < |z| < 3.
Tenemos los siguientes desarrollos:
∞ n ∞
1 1 1 1X 1 X 1
= = = n+1
, |z| > 1 ,
z−1 z 1 − 1/z z n=0 z z
Pr ∞
n=0
∞
1 1 1 1 X z n X z n
− = = = , |z| < 3 ,
z−3 3 1 − z/3 3 n=0 3 n=0
3n+1
La serie es:
"∞ ∞
#
1 1 X zn X 1
or
f (z) = = − +
(z − 1)(z − 3) 2 n=0 3n+1 n=0 z n+1
1 1 1 2 1 3 1 −1 1 −2 1 −3 1 −4
= − − z− z − z − z − z − z − z − ··· .
6 18 54 162 2 2 2 2
ad
"∞ ∞
# ∞
1 1 X 1 X 3n 1 X 1 − 3n
f (z) = = − − = −
(z − 1)(z − 3) 2 n=0 z n+1 n=0 z n+1 2 n=0 z n+1
= z −2 + 4 z −3 + 13 z −4 + 40 z −5 + · · · .
121
3.2. SERIES DE LAURENT
r
2 n=0 6 n=0 3n 2 n=0 3n+1
1 4 13 2 40 3 121 4
a
= + z+ z + z + z + ··· .
3 9 27 81 243
in
5. Dada la siguiente función
e2z
f (z) = .
(z − 1)3
Sabemos que:
m
∞
X zn
ez = , |z| < ∞ ,
n=0
n!
por lo tanto:
eli
∞ ∞
e2z e2 e2(z−1) 2
X 2n (z − 1)n 2
X 2n
f (z) = = = e = e (z − 1)n−3
(z − 1)3 (z − 1) 3
n=0
n!(z − 1)3
n=0
n!
2 −3 −2 −1 2 4 2
= e2 + (z − 1) + 2 (z − 1) + 2 (z − 1) + z + (z − 1) + · · · ,
3
Pr 3 15
la cual es válida para: 0 < |z − 1| < ∞.
6. Consideremos la función
z − sen z
f (z) = .
z3
Esta función se puede escribir como:
or
1 sen z
f (z) = 2
− 3 .
z z
Sabemos que:
∞
z 2n+1
ad
X
sen z = (−1)n , |z| < ∞ ,
n=0
(2n + 1)!
entonces
∞ ∞
1 sen z 1 X z 2n+1 1 X z 2(n−1)
f (z) = − 3 = − (−1)n 3 = 2− (−1)n
rr
z2 z z 2
n=0
z (2n + 1)! z n=0
(2n + 1)!
∞ 2(n−1) ∞ 2(n−1)
1 1 X
n z
X
n z
= − − (−1) = − (−1)
z2 z 2 n=1 (2n + 1)! n=1
(2n + 1)!
Bo
1 1 2 1 1 1
= − z + z4 − z6 + z8 − · · · ,
6 120 5040 362880 39916800
válida para: 0 < |z| < ∞.
122
3.3. TEOREMA DEL RESIDUO
r
simples a partir de residuos. Ahora generalizaremos ese esquema para una región, también múltiplemente
conexa, pero con un número finito de polos. Tal y como se muestra en la figura 3.1 en el cuadrante II,
a
realizamos una circulación ingeniosa, de tal modo que aislamos los distintos polos. Ahora bien, como la
función es analı́tica en la región bordeada por todos esos contornos, entonces
in
I I I I
dz f (z) + dz f (z) + dz f (z) + · · · dz f (z) = 0 ,
C C1 C2 Cm
m
I I I I I m
X
dz f (z) = dz f (z) + dz f (z) + · · · dz f (z) ⇔ dz f (z) = 2iπ Res f (z)z=z0j
C C1 C2 Cm C j=1
eli
donde hemos utilizado lo que hicimos para la ecuación (3.10)
Con ello podemos enunciar el Teorema del Residuo que ya hemos demostrado
Si f (z) es analı́tica en una región R excepto en un número, m, finito de polos z01 , z02 , z03 , · · · z0m entonces
I m
X
C
Pr
dz f (z) = 2iπ Res f (z)z=z0j
j=1
como se vio en la sección (3.2.3). Entonces, utilizamos los resultado expuestos en el ejemplo (3.13)
4 − 3z
I
dz 2 = 2πi(−4 + 1) = −6πi ,
C z −z
ad
siempre y cuando el circuito C encierre los dos polos, z = 0 y z = 1, para los cuales hemos calculado los
residuos.
El teorema del residuo (3.3) es una herramienta poderosa para evaluar algunos tipos de integrales definidas
en variable real. La intención es “extender” el dominio de las funciones de la recta real al plano complejo.
Una de las restricciones es que los contornos deben ser cerrados antes de que sean evaluados los residuos. El
Bo
punto es que muchas integrales reales tienen contornos abiertos y la posibilidad de evaluar estas integrales
a través del Teorema del Residuo descansa en la forma como se cierran los contornos. En estos casos se
debe estimar las contribuciones de esos contornos adicionales que permiten cerrar los contornos abiertos. A
continuación expondremos algunas técnicas para cerrar algunos tipos de contornos abiertos.
123
3.3. TEOREMA DEL RESIDUO
a r
in
m
Figura 3.2: Circuitos y evaluación de integrales reales, impropias
R∞
eli
3.3.3. Integrales impropias del tipo −∞
dx f (x)
Este tipo de integrales implica, si ambos lı́mites existen
Z ∞ Z 0 Z r Z r
dx f (x) = lı́m dx f (x) + lı́m dx f (x) ↔ lı́m dx f (x)
−∞ r→−∞ r
Pr r→∞ 0 r→∞ −r
Necesitaremos que el integrando sea una función racional f (x) = p(x)/q(x), donde q(x) 6= 0 ∀ x. Adicional-
mente requeriremos que cuando menos q(x) ∼ x2 p(x). Supuesto todo esto, convertimos nuestra Hfunción ra-
cional en una función de variable compleja f (x) → f (z) y consideramos la integral de circulación, C dz f (z),
sobre un contorno C descrito por el eje real y una semicircunsfrencia Γ en el plano complejo con y ≥ 0, tal y
Rcomo se muestra en el cuadrante I la figura 3.3. La intención es hacer r → ∞ y con ello evaluar la integral
∞
or
0
dx f (x). Es fácil convencerse que
I Z Z r m
X
dz f (z) = dz f (z) + dx f (x) = 2iπ Res f (z)z=z0j
C Γ −r j=1
ad
es decir,
Z r m
X Z
dx f (x) = 2iπ Res f (z)z=z0j − dz f (z)
−r j=1 Γ
rr
Esta estrategia es válida porque hemos supuesto que f (x) es racional y que q(x) 6= 0 ∀ x, entonces si
existen polos para f (z) estarán en el plano complejo (no sobre el eje real). Todos
R esos polos serán encenrados
por el contorno C que hemos seleccionado. Más aún, comprobaremos que Γ dz f (z) → 0 cuandoz → ∞.
Esto es sencillo si notamos que
Bo
Z
2 k k kπ
q(x) ∼ x p(x) ⇒ |f (z)| < 2 ⇒ dz f (z) < 2 πr =
para |z| = r ≥ 0
|z| Γ r r
124
3.3. TEOREMA DEL RESIDUO
r
donde hemos utilizado la expresión (3.14). La extensión analı́tica
a
1 iπ 3iπ
f (x) → f (z) = tendró cuatro polos simples: z = e± 4 ; z = e± 4 ;
z4 + 1
in
correspondientes a las cuatro raı́ces de z 4 = −1. Acto seguido calculamos los residuos invocando la relación
(3.12) que hemos construido para funciones racionales. Esto es
−3iπ iπ
1 e 4 e4
m
z = e iπ
⇒ Res f (z)| iπ = = =
4
z=e 4 4z 3 z=e iπ 4 4
p(z) p(z0 ) 4
Res = ⇒
q(z) z=z0 q 0 (z0 ) −9iπ −iπ
3iπ 1 e 4 e 4
z=e
4 ⇒ Res f (z)| 3iπ = = =
eli
z=e 4 4z 3 z=e 3iπ
4 4 4
Hemos considerado únicamente los polos para el semiplano complejo y > 0 ya que seguimos considerando
el circuito descrito en el cuadrante I de la figura 3.3. Quedan dos polos ubicados en el semiplano complejo
y < 0, tal y como se muestra en el cuadrante II de la misma figura 3.3.
Consecuentemente, tendremos que
Pr
Z ∞
dx 2πi iπ −iπ
π √2 Z ∞
dx 1 ∞
Z
dx
√
2
4+1
= e 4 + e 4 = πsen = π ⇒ 4 + 14
= 4 + 14
= π.
−∞ x 4 4 2 0 x 2 −∞ x 4
Z 2π I
dz
dθ G(cos θ, sen θ) → f (z) ,
0 C zi
mediante cambios de variables estándares
dz 1 1 1 1
z = reiθ ⇒ dθ = ; cos θ = z+ ; y sen θ = z− (3.15)
rr
zi 2 z 2i z
Por ejemplo, en las tablas de integrales encontrábamos1 que
Z 2π
dθ 2π
Bo
1 Encontrábamos porque hoy en dı́a estas integrales las calculamos con manipuladores simbólicos del tipo Maple, Reduce,
Matemathica o Mupad
125
3.3. TEOREMA DEL RESIDUO
los polos de √
2 −a ± a2 − b2
f (z) = 2 ⇒ z±0 = i,
bz + 2aiz − b
r
b
son los valores de z que anulan el denominador de f (z). Seguidamente verificamos la ubicación de los polos
a
simples y comprobamos que como |a| > |b| entonces
−a + √a2 − b2 −a − √a2 − b2
in
|z+0 | = i < 1 y |z−0 | = i > 1 ,
b b
y por lo tanto, sólo el primero de los polos está encerrado por el circuito C con |z| = 1 tal y como muestra
m
en el cuadrante III de la figura 3.3.
Una vez más calculamos el residuo para z+0 a partir de (3.11). Entonces tendremos que
2 2 1 −i
Res f (z)|z=z+0 = lı́m (z − z+0 ) = lı́m = ≡√
eli
z→z+0 bz 2 + 2aiz − b z→z+0 2bz + 2ai bz+0 + ai a + b2
2
finalmente Z 2π I
dθ 2dz 2π
= = 2iπRes f (z)z=z+0 = √ .
0 a + bsen θ C bz 2 + 2aiz − b a − b2
2
Pr
3.3.5. Integrales de Fourier
Otro grupo de integrales que pueden ser evaluadas mediante el teorema de Residuos son las integrales
de Fourier. Integrales que involucran funciones racionales, f (x), que satisfacen las condiciones expuestas
anteriormente y funciones senos y cosenos. Integrales del tipo
m
or
Z ∞ Z ∞ I
cos mx imx imz
X
Res f (z)eimz z=z
dx f (x) ↔ dx f (x)e → dz f (z)e = 2iπ (3.16)
−∞ sen mx −∞ C
0j
j=1
Con m > 0 y los polos correspondientes a los residuos que se muestran en el lado derecho, están ubicados
ad
en el semiplano complejo con y > 0. Es claro que el circuito seleccionado es Γ que muestra el cuadrante II
de la figura 3.3.
Equivalentemente, igualando partes reales e imaginarias
Z ∞ m
X
Im Res f (z)eimz z=z
dx f (x) cos mx = −2π
rr
0j
−∞ j=1
Z ∞ m
X
Re Res f (z)eimz z=z
dx f (x)sen mx = 2π .
0j
−∞
Bo
j=1
126
3.3. TEOREMA DEL RESIDUO
a r
in
m
Figura 3.3: Circuitos y evaluación de integrales reales, impropias
eli
Para demostrar que para evaluar las integrales de Fourier (3.16) se requiere la suma de los residuos nos
convencemos que la integral a lo largo de la semicircunferencia se anula. Esto es fácil si comprobamos que
y > 0 y m > 0, entonces si z = x + iy tendremos que
Pr
|eimz | = |eimx ||e−my | = e−my < 1 ⇒ |f (z)eimz | = |f (z)| ≤ |f (z)| |eimz |
con lo cual redujimos al de una función racional.
Por ejemplo, comprobemos que
Z ∞ Z ∞
dx cos mx π dx sen mx
= e−km y =0
or
2 2 x2 + k 2
−∞ x + k k −∞
es fácil ver que el polo simple de la continuación analı́tica de f (x) es z0 = ik y su residuo será
eimz eimz eimz e−mk
f (z) = 2 ⇒ z = ik ⇒ Res = =
ad
2 0 2 2
z +k z + k z=ik
2z z=ik
2ik
y por lo tanto
∞
eimx e−mk
Z
π
dx = 2iπ = e−mk
−∞ x2+k 2 2ik k
rr
127
3.3. TEOREMA DEL RESIDUO
donde ζ y ξ tienden a cero de forma independiente, es decir, ambos lı́mites se efectúan independientemente.
Ahora bien, puede darse el caso que uno o ambos lı́mites no existan pero si existe
!
Z x0 −
Z b Z b
lı́m dx f (x) + lı́m dx f (x) ⇔ V.P. dx f (x)
→0 a ξ→0 x0 + a
Diremos entonces que existe el Valor Principal de Cauchy para esa integral. La estrategia en estos casos será
diseñar un circuito tal que evite los polos de la extensión analı́tica de la función. Normalmente se establece
este recorrido rodeando los polos con arcos de circunferencia cuyos radios luego tenderán a cero. Veamos con
r
un ejemplo esta estrategia de circunnavegación.
Por ejemplo, consideremos que queremos evaluar la siguiente integral
a
Z ∞
sen x sen x
dx ↔ lı́m = 1.
in
0 x x→−0 x
Si bien el lı́mite está definido, cuando hacemos la extensión analı́tica2 f (x) = sen x/x → f (z) = eiz /z la
función compleja presenta un polo simple en z = 0, con lo cual la integral compleja presenta un polo en la
m
región de integración. Esto es
Z ∞ Z − Z R
eiz eix eiz eix eiz
I Z Z
sen x
dx → dz = dx + dz + dx + dz = 0,
0 x C z −R x C2 z x C1 z
eli
donde hemos construido un circuito que rodea el polo z = 0 (cuadrante IV de la figura 3.3). Es claro que
iz
dz ez = 0 porque la región no contiene ningún polo.
H
C
iz
Ahora mostraremos que C1 dz ez → 0, cuando R → ∞.
R
con lo cual
Z π Z π Z π/2 Z ζ Z π/2
I1 = dθ |eiz | = dθ e−Rsen(θ) = 2 dθ e−Rsen(θ) =2 dθ e|−Rsen(θ)
{z } + dθ e|−Rsen(θ)
{z } ,
0 0 0 0 ζ
I1 I2
ad
para 0 ≤ ζ ≤ π/2.
Es claro que e−Rsen(θ) es una función decreciente en θ y como estamos tratando de demostrar que la
integral a lo largo del circuito se anula I1 → 0, podremos considerar los máximos valores para I1 y I2 en el
entorno de integración y fijarlos como constantes, al hacer esto tendremos lo máximos valores que podrán
rr
tomar las integrales respectivas. Los máximos valores para I1 y I2 , son, 1 y e−Rζ .
Entonces,
Z π "Z Z π/2 #
ζ h π i
−Rsen(ζ)
dθ = 2 ζ + e−Rsen(ζ) − ζ < 2ζ + πe−Rsen(ζ) .
Bo
iz
I1 = dθ |e | ≤ 2 dθ + e
0 0 ζ 2
2 Nótese que la extensión analı́tica ha sido f (x) = sen x/x → f (z) = eiz /z y no f (x) = sen x/x → f (z) = sen z/z La razón
128
3.3. TEOREMA DEL RESIDUO
r
Z − Z R R
eiz eix eix eix − e−ix
I Z
dz = dx + iπ + dx =0 ⇒ dx + iπ = 0 ,
z x x x
a
C −R
|{z}
x→−x
in
Z R Z R Z ∞
eix − e−ix sen x sen x π
dx = −iπ ⇒ 2i dx = −iπ ⇒ dx = ,
x x 0 x 2
m
donde hemos hecho los lı́mites R → ∞ y → 0.
3.3.7. Ejemplos
1. Para evaluar la siguiente integral
eli
Z ∞
x2 dx z2
⇒ f (z) = 2
−∞ (x2 + 1)2 (x2+ 2x + 2) (z + 1) (z 2 + 2z + 2)
2
donde hemos realizado la extensión analı́tica f (x) → f (z) y ubicado sus polos de z = i y z = i − 1 en
Pr
el semiplano complejo y > 0 y los encerrados por el circuito descrito en el cuadrante I de la figura 3.3.
El primero de estos polos es de segundo orden, mientras que el segundo corresponde a un polo simple.
Consecuentemente, los residuos se calculan invocando la relación general (3.11) arriba expuesta. Con
lo cual para
z2
d 2 −12 + 9i
z = i ⇒ lı́m (z − i) =
or
2. Evaluemos Z ∞
xsen πx
dx
−∞ x2 + 2x + 5
Bo
129
3.3. TEOREMA DEL RESIDUO
ya que ese es el único polo encerrado por la circulación Γ. Calculando el residuo tendremos
con lo cual
Z ∞ Z ∞
zeizπ e−π(2+i)
I
x cos πx xsen πx π
dz 2 = dx 2 +i dx 2 = 2iπ(−1+2i) = (1−2i)e−2π
C z + 2z + 5 −∞ x + 2x + 5 −∞ x + 2x + 5 4i 2
r
igualando parte real e imaginaria tendremos que
a
Z ∞ Z ∞
x cos πx π xsen πx
dx 2 = e−2π y dx = −πe−2π
x + 2x + 5 2 x2 + 2x + 5
in
−∞ −∞
m
1. Determinar los polos y los residuos correspondientes para cada una de las funciones propuestas
2
2z + 1 z+1 sen z
f (z) = 2 ; f (z) = ; f (z) = ; f (z) = cot z
eli
z −z−2 z−1 z2
2. Evaluar
a) I
dz ez
Pra lo largo de una circunsferencia |z| = 5
C cosh z
b)
(2z 2 + 5)dz
I
a lo largo de una circunsferencia |z − 2i| = 6 y
C (z + 2)3 (z 2 + 4)z 2
un cuadrado de vértices z = 1 + i; z = 2 + i; z = 2 + 2i y z = 1 + 2i.
or
0 (x + 1)(x2 + 4)2
2
0 x + x2 + 1
4
−∞ (x2 + 4x + 5)2
0 a + b cos θ + csen θ a − b2 − c2
2
0 5 − 4 cos 2θ 8
5. Compruebe que
∞ ∞
πe−m (1 + m)
Bo
√
Z Z
cos mx cos 2πx π
Para m > 0 dx 2 2
= y dx = √ e−π/ 3
0 (x + 1) 4 0 x4 2
+x +1 2 3
130
3.4. TRANFORMADAS DE FOURIER
a) √
Z ∞ Z ∞
2π
dx sen x2 = dx cos x2 =
0 0 4
b) √ √
∞ ∞
π2 2 (ln x)2 3π 3 2
Z Z
ln x
dx 4 =− ; dx 4 =
0 x +1 16 0 x +1 16
c)
r
∞
x−p
Z
π sen pα
dx 2 =
x + 2x cos α + 1 sen pπ sen α
a
0
in
La transformada de Fourier representa (como combinación lineal de funciones sinusoidales) a funciones
definidas en toda la recta real y/o sin una periodicidad definida. Puede ser considerada como la generalización
de la representación en serie de Fourier, y es mayormente utilizada
R ∞ para expresar funciones que varı́an en el
m
tiempo con el único requisito que tengan norma acotada, i.e. −∞ dt |f (t)| finita.
Anteriormente hemos visto, que podemos expresar una función en término de series de Fourier complejas
∞ ∞
2nπ
X X
eli
f (t) = C n ei T t = Cn eiωn t ,
n=−∞ n=−∞
−i2nπx X
−inx
Cn = dx e T f (x) ⇒ f (t) = dx e f (x) eiωn t ,
T −T /2 n=−∞
2π −T /2
f (t) = dω e
2π −∞ −∞
| {z }
F (ω)
De este modo, la transformada de Fourier de una función y su inversa, pueden escribirse como
Z ∞ Z ∞
rr
1 1
F (ω) ≡ F[f (t)] = √ dt e−iωt f (t) ⇔ f (t) ≡ F −1 [F (ω)] = √ dω eiωt F (ω) .
2π −∞ 2π −∞
3.4.1. Propiedades
Bo
Las transformada de Fourier cumplen con las siguiente propiedades, las cuales de derivan de la definición
arriba expuesta
131
3.4. TRANFORMADAS DE FOURIER
1. Las transformada de la derivada F[f 0 (t)] = iωF (ω) y en general F[f n (t)] = in ω n F (ω). Esta propiedad
es más o menos inmediata a partir de la definición integrando por partes
Z ∞ Z ∞
0 1 iωt 0 1 ∞ iω
F[f (t)] = √ dt e f (t) = √ iωt
e f (t) −∞ + √
dt eiωt f 0 (t)iωF (ω)
2π −∞ 2π 2π −∞
2. La transformada de la integral
Z t
1
F ds f (s) = F (ω) + 2πcδ(ω)
r
iω
a
donde la función (distribución) δ(ω) se denomina delta de Dirac y el término 2πcδ(ω) representa la
transformada de la constante de integración
in
3. Escalamiento F[f (at)] = a1 F ( ωa )
4. Traslación F[f (t + a)] = eiaω F (ω)
5. Multiplicación por un exponencial F [eαt f (t)] = f (ω + iα)
m
3.4.2. Funciones pares e impares
Al igual que en las expansiones de Fourier, la paridad de las función f (t) es importante. Esto se nota
eli
rápidamente a partir de la definición. Supongamos f (t) = −f (−t), entonces
Z ∞ Z ∞
−2i ∞
Z
1 1
F (ω) = √ dt e−iωt f (t) = √ dt (cos(ωt) − isen(ωt)) f (t) = √ dt sen(ωt) f (t) ,
2π −∞ 2π −∞ 2π 0
Pr
con lo cual podremos definir las transformadas de Fourier seno y coseno para funciones impares y pares
respectivamente. Esto es para funciones impares f (t) = −f (−t)
r Z ∞ r Z ∞
2 2
F (ω) = dt cos(ωt) f (t) ⇔ f (t) = dω cos(ωt) F (ω) ,
π 0 π 0
y para funciones pares f (t) = f (−t)
or
r Z ∞ r Z ∞
2 2
F (ω) = dt sen(ωt) f (t) ⇔ f (t) = dω sen(ωt) F (ω) .
π 0 π 0
Haremos una digresión para fijar conceptos y extender algunos de los razonamientos que hemos desa-
rrollado hasta aquı́. Tal y como hemos visto repetidas veces, la representación de un vector |F i en un
espacio vectorial abstracto V puede darse en término de una base ortonormal de vectores (discreta y finita
BDF = {|u1 i , |u2 i , |u3 i , · · · |un i} o discreta e infinita BDI = {|v1 i , |v2 i , |v3 i · · · |vn i · · · }) de la forma:
rr
Pn Pn
i=0 ci |ui i = i=0 hui | F i |ui i ⇐ BDF = {|u1 i , |u2 i , |u3 i · · · |un i}
|F i =
P∞ P∞
i=0 ci |vi i = i=0 hvi | F i |vi i ⇐ BDI = {|v1 i , |v2 i , |v3 i · · · |vn i · · · }
Bo
132
3.4. TRANFORMADAS DE FOURIER
la intención ahora será utilizar la transformada de Fourier para construir la generalización de bases discretas
a continua |wα i de tal forma que transformamos el ı́ndice de la sumatoria en la variable de una integral
Z
|Ψi = dα c (α) |wα i ,
donde Z Z
c (β) = hwβ |Ψi = dα c (α) hwβ |wα i = dα c (α) δ (α − β) ,
r
con en la cual δ (α − β) es una Delta de Dirac.
Ası́, los dos conceptos expresados hasta ahora tienen una expresión:
a
Propiedad \ Base Discreta Continua
Ortogonalidad hvPi |vj i = δij hwβ |w R α i = δ (α − β)
in
∞
Cierre 1 = j=0 |vj i hvj | 1 = dα |wα i hwα |
P∞ R
Expansión |F i = i=0 ci |ui i |Ψi = dα c (α) |wα i
Componentes ci = hu
Pi∞ | Fi c (β)R = hwβ |Ψi
Producto Interno hG| F i = i=0 gi∗ fi hG| F i = dα g ∗ (α) f (α)
m
P∞ 2 R 2
Norma hF | F i = i=0 |fi | hF | F i = dα |f (α)|
Ilustraremos esta generalización con la construcción de la base de ondas planas. Hemos visto que la
transformada compleja de Fourier compleja para una función, se puede escribir como
eli
Z ∞ Z ∞
F (s) = ist
dt e f (t) f (t) = ds e−ist F (s) ,
−∞ −∞
Z ∞ Z ∞
1 1 i px/~ 1 1 −i px/~
ψ (x) = √ dp √ e ψ̄ (p) ψ̄ (p) = √ dx √ e ψ (x) ,
2π~ −∞ 2π~ 2π~ −∞ 2π~
| {z } | {z }
vp (x) vpx (x)
ad
por lo cual Z ∞ Z ∞
ψ (x) = dp vp (x) ψ̄ (p) ψ̄ (p) = dx vp∗ (x) ψ (x) .
−∞ −∞
Diremos que la función ψ (x) está expresada en la base de ondas planas vp (x) = √ 1 ei px/~
2π~
Nótese
rr
133
3.4. TRANFORMADAS DE FOURIER
Que las proyecciones de ψ (x) sobre la base de ondas planas es ψ̄ (p) = hvp | ψi
La relación de cierre para esta base se expresa como
Z Z ∞ Z ∞
1 i p(x0 −x)/~
1 = dα |vα i hvα | dp vp∗ (x0 ) vp (x) = dp e = δ (x0 − x)
−∞ −∞ 2π~
r
hvp0 | vp i = dx vp∗0 (x) vp (x) = dp e = δ (p0 − p)
−∞ −∞ 2π~
a
Un ejemplo inmediato lo tenemos al considerar la función
in
1 1
1 e−iω − eiω
Z
1 si |t| < 1 1 2sen ω
f (t) = ⇒ F (ω) = √ dt 1 e−iωt = √ = √2πω
0 el resto 2π −1 2π −iω −1
m
Z 1
dφ(x) 1 dφ(x)
2
− K φ(x) = f (x) ⇒ √ dt − K φ(x) e−iωt = F (ω) ,
2
dx2 2π −1 dx2
eli
donde F (ω) es la transformada de Fourier de la función f (x).
Utilizando las propiedades de la transformada de Fourier obtenemos que
Z 1
1 dφ(x) −iωt F (ω)
√ dt e − K 2 φ̃(ω) = F (ω) ⇒ −k 2 φ̃(ω) − K 2 φ̃(ω) = F (ω) ⇒ φ̃(ω) = − 2 ,
2π −1 dx 2
Pr k + K2
donde hemos representado φ̃(ω) como la transformada de Fourier de la solución φ(x). Con lo cual
Z 1 Z 1
1 −iωt 1 F (ω)
φ(x) = √ dt φ̃(ω) e = −√ dt e−iωt .
2π −1 2π −1 k2 + K 2
or
Como solución formal de la ecuación diferencial resulta sencilla y el método también es inmediato. El
punto crucial es la solución del la integral que resulta de la transformación inversa. Normalmente este tipo
de integrales no son tratables de manera analı́tica. Pero siempre queda el recurso numérico.
ad
Hemos visto como las funciones trigonométricas (y las exponenciales de argumento imaginario) son or-
togonales bajo integrales evaluadas en un determinado intervalo. En otras palabras con la definición de
producto interno en un espacio de funciones. Ahora bien, esas mismas funciones (Fourier Generalidades,
Bo
cosenos y funciones exponenciales de argumento imaginario) serán también ortogonales al ser evaluadas en
puntos muy particulares.
134
3.4. TRANFORMADAS DE FOURIER
kT
Consideremos los siguientes 2N puntos tk = 2N y probaremos que las funciones e2πiptk /T y e2πiqtk /T
serán ortogonales ∝ δqp en un conjunto esos puntos tk . Esto es
1 − r2N
= 0 r 6= 1
2N −1 h 2N −1 2N −1
2πiptk ∗
i 2πiqtk 2πistk
2πisk
1−r
X X X
e T e T = e T = e 2N =
k=0 k=0 k=0
2N r=1
kT
donde hemos sustituido s = q − p, y evaluado en los puntos tk = con k = 1, 2, 3, · · · , 2N − 1. Nótese
r
2N
que la última de las series es una serie finita y geométrica con razón r = e(πis)/N , que comienza con 1 y por
a
lo tanto suma (dependiendo del valor de r) lo que aparece en la llave. Es inmediato convencerse que, para
todo N se cumple que r2N = e2πis = 1 (con s entero) con lo cual se cumple la relación de ortogonalidad que
buscamos
in
2N −1 h
2πiptk ?
X i 2πiqtk
e T e T = 2N δqp con k = 1, 2, 3, · · · , 2N − 1 (3.17)
k=0
2πm
m
Si hacemos un ligero cambio de notación y llamamos ωm = tendremos algunos cambios, en apariencia,
T
cosméticos
2N −1 2N −1
2πimtk 1 X 1 X
e± T → e±ωm tk ⇒ F (ωm ) = f (tk )e±ωm tk ⇔ f (tk ) = F (ωm )e±ωm tk (3.18)
eli
2N 2N m=0
k=0
La función F (ωm ) representa la transformada discreta de Fourier de la f (tk ). Para despejar la función f (tk )
hemos utilizado la relación de ortogonalidad 3.17.
Consideremos el siguiente f (tk ) = cos(tk ) evaluado en un perı́odo T = 2π y dividido, digamos en N = 2
Pr
intervalos. Los puntos en los cuales evaluaremos nuestra serie serán 2N = 4, vale decir
kT kπ 2πm eiωm tk eimkπ/2
tk = ≡ con k = 0, 1, 2, 3 ⇔ ωm = ≡m ⇒ ≡
2N 2 T 2N 2N
nótese que la función f (tk ) puede ser escrita como un vector f (tk ) = (1, 0, −1, 0), con lo cual para encontrar
la expresión de su transformada discreta de Fourier, F (ωm ), podemos expresar la suma como una matriz de
transformación con ı́ndices m, k. Esto es
or
1 1 1 1
imkπ/2
e 1 1 i −1 −i
⇔
2N 4 1 −1 1 −1
ad
1 −i −1 0
con lo cual
F (ω0 ) 1 1 1 1 1 0
2N −1
1 X F (ω1 ) 1 1 i −1 −i 0 1 1
F (ωm ) = f (tk )e±ωm tk ⇒
F (ω2 ) = 4
=
rr
2N 1 −1 1 −1 −1 2 0
k=0
F (ω3 ) 1 −i −1 0 0 1
Respecto a la ecuación 3.18 se deben puntualizar varios elementos
Bo
2πm
la frecuencia angular ωm = corresponde a lo que en Fı́sica se denomina el espacio recı́proco (al
T
temporal), espacio de frecuencias u ω-espacio. Por ello la función F (ωm ) está expresada en este espacio
de frecuencias, mientras que la función f (tk ) en el de tiempos.
135
3.4. TRANFORMADAS DE FOURIER
r
En los pocos puntos seleccionados cos(tk ) y cos(3tk ) se asemejan. En la medida que seleccionemos más puntos
en esa medida se dejan de parecer y la reconstrucción de la función será más fidedigna.
a
3.4.5. Ejemplos
in
3.4.6. Practicando con Maxima
3.4.7. Ejercicios
m
eli
Pr
or
ad
rr
Bo
136
Capı́tulo 4
ar
PolinomiosOrtogonales
in
m
eli
Pr
or
ad
rr
Bo
137
4.1. SERIES DE POLINOMIOS ORTOGONALES
r
continua f (x) en un intervalo cerrado x ∈ [a, b] podrá ser aproximada uniformemente por polinomios en ese
mismo intervalo si, para un n suficientemente grande y un suficientemente pequeño siempre se tiene que
a
|Pn (x) − f (x)| < ∀ x ∈ [a, b]
in
Aceptaremos este teorema sin demostración1 , sin embargo este teorema nos permitirá desarrollar las secciones
siguientes.
m
El primero de los ejemplos de una base ortonormal de polinomios en la cual podremos expresar cualquier
función continua en el intervalo cerrado x ∈ [−1, 1] serán los Polinomios de Legendre. Estos vienen construidos
a partir de la Fórmula de Rodrı́gues
eli
1 dn 2
Pn (x) = (x − 1)n , n = 0, 1, 2, .....
n!2n dxn
con P0 (x) = 1.
Es decir
Pr
P0 (x) = 1 P1 (x) = x
1 1
P2 (x) = (3x2 − 1) P3 (x) = (5x3 − 3x)
2 2
1 1
P4 (x) = (35x4 − 30x2 + 3) P5 (x) = (63x5 − 70x3 + 15x)
8 8
or
.. ..
. .
Es fácil comprobar que los polinomios de Legendre son mutuamente ortogonales para un producto interno
definido de la siguiente manera Z 1
2
Pn (x)Pm (x)dx = δnm .
−1 2n + 1
rr
nótese que los polinomios de Legendre, calculados a partir de la Fórmula de Rodrigues no están normalizados.
1 Consultar: Byron, F.W. y Fuller W.F. (1970) Mathematics of Classical and Quantum Physics y Cushing, J. (1975)
138
4.1. SERIES DE POLINOMIOS ORTOGONALES
Ejemplos:
1. Z 1 Z 1 Z 1
1 2
3 3 1
P1 (x) P2 (x) dx = [x] 3x − 1 dx = x − x dx = 0 .
−1 −1 2 −1 2 2
2. Z 1 Z 1 Z 1
1 1 9 4 3 2 1 2
3x2 − 1 2
P2 (x) P2 (x) dx = 3x − 1 dx = x − x + dx = .
−1 −1 2 2 −1 4 2 4 5
r
Al ser los Polinomios de Legendre un conjunto completo de funciones, ellos expanden el espacio de
a
funciones continuas en el intervalo cerrado x ∈ [−1, 1]. Por ello cualquier función en el intervalo [−1, 1] puede
ser expresada en esa base.
∞ Z 1
2k + 1
in
X
f (x) = f (t)Pk (t) dt Pk (x) ,
2 −1
k=0 | {z }
ak
m
1 1
Z Z 1 Z 1
3 5
f (x) = f (t)dt + tf (t)dt P1 (x) + (3t2 − 1)f (t)dt P2 (x)
2 −1 2 −1 4 −1
Z 1 Z 1
eli
7 3 9 4 2
+ (5t − 3t)f (t)dt P3 (x) + (35t − 30t + 3)f (t)dt P4 (x) + · · ·
4 −1 16 −1
Ejemplos
1. Si f (x) es un polinomio
Pr m ∞
X X
f (x) = bn x n = an Pn (x) ,
n=0 n=0
entonces, no se requiere hacer ninguna integral por cuanto los coeficientes an se determinan a través
de un sistema de ecuaciones algebraicas. Para el caso de f (x) = x2 tendremos
or
=
2 2 3 3
1 2
= P0 (x) + P2 (x) .
3 3
r
1−x
f (x) = ,
2
Bo
por un lado r
1 1
1−x
Z Z
f (x)Pk (x)dx = Pk (x)dx
−1 −1 2
139
4.1. SERIES DE POLINOMIOS ORTOGONALES
r
3 5 21 45 77 117
∞
2 Pn (x)
a
X
= P0 (x) − 2 .
3 n=1
(2n − 1) (2n + 3)
in
Antes de entrar en el detalle de las propiedades de estos polinomios, hay que enfatizar que los Polinomios
de Legendre constituyen la única base ortogonal para un espacio de Hilbert con un producto interno definido
como el producto simple de funciones en el intervalo cerrado. Al ortonormalizar mediante Gram Schmidt
la base 1, x, x2 , x3 , · · · , xn , · · · del espacio de polinomios, P n , de grado n en el intervalo [−1, 1], con el
m
R1
producto interno definido por −1 dx f (x) g (x) se obtienen los polinomios de Legendre.
Los polinomios de Legendre surgen, originalmente, como soluciones a la ecuación diferencial ordinaria del
tipo
eli
d dy
1 − x2 + λ y = 0 , −1 ≤ x ≤ 1 .
dx dx
o de manera equivalente a ecuaciones como
0 dx2 dx =0 P0 (x) = 1
d2 P2 (x)
ad
dP2 (x)
2 (1 − x2 ) dx2 − 2x dx + 6 P2 (x) = 0 P2 (x) = 1 − 3x2
dx2 dx
Supongamos que conocemos todos los polinomios de Legendre hasta Pn (x) y queremos generar el próximo.
Obviamente ese polinomio será de grado n + 1. Nos plantemos generarlo a partir de xPn (x). Como estos
140
4.1. SERIES DE POLINOMIOS ORTOGONALES
1 1
Z Z 1 Z 1
3 5
xPn (x) = tPn (t)dt + t2 Pn (t)dt P1 (x) + (3t3 − t)Pn (t)dt P2 (x)
2 −1 2 −1 4 −1
r
Z 1 Z 1
7 4 2 9 5 3
+ (5t − 3t )Pn (t)dt P3 (x) + (35t − 30t + 3t)Pn (t)dt P4 (x) + · · · .
a
4 −1 16 −1
Notemos que
in
Z 1 Z 1
Pn (t)tPn (t)dt = tPn2 (t)dt ,
−1 −1
m
Para n = 0
Z 1
3
xP0 (x) = t2 dt P1 (x) = P1 (x)
2 −1
eli
Para n = 1
Z 1 Z 1
1 5 1 2
xP1 (x) = t2 dt + (3t4 − t2 )dt P2 (x) = + P2 (x)
2 −1 4 −1 3 3
Para n = 2
Pr
Z 1 Z 1
3 7
xP2 (x) = (3t4 − t2 )dt P1 (x) + (5t3 − 3t)(3t3 − t)dt P3 (x)
4 −1 16 −1
2 3
= P1 (x) + P3 (x) .
5 5
or
Para n = 3
3 4
xP3 (x) = P2 (x) + P4 (x) .
7 7
Se puede apreciar que
ad
Z 1
Pn (x)xPk (x)dx = 0 , para k < n − 1 .
−1
x dn 2 A dn+1 2 B dn−1 2
Bo
(x − 1)n = (x − 1) n+1
+ (x − 1)n−1 ,
n!2n dxn (n + 1)!2n+1 dxn+1 (n − 1)!2n−1 dxn−1
dn A dn+1 2 dn−1 2
x n (x2 − 1)n = (x − 1) n+1
+ 2nB (x − 1)n−1 .
dx 2(n + 1) dxn+1 dxn−1
141
4.1. SERIES DE POLINOMIOS ORTOGONALES
r
Conociendo que la ortogonalidad de los polinomios de Legendre y la relación de recurrencia, procedemos
a
encontrar el valor de su norma Z 1
2
Pn2 (x)dx =
−1 2n +1
in
De la relación de recurrencia cambiando n → n − 1 se tiene
m
(2n + 1) Pn (x)nPn (x) = (2n + 1) Pn (x) [(2n − 1) xPn−1 (x) − (n − 1) Pn−2 (x)] , (4.1)
ahora multiplicamos la relación de recurrencia por (2n − 1) Pn−1 (x) para obtener
(2n − 1) Pn−1 (x) (n + 1) Pn+1 (x) = (2n − 1) Pn−1 (x) [(2n + 1) xPn (x) − nPn−1 (x)] , (4.2)
eli
restando miembro a miembro (8.13) - (8.13) obtenemos :
(2n + 1) nPn2 (x) + (n − 1) Pn (x)Pn−2 (x) − (2n − 1) (n + 1) Pn−1 (x)Pn+1 (x) + nPn−1
2
(x) = 0 ,
lo que es igual a:
Pr
(2n + 1) nPn2 (x) + (n − 1) Pn (x)Pn−2 (x) = 2
(2n − 1) (n + 1) Pn−1 (x)Pn+1 (x) + nPn−1 (x) ,
(n − 1) 2n − 1 (n + 1)
Pn2 (x) + Pn (x)Pn−2 (x) = 2
Pn−1 (x)Pn+1 (x) + Pn−1 (x) ,
n 2n + 1 n
or
Z 1 Z 1
2n − 1 2n − 3
Pn2 (x)dx = 2
Pn−2 (x)dx
−1 2n + 1 2n − 1 −1
Z 1 Z 1
2n − 1 2n − 3 2n − 5
Pn2 (x)dx = 2
Pn−3 (x)dx
−1 2n + 1 2n − 1 2n − 3 −1
rr
−1 −1
Z 1
2
Pn2 (x)dx = .
−1 2n + 1
142
4.1. SERIES DE POLINOMIOS ORTOGONALES
para la cual los Pn (x) son los coeficientes de su desarrollo en series de potencias. Esta serie converge para
r
|2xt + t2 | < 1. Para demostrar que el desarrollo en serie de la función G(t, x) tiene como coeficientes a los
Pn (x) partimos de que:
a
1 ∂P(t, x) t−x
P(t, x) = √ ⇒ =
in
∂t 3/2
1 − 2xt + t2 (1 − 2xt + t2 )
m
(t − x) P(t, x) + 1 − 2xt + t2 =0
∂t
y, consecuentemente
∞ ∞
eli
X X
(t − x) Pn (x) tn + 1 − 2xt + t2 nPn (x) tn−1 = 0 .
n=0 n=1
+
n=1
∞
X ∞
X ∞
X ∞
X
ad
X X X
(t − x) P0 (x) + (n + 1)Pn+1 (x)tn − (2n + 1)xPn (x) tn + nPn−1 (x)tn = 0 ,
n=0 n=1 n=2
∞
X ∞
X
tP0 (x) − xP0 (x) + P1 (x) + 2P2 (x)t + (n + 1)Pn+1 (x)tn − 3xP1 (x)t − (2n + 1)xPn (x) tn
Bo
n=2 n=2
∞
X
+ nPn−1 (x)tn = 0
n=2
143
4.1. SERIES DE POLINOMIOS ORTOGONALES
por lo tanto
P1 (x) − x P0 (x) + 2P2 (x) − 3xP1 (x) + P0 (x) t
| {z } | {z }
=0 =0
X∞
+ (n + 1) Pn+1 (x) − (2n + 1) xPn (x) + nPn−1 (x) tn = 0
n=2
| {z }
=0
r
El primero de los términos se cumple siempre por cuanto P0 (x) = 1 y P1 (x) = x. El tercer término
a
conforma la relación de recurrencia para los polinomios de Legendre. Con esto queda demostrado que el
desarrollo en series de potencias de la función generatriz, tiene como coeficientes a los polinomios de Legendre.
La función generatriz muestra su utilidad en la expansión de
in
r
1−x
f (x) = ,
2
m
recordemos que por la definición del producto interno se tiene
Z 1 Z 1r
1−x
f (x)Pk (x)dx = Pk (x)dx .
−1 −1 2
eli
Al formar el producto r r ∞
1−x 1 1−x X n
√ = t Pn (x) ,
2 1 − 2xt + t2 2 n=0
e integrando, se obtiene
Pr
1
r ∞ Z 1r
1−x 1−x
Z
1 X
n
√ dx = t Pn (x)dx
−1 2 1 − 2xt + t 2
n=0 −1 2
"
2 √ # ∞ Z 1r
1 (1 − t) 1+ t X
n 1−x
1+t− √ ln √ = t Pn (x)dx .
2t 2 t 1− t 2
or
n=0 −1
−4 = t Pn (x)dx
3 n=1
(4n2 − 1) (2n + 3) n=0 −1 2
= P0 (x)dx y 2
= Pn (x)dx
3 −1 2 (4n − 1) (2n + 3) −1 2
r ∞
1−x 2 X Pn (x)
= P0 (x) − 2
2 3 n=1
(2n − 1) (2n + 3)
144
4.1. SERIES DE POLINOMIOS ORTOGONALES
a r
in
m
eli
Figura 4.1: Polinomios de Legendre
1 d du
sen(θ) + λ(λ + 1)u = 0
sen(θ) dθ dθ
√
Bo
145
4.1. SERIES DE POLINOMIOS ORTOGONALES
a r
in
m
Figura 4.2: Potencial electrostático de un dipolo eláctrico
eli
En Fı́sica el ejemplo claro es el cálculo del potencial electrostático producido por dos cargas q1 = +q y
q2 = −q separadas por una distancia 2d en un punto P cualquiera de un plano (x, y). El potencial en ese
punto genérico viene dado por
1 1
Pr V =q
R0
−
R
Tal y como puede apreciarse de la figura 4.2
2
(R0 ) = r2 + d2 − 2r d cos(θ) y R2 = r2 + d2 − 2r d cos (π − θ) ,
por lo cual
or
" 2 #−1/2
1 1 d d
0
= 1 − 2 cos(θ) +
R r r r
" 2 #−1/2
1 1 d d
ad
= 1 − 2 cos (π − θ) +
R r r r
y consecuentemente
∞ n
1 1X d
= P n (cos(θ))
rr
R0 r n=0 r
∞ n ∞ n
1 1X d 1X d
= Pn [cos (π − θ)] = Pn (− cos(θ))
R r n=0 r r n=0 r
Bo
El potencial será
∞ n
q X d
V = [Pn (cos(θ)) − Pn (− cos(θ))]
r n=0 r
146
4.1. SERIES DE POLINOMIOS ORTOGONALES
donde todos los términos pares de Pn (cos(θ)) se anulan y finalmente tendremos la expresión del potencial
para cualquier punto del plano
∞ 2n+1
2q X d
V = P2n+1 (cos(θ))
r n=0 r
r
1 ⇒ V ≈ 2d cos(θ) .
r r2
a
4.1.8. Resumen de Propiedades Polinomios Legendre
1 dn 2
in
Definición: Pn (x) = (x − 1)n , n = 0, 1, 2, . . .
n!2n dxn
m
Relación de Recurrencia: (n + 1) Pn+1 (x) = (2n + 1) xPn (x) − nPn−1 (x)
eli
1 d du
sen(θ) + n(n + 1)u = 0; u = Pn (cos(θ))
sen(θ) dθ dθ
∞
1 X
Función Generatriz: P(t, x) = √ = Pn (x) tn
Pr 1 − 2xt + t2 n=0
Z π √
1 n
Representación Integral: Pn (x) = x + x2 − 1 cos ϕ dϕ
2π 0
Z 1
2
Ortogonalidad: Pα (x)Pβ (x)dx = δαβ
or
−1 2α + 1
Practicando con Maple:
> restart:
> plot([LegendreP(0,x),LegendreP(1,x),LegendreP(2,x),LegendreP(3,x),
ad
LegendreP(4,x)],x=-1..1);
decrecer más rápido que |x|n , para garantizar que la norma de los vectores en este espacio vectorial sea
2
finita. La función más simple que cumple estos requisitos es w(x) = e−x (también algunos autores utilizan
2
w(x) = e−x /2 ) Esto es, el producto interno entre los polinomios de Hermite vendrá definido como
Bo
Z ∞ Z ∞
2
dx w(x)f (x)g(x) = dx e−x f (x)g(x) .
−∞ −∞
147
4.1. SERIES DE POLINOMIOS ORTOGONALES
Otra vez, para este producto interno, si ortogonalizamos con Gram-Schmidt se obtienen los polinomios de
Hermite. Al igual que el resto de los polinomios ortogonales, existe una fórmula de Rodrigues para los
polinomios de Hermite
2 d
n 2
Hn (x) = (−1)n ex e−x ,
dxn
los cinco primeros polinomios de Hermite son los siguientes:
H0 (x) = 1, H1 (x) = 2x
2
H2 (x) = 4x − 2, H3 (x) = 8x3 − 12x,
r
H4 (x) = 16x4 − 48x2 + 12 H5 (x) = 32x5 − 160x3 + 120x
a
4.1.10. Generalidades de los Polinomios de Hemite
in
Los polinomios de Hermite serán ortogonales, pero no normales
Z ∞
2 √
e−x Hβ (x)Hα (x)dx = 2α α! π δαβ ,
−∞
m
por lo tanto: Z ∞ √
2
e−x Hα2 (x)dx = 2α α! π .
−∞
eli
Donde la función delta de Kronecker es δαβ = 0 si α 6= β; y δββ = 1.
Antes de desarrollar funciones en términos de los polinomios de Hermite, expondremos un par de teoremas
sin demostración.
Teorema 1: Sean f y g dos funciones arbitrarias, cuando menos continuas a trozos en (−∞, ∞) y que
cumplen con
Pr
Z ∞ Z ∞
−x2 2 2
e f (x)dx ∃ ∧ e−x g 2 (x)d ∃
−∞ −∞
Entonces el conjunto de estas funciones forman un espacio vectorial euclideano I2w con un producto interno
definido por Z ∞
2
e−x f (x)g(x)dx
or
−∞
Las funciones f (x) y g(x) se denominan cuadrado-integrables respecto al peso w. Es por ello que denotamos
el espacio de funciones como I2w .
ad
Teorema 2: Si f (x) es una función continua arbitraria en I2w entonces puede ser aproximada por un
polinomio en ese mismo espacio. Es decir
Z ∞ 1/2
−x2 2
lı́m |f (x) − pn (x)| = lı́m e [f (x) − pn (x)] dx =0
n→∞ n→∞ −∞
rr
Ası́, la expresión de una función arbitraria en la base de los polinomio de Hermite se reduce a
∞ Z ∞
X 1 −t2
f (x) = √ e f (t)H k (t) dx Hk (x) ,
2k k! π −∞
Bo
k=0
donde Z ∞
1 2
ak = k
√ e−t f (t)Hk (t) dx .
2 k! π −∞
148
4.1. SERIES DE POLINOMIOS ORTOGONALES
Ejemplo: Si f (x) = x2
2
X ∞
X
f (x) = x2 = bk xk = ak Hk (x)
k=0 k=0
r
4 4
1 1
a
= H0 (x) + H2 (x)
4 4
Si generalizamos para funciones del tipo f (x) = x2p con p = 1, 2, 3, · · · , entonces
in
2p
X ∞
X
2p
f (x) = x = bk x k = a2k H2k (x) ,
k=0 k=0
m
por lo tanto
∞ ∞
d2k −x2
Z Z
1 2 1
a2k = √ e−x x2p H2k (x)dx = √ x2p e dx .
eli
22k (2k)! π −∞ 22k (2k)! π −∞ dx2k
√
si en la integral hacemos x = t obtenemos
Z ∞
1 (2p)! dt
a2k =2k
√ tp−k e−t √
2 (2k)! π (2p − 2k)! −∞ 2 t
rr
Z ∞
1 (2p)! 1
= 2k+1 √ tp−k− 2 e−t dt
2 (2k)! π (2p − 2k)! −∞
R∞
y utilizando la definición Γ (z) ≡ 0 e−t tz−1 dt ≡ (z − 1)! , queda como
Bo
1 (2p)! 1
a2k = 2k+1 √ Γ p−k+ .
2 (2k)! π (2p − 2k)! 2
149
4.1. SERIES DE POLINOMIOS ORTOGONALES
r
(2p)!
a2k =
a
22p+1 (2k)! (p − k)!
y, por lo tanto el desarrollo en la base de los polinomios de Hermite
in
p
(2p)! X H2k (x)
f (x) = x2p = − ∞ < x < ∞.
22p+1 (2k)! (p − k)!
k=0
m
Muestre que del mismo modo se puede encontrar
p
(2p − 1)! X H2k+1 (x)
f (x) = x2p+1 = − ∞ < x < ∞.
22p−1 (2k + 1)! (p − k)!
k=0
eli
2
x2
Si f (x) = e−a con Re a2 > −1. Otra vez
∞
2
x2
X
f (x) = e−a = a2k H2k (x)
Pr k=0
entonces Z ∞
1 2
+1)x2
a2k = 2k √ e−(a H2k (x)dx
2 (2k)! π −∞
Sustituyendo H2k (x) por su expresión integral tendremos
" #
Z ∞ 2k+1 k x2 Z ∞
1 2 2 2 (−1) e 2
e−(a +1)x e−t t2k cos 2xt dt dx
or
a2k = 2k √ √
2 (2k)! π −∞ π 0
2(−1)k ∞ −a2 x2
Z Z ∞
−t2 2k
= e e t cos 2xt dt dx
π(2k)! −∞ 0
ad
2(−1)k ∞ −t2 2k ∞
Z Z
−a2 x2
≡ e t e cos 2xt dx dt
π(2k)! 0 −∞
2(−1)k ∞ −t2 2k
Z r
π −t2 /a2
= e t e dt =
π(2k)! 0 a2
rr
Z ∞
2(−1)k 2 −2
=√ e−t (1+a ) t2k dt
π(2k)!a 0
Z ∞
(−1)k a2k 1
= √ e−s sk− 2 ds ← t2 (1 + a−2 ) = s
Bo
π(2k)! (1 + a2 )k+1/2 0
(−1)k a2k
1
=√ Γ k +
π(2k)! (1 + a2 )k+1/2 2
150
4.1. SERIES DE POLINOMIOS ORTOGONALES
r
2
x2
X
f (x) = e−a =
k+1/2
H2k (x)
22k k! (1 + a2 ) k=0
a
Al igual que los polinomios de Legendre, los de Hermite, surgen tambián en sus orı́genes como soluciones
a la ecuación diferencial ordinaria del tipo
in
d2 Hn (x) dHn (x)
− 2x + nHn (x) = 0
dx2 dx
Vale decir:
m
n Ecuación de Hermite Solución
eli
d2 H1 (x) dH1 (x)
1 2
− 2x + 2H1 (x) = 0 H1 (x) = 2x
dx dx
para lo cual
∂ n H(t, x) ∂ n −(x−t)2 dn −(u)2
x2 n x2
=e e = (−1) e e = Hn (x)
∂tn t=0 ∂tn t=0 dun u=x
151
4.1. SERIES DE POLINOMIOS ORTOGONALES
r
n=1 n=0 n=0
∞ ∞ ∞
Hn (x) n−1 Hn (x) n X Hn (x) n+1
a
X X
nt − 2x t + t = 0,
n=1
n! n=0
n! n=0
n!
∞ ∞ ∞
in
X Hn+1 (x) X Hn (x) n X Hn−1 (x) n
(n + 1)tn − 2x t + t = 0,
n=0
(n + 1)! n=0
n! n=1
(n − 1)!
∞ ∞ ∞
X Hn+1 (x) X Hn (x) n X Hn−1 (x) n
H1 (x) + (n + 1)tn − 2xH0 (x) − 2x t + t = 0,
m
n=1
(n + 1)! n=1
n! n=1
(n − 1)!
∞
X Hn+1 (x) Hn (x) Hn−1 (x) n
H1 (x) − 2xH0 (x) + (n + 1) − 2x + t = 0,
| {z } n=1
(n + 1)! n! (n − 1)!
=0
eli
es decir:
∞
X Hn+1 (x) Hn (x) Hn−1 (x)
n
(n + 1)! (n + 1) − 2x n! + (n − 1)! t = 0 .
n=1 |
Pr{z
=0
}
Por lo tanto:
Hn+1 (x) Hn (x) Hn−1 (x)
− 2x + =0
n! n! (n − 1)!
Ası́ la relación de recurrencia será
Hn+1 (x) − 2xHn (x) + 2nHn−1 (x) = 0
or
n=0 n=0
es decir:
∞ ∞
X Hn0 (x) n X Hn−1 (x) n H 0 (x) Hn−1 (x)
t =2 t ⇒ n =2
n=1
n! n=1
(n − 1)! n! (n − 1)!
y encontrar una relación para generar las derivadas de los polinomios de Hermite en término de ellos mismos:
rr
152
4.1. SERIES DE POLINOMIOS ORTOGONALES
con lo cual queda demostrado que los polinomios de Hermite son una solución particular de esa ecuación
diferencial.
y 00 − 2xy 0 + 2ny = 0,
2
Donde hemos hecho y = Hn (x) Adicionalmente, podremos demostrar que y = e−x /2
Hn (x) es solución de la
ecuación diferencial autoadjunta
y 00 + 2n + 1 − x2 y = 0 .
r
En general estos polinomios cumplen con
a
Z ∞
2 √
e−x Hβ (x)Hα (x)dx = 2α α! πδαβ .
in
−∞
Donde la función delta de Kronecker es δαβ = 0 si α 6= β; y δββ = 1. Para demostrar el caso α 6= β partimos
de
m
uβ u00α + 2α + 1 − x2 uα = 0
uα u00β + 2β + 1 − x2 uβ = 0
eli
0 0
uα uβ − u0β uα + 2 (α − β) uα uβ = 0
Z ∞
2
(α − β) e−x Hα (x)Hβ (x)dx = 0
−∞
Z ∞
2
Pr
e−x Hα (x)Hβ (x)dx = 0 α 6= β;
−∞
ya que ∞
2
e−x /2
{2α Hα−1 (x)Hβ (x) − 2β Hβ−1 (x)Hα (x)} =0
−∞
2
restando miembro a miembro, multiplicando por e−x e integrando entre (−∞, ∞) se obtiene
Z ∞ Z ∞
2 2
e−x Hα2 (x)dx = 2α e−x Hα−1
2
(x)dx
−∞ −∞
rr
Obtenemos ∞ √
Z
2
e−x Hα2 (x)dx = 2α α! π
−∞
153
4.1. SERIES DE POLINOMIOS ORTOGONALES
a r
in
m
Figura 4.3: Polinomios de Hermite
eli
Los polinomios de Hermite pueden ser representados como
2 Z ∞
2n (−i)n ex 2
Hn (x) = √ e−t +2itx tn dt
π
Pr −∞
2 ∞
22n+2 (−1)n ex
Z
2
H2n+1 (x) = √ e−t t2n+1 sen(2xt)dt , n = 1, 2, 3, · · ·
π 0
La forma de llegar a cualquiera de estas últimas fórmulas se parte de las conocidas integrales desarrolladas
ad
en el plano complejo Z ∞
2 2 2
e−x = √ e−t cos(2xt)dt
π −∞
se deriva 2n veces a ambos miembros se utiliza la definición de los polinomios de Hermite.
rr
154
4.1. SERIES DE POLINOMIOS ORTOGONALES
con µ la “masa” de la partı́cula; E los niveles de energı́a y U(x) el potencial al cual está sometida la partı́cula.
En el caso que estudiemos un potencial del tipo U(x) = 21 µω 2 x2 en el cual la frecuencia angular del oscilador
viene representada por ω. La ecuación de Schrödinger se convierte en
d2
2µ 1 2 2
ψ(x) + 2 E − µω x ψ(x) = 0 ,
dx2 ~ 2
p
haciendo un cambio de variable ξ = x µω/~ para adimensionalizar la ecuación de Schrödinger, se obtiene
r
2E
ψ 00 (ξ) + − ξ 2 ψ(ξ) = 0 ,
a
~ω
in
ψ 00 (ξ) + 2n + 1 − ξ 2 ψ(ξ) = 0 ,
m
= 2n + 1 ⇒ E= n+ ~ω ,
~ω 2
con lo cual comprobamos la forma como viene cuantizada la energı́a en este sistema y la energı́a del estado
fundamental. Por su parte, la función de onda se podrá expresar en la base de soluciones de esa ecuación
eli
∞ ∞
X X 2
ψ(ξ) = cn ψn (ξ) = cn e−ξ /2
Hn (ξ) .
n=0 n=0
Si mantenemos la normalización
Z ∞
Pr µω 1/4 1
ψn2 (ξ)dξ = 1 con cn = √ .
−∞ π~ 2n n!
or
ad
rr
Bo
155
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
r
H2 (x) = 4x2 − 2
a
Relaciones de Recurrencia: H0 (x) = 1; H1 (x) = 2x;
in
Ecuaciones Diferenciales: y 00 − 2xy 0 + 2ny = 0
2
u00 + 2n + 1 − x2 u = 0; u(x) = e−x
/2
Hn (x)
m
∞
2
X Hn (x)
Función Generatriz: H(t, x) = e2xt−t = tn
n=0
n!
eli
2 ∞
22n+1 (−1)n ex
Z
2
Representación Integral: H2n (x) = √ e−t t2n cos(2xt) dt
π 0
2 Z ∞
22n+2 (−1)n ex
H2n+1 (x) =
Pr √
2
e−t t2n+1 sen(2xt) dt
π 0
Z ∞
√ 2
Ortogonalidad: 2α α! π δαβ = e−x Hβ (x)Hα (x)dx
−∞
Practicando con Maple:
> restart: with(orthopoly):
or
4.1.17. Ejemplos
ad
Hemos considerado un par de ejemplos de Polinomios Ortogonales. En ambos podemos idenficar algunas
caracterı́sticas comunes. En base a estas caracterı́sticas comunes definiremos otras familias de polinomios
ortogonales.
Bo
156
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
r
Γ(n+α+1)
Lαn (x) Laguerre G 0 ∞ xα e−x con α > −1 n!
αβ
Pn (x) Jacobi −1 1 (1 − x)α (1 + x)β †
a
Cuadro 4.1: Propiedades genéricas de los Polinomios Ortogonales, Nn indica la norma del polinomio de grado
in
n.
m
Los polinomios ortogonales se definen como un conjunto de polinomios {pn (x)} de orden n definidos en
un determinado intervalo a ≤ x ≤ b, los cuales son ortogonales respecto a una definición de producto interno
Z b
eli
w(x)pm (x)pn (x)dx = hn δnm con w(x) > 0 una función peso en a ≤ x ≤ b
a
que garantiza que la norma sea finita en ese intervalo. Dado que el Teorema de Weierstrass garantiza que el
conjunto de polinomios {1, x, x2 , · · · , xn , · · · } es una base completa para un espacio vectorial E∞ , se procede
a ortogonalizar esa base con la definición de producto interno y el intervalo que corresponda. Para cada caso
tendremos una base ortogonal de polinomios.
Pr
Polinomio µn w(x) q(x)
Pn 2n n! 1 1 − x2
(−1)n n+1 1
Γ n + 12
Tn √ 2 √ 1 − x2
π 1 − x2
or
(−1)n √
√ 2n+1 Γ n + 32
Un 1 − x2 1 − x2
(n + 1) π
2
Hn (−1)n e−x 1
Ln n! e−x x
ad
Lα
n n! xα e−x x
En el cuadro 4.1 resumimos las propiedades más resaltantes, com lo son: la función peso en el producto
rr
En general todos los polinomios ortogonales {pn (x)} vienen definidos por la fórmula de Rodrigues gene-
ralizada
1 dn
pn (x) = (w(x)q(x)n )
w(x)µn dxn
157
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
donde w(x), q(x) y µn vienen especficados en el cuadro 4.2 para cada conjunto de polinomios ortogonales
r
Pn 1 x (3x2 − 1) (5x3 − 3x) (35x4 − 30x2 + 3)
2 2 8
2x2 − 1 4x3 − 3x 8x4 − 8x2 + 1
a
Tn 1 x
Un 1 2x 4x2 − 1 8x3 − 4x 16x4 − 12x2 + 1
Hn 1 2x 4x2 − 2 8x3 − 12x 16x4 − 48x2 + 12
in
1 2 1 1 4
Ln 1 1−x x − 2x + 1 − (x3 − 9x2 + 18x − 6) (x − 16x3 + 72x2 − 96x + 24)
2 6 24
m
4.2.4. Relaciones de Recurrencia
eli
También se pueden formular, de manera genérica las relaciones de recurrencia. Obviamente, las relaciones
de recurrencia también constituyen una forma alternativa de ir construyendo los polinomios ortogonales. Ası́,
un polinomio ortogonal genérico, pn (x), cumplirá
Polinomio an bn cn
2n + 1 n
Pn 0
or
n+1 n+1
Tn 0 2 1
Un 0 2 1
Hn 0 2 2n
2n + 1 1 n
ad
Ln −
n+1 n+1 n+1
2n + 1 + α 1 n+α
Lα
n −
n+1 n+1 n+1
Cuadro 4.4: Funciones para determinar la Relación de Recurrencia Generalizada
rr
Para todos los polinomimos ortogonales podemos definir una función generatriz G(x, t), de tal manera
que cada uno de los polinomios ortogonales {pn (x)} será proporcional al coeficiente de tn del desarrollo en
158
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
series de Taylor, en potencias de t alrededor del punto x = 0. Esta función generatriz que constituye una
forma alternativa de definir los polinomios ortogonales viene expresada por la serie
∞
X
G(x, t) = Cn pn (x) tn con an constante
n=0
Las funciones generatrices no son exclusivas de los polinomios ortogonales. Como veremos más adelante,
existen funciones generatrices para las funciones de Bessel.
r
Polinomio Cn G(x, t)
a
1
Pn 1 √
1 − 2xt + t2
1 − t2
in
Tn 2 +1
1 − 2xt + t2
1
Un 1
1 − 2xt +2 t2
Hn 1/n! e2xt−x
m
2
H2n 1n /(2n)! cos(2xt)et
2
H2n+1 1n /(2n + 1)! sen(2xt)et
xt
1 −1 − t
eli
Ln 1 e
1−t
xt
1 −
Lα
n 1 e 1−t
(1 − t)α
Pr
Cuadro 4.5: Funciones para determinar la función generatriz generalizada
experimentales {(x1 , y1 ) = f (x1 ), (x2 , y2 ) = f (x2 ), · · · , (xn , yn ) = f (xn )} y para modelar ese experimento
quisiéramos una función que ajuste estos puntos. El tener una función nos provee la gran ventaja de poder
intuir o aproximar los puntos que no hemos medido. La función candidata más inmediata es un polinomio
Bo
y debemos definir el grado del polinomio y la estrategia que aproxime esos puntos. Si queremos aproximar
esos puntos por una recta el Método de Mı́nimos Cuadrados es el más utilizado.
Puede ser que el polinomio no sea lineal y sea necesarios ajustar esos puntos a un polinomio tal que
éste pase por los puntos experimentales. Queda entonces por decidir la estrategia. Esto es, ajustamos la
159
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
r
Cuadro 4.6: Funciones para determinar la ecuación diferencial para la cual son solución los polinomios
a
ortogonales
in
función como “trozos” de polinomios que a su vez se ajusten a subconjuntos: {(x1 , y1 ) = f (x1 ), (x2 , y2 ) =
f (x2 ), · · · , (xm , ym ) = f (xm )}, con m < n, de los puntos experimentales En este caso tendremos una función
de ajuste, para cada conjunto de puntos.
También podemos ajustar la función a todo el conjunto de puntos experimentales y, en ese caso, el
m
máximo grado del polinomio que los ajuste será n − 1. Para encontrar este polinomio lo expresaremos como
una combinación lineal de Polinomios de Legendre. Esto es:
y1 = f (x1 ) = C0 P0 (x1 ) + C1 P1 (x1 ) + · · · + Cn−1 Pn−1 (x1 )
eli
n−1
X y2 = f (x2 ) = C0 P0 (x2 ) + C1 P1 (x2 ) + · · · + Cn−1 Pn−1 (x2 )
P(x) = f (x) = Ck Pk (x) ⇒ .
k=0 ..
yn = f (xn ) = C0 P0 (xn ) + C1 P1 (xn ) + · · · + Cn−1 Pn−1 (xn )
que no es otra cosa que un sistema de n ecuaciones con n incógnitas: los coeficientes {C0 , C1 , · · · Cn−1 } Al
Pr
resolver el sistema de ecuaciones y obtener los coeficientes, podremos obtener la función polinómica que
interpola esos puntos.
Una expansión equivalente se pudo haber logrado con cualquier otro conjunto de polinomios ortogonales,
ya que ellos son base del espacio de funciones. Es importante hacer notar que debido a que los polinomios de
Legendre están definidos en el intervalo [−1, 1] los puntos experimentales deberán re-escalarse a ese intervalo
para poder encontrar el polinomio de interpolación como combinación lineal de los Polinomios de Legendre.
Esto se puede hacer con la ayuda del siguiente cambio de variable:
or
(b − a)t + b + a b−a
x= , dx = dt
2 2
Consideremos los puntos experimentales representado en la figura 4.4. Al construir el sistema de ecua-
ad
− 53 , 10 ⇒ 10 = C0 − 3 1 9 51 477
5 C1 + 25 C2 + 25 C3 − 125 C4 + 3125 C5
rr
− 15 , 11 ⇒ 11 = C0 − 1 11 7 29 961
5 C1 − 25 C2 + 25 C3 + 125 C4 − 3125 C5
1 1 11 7 29 961
5 , 18 ⇒ 18 = C0 + 5 C1 − 25 C2 − 25 C3 + 125 C4 + 3125 C5
Bo
3 3 1 9 51 477
5 , 20 ⇒ 20 = C0 + 5 C1 + 25 C2 − 25 C3 − 125 C4 − 3125 C5
(1, 34) ⇒ 34 = C0 + C1 + C2 + C3 + C4 + C5
160
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
f(x)
f(x)
30
30
25
25
20 20
r
15 15
a
10 10
in
x x
2 4 6 8 10 12 K
1.0 K0.5 0.0 0.5 1.0
m
{(2, 8), (4, 10), (6, 11), (8, 18), (10, 20), (12, 34)} y a la derecha la función polinómica que los interpola.
eli
2249 3043 1775 175 625 14375
C0 = , C1 = , C2 = , C3 = − , C4 = , C5 =
144 336 504 216 336 3024
con lo cual
P(x) = f (x) =
2249 3043
+ x+
1775
Pr
P (2, x) −
175
P (3, x) +
625
P (4, x) +
14375
P (5, x)
144 336 504 216 336 3024
la interpolación queda representada en al figura 4.4.
Es importante se nalar que mientras más puntos experimentales se incluyan para la interpolación, el
polinomio resultante será de mayor grado y, por lo tanto incluirá oscilaciones que distorcionarán una apro-
ximación más razonable. Por ello, la estrategia de hacer la interpolación a trozos, digamos de tres puntos en
or
tres puntos, generará un mejor ajuste, pero será una función (polinomio) continua a trozos.
Practicando con Maple:
> restart: with(plots):
> pointplot([2,8],[4,10],[6,11],[8,18],[10,20],[12,34]);
>
ad
> P:=pointplot([-1,8],[-3/5,10],[-1/5,11],[1/5,18],[3/5,20],[1,34]):
> eq1:=C0-C1+C2-C3+C4-C5=8:
> eq2:=C0-3/5*C1+1/25*C2+9/25*C3-51/125*C4+477/3125*C5=10:
> eq3:=C0-1/5*C1-11/25*C2+7/25*C3+29/125*C4-961/3125*C5=11:
> eq4:=C0+1/5*C1-11/25*C2-7/25*C3+29/125*C4+961/3125*C5=18:
rr
> eq5:=C0+3/5*C1+1/25*C2-9/25*C3-51/125*C4-477/3125*C5=20:
> eq6:=C0+C1+C2+C3+C4+C5=34:
> s:=solve(eq1,eq2,eq3,eq4,eq5,eq6,[C0,C1,C2,C3,C4,C5]);assign(s);
Bo
161
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
Cuadratura de Gauss-Legendre
Una de los usos más comunes de los polinomios ortogonales es la de aproximar funciones, en particular
integrales que requieren ser resueltas numéricamente. La idea es aproximar una integral, para una funcion
f (x), definida en el intervalo [a, b] y suficientemente bien comportada, por una suma finita de términos
ck f (xk ) y estimar el error que cometemos en esta aproximación. Esto es:
Z b N
X
f (x)dx = ck f (xk ) + EN (4.3)
r
a k=1
Nótese que la intención es utilizar la función a integrar evaluada en un conjunto de puntos estratégicos para
a
los cuales están definidos unos coeficientes, también inteligentemente seleccionados. Es decir se requieren 2N
números (ck y los xk con k = 1, 2, · · · N ). Más aún, esas 2N cantidades pueden ser seleccionadas de forma
in
tal que la aproximación es exacta EN = 0 cuando f (x) es un polinomio de grado ≤ 2N − 1.
Supongamos, para empezar que la función f (x) está definida para x ∈ [−1, 1]2 y por lo tanto los polinomios
ortogonales que seleccionaremos para aproximar la integral (y la función) serán los del Legendre (igual
pudimos haber utilizado los polinomios de Tchebychev), con lo cual
m
∞
X
f (x) = ak Pk (x) ,
k=0
eli
donde: Z 1 Z 1
1 1
ak = k+ dx f (x)Pk (x) y a0 = dx f (x) .
2 −1 2 −1
Con lo cual
1 N N ∞ ∞ N
Z
f (x)dx ≈
X
ck f (xk ) =
Pr X
ck
X
an Pn (xk ) =
X
an
X
ck Pn (xk ) .
−1 k=1 k=1 n=0 n=0 k=1
Quedan todavı́a por determinar los pesos ck y los puntos xk . Para ello procedemos de la siguiente forma.
Notamos que PN (x) tiene N raı́ces, x = xj , en el intervalo −1 ≤ x ≤ 1. Entonces, si seleccionamos esos
puntos x = xj para evaluar la función f (xk ) se anulan el coeficiente para el término aN y, además podremos
encontrar los pesos ck resolviendo el sistema de N ecuaciones de la forma
or
N
X N
X N
X
cj P0 (xj ) = cj = 2 ∧ cj Pk (xj ) = 0 para k = 1, 2, · · · N − 1
j=1 j=1 j=1
ad
donde los Pk (xj ) son los distintos polinomios evaluados en las raı́ces del polinomio de grado N , i.e. PN (xj ) = 0
Se puede demostrar que la solución de este sistema provee los pesos escritos de la forma
2 0 dPN (x)
cj = 2, donde: PN (xj ) =
(1 − x2j ) (PN0 (xj )) dx x=xj
rr
2 Esta no
es una
limitación muy severa porque siempre podemos hacer, como ya vimos, un cambio de variable del tipo
b−a
x= 2
t + b+a
2
y convertir cualquier intervalo cerrado [a, b] en un intervalo cerrado [−1, 1].
162
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
2
N PN (xj ) = 0 cj = 2 2N − 1
(1 − x2j ) (PN0 (xj ))
√
2 ± 3/3 1 3
3 √0 8/9 5
± 15/5 5/9
4 ±0,3399810436 0,65214515 7
r
±0,8611363116 0,34785485
5 0 0,56888889 9
a
±0,5384693101 0,47862867
±0,9061798459 0,23692689
in
6 ±0,2386191861 0,46791393 11
±0,6612093865 0,36076157
±0,9324695142 0,17132449
.. .. .. ..
m
. . . .
eli
pero como
Z 1 Z 1 N
1 X
a0 = dx f (x) ⇒ dx f (x) = ck f (xk ) − EN
2 −1 −1 k=1
Pr
Es decir, demostramos que es posible aproximar la integral del la función con un promedio pesado de la
función evaluada en unos puntos estratégicos. Los puntos estratégicos son los ceros del polinomio de Legendre
de grado igual al número de puntos con los cuales se quiere aproximar la función y los pesos vienen de resolver
las ecuaciones para los coeficientes de la expansión. En el cuadro 4.7 se ilustran los valores de los puntos de
interpolación y sus pesos correspondientes.
Es inmediato comprobar que si f (x) es un polinomio de grado ≤ N − 1 la aproximación es exacta y el
error es nulo. Pero lo que realmente hace útil a este tipo de aproximaciones es que también será exacta para
or
polinomios de grado ≤ 2N − 1. Esto se puede ver si expresamos un polinomio de grado 2N − 1 como la suma
de dos polinomios
f (x) = PN (x)Y1 (x) + Y2 (x)
ad
el primer término se anula por ser PN (x) ortogonal a cualquier polinomio de grado inferior, y el segundo
término no es más que el caso que analizamos anteriormente de un polinomio de grado ≤ N − 1.
Puede resultar conveniente escribir la ecuación
Bo
Z b
b−a 1
(b − a)t + b + a
Z
f (x)dx = f dt
a 2 −1 2
163
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
r
Z 4
(x2 − 2x + 1)dx
a
2
Entonces, N = 2:
in
Z 4
4−2 (4 − 2)t1 + 4 + 2 (4 − 2)t2 + 4 + 2
(x2 − 2x + 1)dx = c1 f + c2 f
2 2 2 2
√ ! √ !
2t1 + 6 2t2 + 6 2 3/3 + 6 −2 3/3 + 6
m
= (1)f + (1)f =f +f
2 2 2 2
√ √
4 3 13 4 3 13 26
= + − + = .
3 3 3 3 3
eli
Estrategia General para cuadraturas de Gauss
Para el caso general, la aproximación de una integral
b N
Z
Pr
dx w(x)f (x) ≈
X
ck f (xk ) ,
a k=1
donde las {x1 , · · · xk , · · · xN } son los ceros del polinomio ortogonal, de grado N , pN (x), elegido para hacer
esta aproximación. Los N pesos {c1 , · · · ck , · · · cN } surgen de resolver el sistema de ecuaciones
N Z b N
X h0 X
w(x)p20 (x)dx
or
Ası́ para aproximar integrales con funciones pesos, w(x), utilizaremos cuadraturas adaptadas a los polinomios
ortogonales. Esto es
ad
Z ∞ Z ∞ Z 1
2 f (x)
dx e−x f (x) ⇒ Laguerre, dx e−x f (x) ⇒ Hermite, dx √ ⇒ Tchebychev .
0 −∞ −1 1 − x2
1
w(x) = √
1 − x2
Bo
164
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
donde:
1
k−
1 1 2
xk = (b + a) + (b − a) cos π.
2 2 N
r
4.2.8. Ejemplos
a
4.2.9. Practicando con Maxima
in
4.2.10. Ejercicios
m
eli
Pr
or
ad
rr
Bo
165
Capı́tulo 5
ra
Ecuaciones diferenciales ordinarias
in
m
eli
Pr
or
ad
rr
Bo
166
5.1. MOTIVACIÓN, ORIGEN Y CONCEPTOS BÁSICOS
r
Este curso trata, parcialmente, de mostrar parte de esta “fauna” y de indicarles métodos para resolver
un tipo particular de ecuaciones diferenciales: las Ecuaciones Diferenciales Ordinarias.
a
Las ecuaciones diferenciales ordinarias son básicamente funciones del tipo
in
h i
F x, y(x), y 0 (x), y 00 (x), y 000 (x), · · · , y (n) (x) = 0 , (5.1)
donde:
dy(x) d2 y(x) d3 y(x) d(n) y
y 0 (x) = , y 00 (x) = , y 000 (x) = , ··· , y (n) (x) = .
m
dx dx 2 dx3 dx(n)
Son ejemplos de ecuaciones diferenciales ordinarias:
ax + yy 0 = 0 , x2 y 000 − (y 0 )2 = ex , y 00 cos(x) + cos(y) = 2 .
eli
Cuando la función incógnita f viene definida por una relación entre sus derivadas parciales con respecto
a las variables independientes nos estamos enfrentando a un problema de Ecuaciones Diferenciales en De-
rivadas Parciales Si la función es f = f (x, y, z) una ecuación diferencial en derivadas parciales es una de la
forma:
F x, y, z, f, ∂x f, ∂y f, ∂z f, ∂x2 f, ∂y2 f, ∂z2 f, ∂xy f, ∂xz f, . . . = 0 ,
Pr (5.2)
donde:
∂f ∂f ∂f ∂2f ∂2f ∂2f ∂2f ∂2f
∂x f = , ∂y f = , ∂z f = , ∂x2 f = , ∂ 2
y f = , ∂ 2
z f = , ∂ xy f = , ∂ xz f =
∂x ∂y ∂y ∂x2 ∂y 2 ∂y 2 ∂x∂y ∂x∂z
Ejemplos de ecuaciones diferenciales en derivadas parciales:
or
un curso posterior.
Empecemos por recordar que desde los primeros cursos hemos tratado, la mayor de las veces sin saberlo
o sin explicitarlo, con este tipo de ecuaciones en donde la incógnita no es un número sino un conjunto de
números: una función.
rr
mos bachillerato o, más recientemente, en los primeros cursos de fı́sica general en la universidad. Entonces
describı́amos el movimiento de partı́culas en una dimensión, a través de dos ecuaciones:
t2
vf (t) = v0 + at y d(t) = v0 t + a . (5.3)
2
167
5.1. MOTIVACIÓN, ORIGEN Y CONCEPTOS BÁSICOS
v = v0 + at
X P
Fext f
r
Fext = ma ⇒ a = ⇒ 2 (5.4)
m d = v t + at
0
a
2
Lo más
Pprobable es que nuestros profesores nos repitieran hasta el cansancio que la sumatoria de fuerzas
externas Fext era constante, y lo más seguro que nosotros en aquellos momentos no comprendiéramos la
in
trascendencia de esa suposición.
El caso más representativo era el del movimiento de un cuerpo bajo la acción de un campo gravitatorio:
el problema llamado de caı́da libre.
m
v = v0 − gt
f
− mg = ma ⇒ a = −g ⇒ 2 (5.5)
d = v t − gt
0
2
eli
Lo que está detrás de esta historia que nos inició en el estudio de la fı́sica y a muchos de nosotros
nos sedujo para seguir estudiando y aprendiendo a tratar de describir la naturaleza, es, efectivamente, la
utilización de las leyes de Newton para modelar el fenómeno del movimiento. De este modo:
X
Pr
Fext = ma = m
dv(t)
=m
d2 x(t)
. (5.6)
dt dt2
Sı́ la sumatoria de fuerzas externas es una contante tendremos que:
R
dv(t)
P
Fext v(t) = dt a = at + C2
=a= = constante ⇒ (5.7)
dt m 2
x(t) = dt (at + C2 ) = a t2 + C2 t + C1
R
or
Claramente al identificar:
constituyen ecuaciones diferenciales donde las funciones incógnitas son la velocidad v(t) y la posición, x(t),
respectivamente. Ambas funciones se encontraban dentro de un signo de derivada y fueron “despejadas”
mediante un proceso de integración.
La descripción del movimiento de un sistema de partı́culas es más rica y compleja. El movimiento de una
Bo
gran cantidad de partı́culas puede ser simulado a través de una ecuación diferencial del tipo:
d2 r(t)
X dr(t) dv(t)
Fext r (t) , , t = ma = m =m . (5.10)
dt dt dt2
168
5.1. MOTIVACIÓN, ORIGEN Y CONCEPTOS BÁSICOS
El carácter vectorial implica tres ecuaciones diferenciales, una por cada dimensión del movimiento:
d2 x(t)
P x dx(t) dvx (t)
F x (t) , , t = ma = m =m
x
ext
dt dt 2 dt
d2 y(t)
X dr(t) P
y dy(t) dvy (t)
Fext r (t) , , t = ma ⇒ Fext y (t) , , t = may = m 2
=m
dt
dt dt dt
d2 z(t)
dz(t) dvz (t)
P
z
r
Fext z (t) , , t = maz = m =m
2
dt dt dt
a
Además del carácter vectorial de la ecuación, las componentes de la fuerza pueden dejar de ser constantes
y depender no sólo del tiempo, sino del vector posición, del vector velocidad o de ambas simultáneamente.
En este caso nuestras “formulitas” dejan de ser válidas y debemos integrar las ecuaciones diferenciales
in
para obtener la trayectoria de la partı́cula, es decir, r (t), conocidas: la masa, la expresión de la sumatoria de
fuerzas externas, la posición y la velocidad inicial. Este problema se conoce como el problema de condiciones
iniciales y es, como hemos dicho antes, la razón de este curso.
m
Pero antes vamos a mostrar como el conocimiento del movimiento bajo la acción de una fuerza constante,
es decir, el movimiento de una partı́cula con aceleración constante puede resultar muy útil para resolver, de
forma aproximada, el caso más general que hemos mencionado.
Veamos con detenimiento que significan estas afirmaciones.
eli
Es claro que el tiempo de evolución esta comprendido entre el tiempo inicial, t0 , y el tiempo final, tf , es
decir: t0 ≤ t ≤ tf . Supongamos que dividimos ese intervalo de tiempo en N subintervalos
[t0 , tf ] = [t0 , t1 ] ∪ [t1 , t2 ] ∪ [t2 , t3 ] ∪ · · · ∪ [ti , ti+1 ] ∪ · · · ∪ [tN −2 , tN −1 ] ∪ [tN −1 , tN = tf ]
de tal modo que en cada uno de esos N subintervalos la aceleración es constante. En estas situación, nuestras
“formulitas” son válidas. Esto es:
Pr
v(t1 ) = v1 = v0 + a (x0 , v0 , t0 ) [t1 − t0 ]
v(t0 ) = v0
[t0 , t1 ] : ⇒ 2 (5.11)
x (t0 ) = x0
[t1 − t0 ]
x (t1 ) = x1 = v0 [t1 − t0 ] + a (x0 , v0 , t0 )
2
or
v2 = v1 + a (x1 , v1 , t1 ) [t2 − t1 ]
v(t1 ) = v1
[t1 , t2 ] : ⇒ 2
x (t1 ) = x1
[t2 − t1 ]
x2 = x1 + v1 [t2 − t1 ] + a (x1 , v1 , t1 )
ad
2
Si continuamos con este procedimiento, para un tiempo n-ésimo se tiene:
vi+1 = vi + a (xi , vi , ti ) [ti+1 − ti ]
v(ti ) = vi
[ti , ti+1 ] : ⇒ 2
[ti+1 − ti ]
rr
x (ti ) = xi
xi+1 = xi + vi [ti+1 − ti ] + a (xi , vi , ti )
2
hasta i = N − 1:
Bo
vN = vN −1 + a (xN −1 , vN −1 , tN −1 ) [tN − tN −1 ]
v(tN −1 ) = vN −1
[tN −1 , tN ] : ⇒ 2
x (tN −1 ) = xN −1
[tN − tN −1 ]
xN = xN −1 + vN −1 [tN − tN −1 ] + a (xN −1 , vN −1 , tN −1 )
2
169
5.1. MOTIVACIÓN, ORIGEN Y CONCEPTOS BÁSICOS
r
que se suelta desde el fondo de un tanque de agua
de profundidad h.
a
Queremos conocer con que velocidad llega la es-
fera a la superficie.
El diagrama de cuerpo libre se puede observar en
in
la Figura 5.1 y la ecuación de Newton para este Figura 5.1: Diagrama de Cuerpo Libre de una esfera de cor-
caso se expresa como: cho que emerge desde el fondo de un tanque de agua.
m
X dr(t) dv(t)
Fext r (t) , , t ⇒ −mg − ηv (t) + ml g = m . (5.12)
dt dt
eli
En la cual podemos identificar:
Como sabemos de cursos anteriores, el empuje o fuerza de Arquı́mides es igual al peso del fluido desalojado
Pr
por el cuerpo. Por ello aparece ml que representa la masa del fluido.
Para el caso en el cual el fluido no es viscoso (η = 0), es decir, no hay fricción con el fluido, la ecuación
se reduce a:
X dr(t)
Fext r (t) , , t ⇒ −mg + ml g = ma , (5.13)
dt
en la cual claramente la aceleración es constante e igual a:
or
m
l
ρl
a=g −1 ≡g − 1 = cte . (5.14)
m ρ
donde hemos identificado ρl la densidad del fluido y ρ la densidad del cuerpo.
Para buscar la velocidad con la cual llega a la superficie, encontramos primero el tiempo que tarda en
ad
ρ g (ρl − ρ)
En el caso general, descrito por la ecuación (5.12), procedemos del mismo modo: encontramos el tiempo
en el cual llega la superficie y luego evaluamos la expresión de la velocidad para ese tiempo. Fı́jense que
170
5.1. MOTIVACIÓN, ORIGEN Y CONCEPTOS BÁSICOS
la estrategia para resolver el problema fı́sico es la misma, sólo que tendremos que disponer de un arsenal
adicional de herramientas y técnicas para “despejar” la función velocidad.
Aprenderemos a resolver ecuaciones diferenciales de la misma manera que antes resolvı́amos ecuaciones
algebraicas. En este caso, y como veremos más adelante, la solución exacta para la expresión de la velocidad
es:
dv(t) g (m − ml ) h − η t i
m = −mg − ηv (t) + ml g ⇒ v (t) = e m −1 . (5.17)
dt η
Con lo cual:
dy(t) g (m − ml ) h − η t
r
i
= v (t) = e m −1 , (5.18)
dt η
a
y la función posición surge de integrar la ecuación diferencial anterior
g(m − ml ) h − η t
in
i
y (t) = − 2
me m + ηt − m , (5.19)
η
desafortunadamente, no se puede despejar el tiempo de manera exacta por cuanto la ecuación:
m
gm (m − ml ) h − η tf η i
y(tf ) = h = − e m − 1 + tf , (5.20)
η2 m
para el tiempo final tf , ésta es una ecuación trascendente y debe ser resuelta numéricamente.
eli
Hagamos ahora algunas sustituciones simplificadoras:
4π 4π
ml = ξ ρ a3 , m= φ ρ a3 , ρl = ξρ , ρ = φρa , (5.21)
3 3
donde ξ y φ representan las densidades relativas del fluido y del cuerpo respecto al agua (que es de densidad
Pr
ρa ), respectivamente. Sustituyendo por valores numéricos:
(5.23)
h i
v (tf ) = 173,8744730 1 − e(−0,01409062500 tf ) ⇒ vf = 6,9063798 m/s . (5.24)
En la siguiente tabla se implementan las ecuaciones (5.11) habida cuenta de las simplificaciones (5.21) y
los valores numéricos (5.22) para h = 1/10 ∼ [ti+1 − ti ]
rr
Bo
171
5.1. MOTIVACIÓN, ORIGEN Y CONCEPTOS BÁSICOS
r
0.900 2.192612841 0.9887369109 2.1910775 0.98807
a
1.000 2.434523312 1.220093719 2.4328198 1.21926
1.100 2.676092916 1.475624530 2.6742217 1.47462
1.200 2.917322134 1.755295283 2.9152836 1.75410
in
1.300 3.158211444 2.059071962 3.1560062 2.05767
1.400 3.398761326 2.386920600 3.3963898 2.38529
aquı́, vi y yi representan la velocidad y la posición aproximada, tal y como se expresan en las ecuaciones
m
(5.11). Mientras que v (t) y y (t) ilustran los valores de la velocidad y la posición exactas, calculadas a partir
de las ecuaciones (5.18) y (5.19). Es claro que la aproximación es buena hasta la segunda cifra decimal.
eli
Thomas Robert Malthus1 fue uno de los primeros en darse cuenta que la población crece como una
razón geométrica mientras que los medios de subsistencias crecen de manera aritmética. Esta afirmación
plasmada en su Ensayo sobre el Principio de Poblaciones, el cual inspiró a Darwin en la formulación
de principio de selección natural. Malthus, muy religioso y creyente pensaba que esa diferencia en el
Pr
crecimiento de la población y las necesidades que ellas generaban, erán de procedencia divina y que
forzarı́a a la humanidad a ser más laboriosa e ingeniosa para lograr los medios de subsistencia. Darwin,
no tan religioso, lo formuló como una situación natural presente en todas las especies. La Ley de
Malthus o Decaimiento Radioactivo es:
dy(t)
= k y(t) ⇒ y(t) = y0 ek t , con y0 = y(0) . (5.25)
dt
or
Para k > 0 la población crece y para k < 0 tenemos una situación de decaimiento: la población decrece
con el tiempo. Este concepto se utiliza los procesos de decaimiento radiactivo.
La ecuación logı́stica o Ley de Verhulst2 se utiliza para describir el crecimiento de la población de
ad
una manera más precisa que la Ley de Malthus. Esta ecuación toma en cuenta el decrecimiento de la
población con el término −y 2
dy(t) k y0
= [k − ay(t)] y(t) = ky(t) − ay 2 (t) ⇒ y(t) =
dt a y0 + (k − a y0 ) e−k t
rr
La Ley de Enfriamiento de Newton expresa que la tasa de cambio de la temperatura respecto al tiempo
es proporcional a la diferencia de temperatura entre el cuerpo y el medio ambiente.
dT (t)
Bo
172
5.1. MOTIVACIÓN, ORIGEN Y CONCEPTOS BÁSICOS
La Ley de Torricelli, la cual establece (para un tanque cilı́ndrico) la tasa de cambio respecto al tiempo
de la profundidad del agua en un tanque:
dy(t) kp 1
= y(t) ⇒ y(t) = t + y(0)2 .
dt A 2
r
x2 − 4x + 4 = 0 ⇒ x = 2 ,
a
llamaremos ahora una ecuación diferencial aquella que se cumple para ciertas funciones i.e.
df (x)
in
− f (x) = 0 ⇒ f (x) = ex
dx
Definición:Sea f (x) una función definida sobre un intervalo a < x < b. Por una Ecuación Diferencial
m
Ordinaria entenderemos toda ecuación que involucre a x, f (x) y una o más derivadas de f (x).
Ejemplos:
df (x) d3 f (x) d2 f (x) cos(x) df (x)
eli
+ f (x) = 0 , = −e−x , = , x = 2[f (x)]2 .
dx dx3 dx2 1 − x2 dx
Utilizaremos para tal efecto varias notaciones equivalentes:
d2 f (x) df (x)
+ g(x) − af 2 (x) = k(x)
dx2
Pr dx
f 00 (x) + g(x)f 0 (x) − af 2 (x) = k(x)
fxx (x) + g(x)fx (x) − af 2 (x) = k(x) .
Se llaman ordinarias porque involucran funciones de una sola variable y derivadas respecto a ella.
Una ecuación diferencial ordinaria, de orden n, generica suele denotarse de la siguiente manera:
F[x, y(x), y 0 (x), y 00 (x), y 00 (x), · · · , y (n) (x)] = 0 , (5.26)
ad
y será lineal si sólo parecen funciones lineales de y(x) y sus derivadas. Por ejemplo:
y 0 y 00 + yy 0 − ay 2 = k(x) es no lineal
Muchas veces se acostumbra a omitir la dependencia de la función de la variable porque ésta queda sobre-
entendida: y(x) = y.
El orden de la derivada mayor define el orden de la ecuación diferencial, para la EDO (5.26) se tiene
Bo
173
5.2. SOBRE LAS SOLUCIONES
a r
in
m
Figura 5.2: Gráfica de la función implı́cita f (x, y) = x3 + y 3 (x) − 3xy(x) = 0
eli
La ecuación diferencial (5.26) será homogénea si NO contiene términos independientes de y(x), en caso
contrario será inhomogénea:
d2 y(x) dy(x)
dx2
+ g(x)
dx
Pr
− ay(x) = k(x) lineal inhomogénea
5.1.5. Ejemplos
or
d2 y(t)
= y(t) + 4 et ⇒ y(t) = et C2 + e−t C1 + 2 tet
dt2
Bo
y también
π
y 0 = (x + y)2 ⇒ y(t) = tan(t − C1 ) − t , con t − C1 6=
2
174
5.2. SOBRE LAS SOLUCIONES
r
la siguiente función
a
f (x, y) = x3 + y 3 (x) − 3xy(x) = 0,
ahora no es tan fácil verificar si efectivamente es una solución. Para comprobarla derivamos la función
in
d[f (x, y)] d x3 + y 3 (x) − 3xy(x) dy(x) dy(x)
= = 0 ⇒ 3x2 + 3y 2 (x) − 3y(x) − 3x = 0,
dx dx dx dx
simplificando y agrupando obtenemos la ecuación diferencial. Otra vez, la función solución no es univaluada.
m
Al graficarla (ver Figura 5.2) nos damos cuenta que tenemos varias soluciones de funciones univaluadas unas
2
contı́nuas y otras no. La función es univaluada fuera del lóbulo. Esto es para x ≤ 0 ∧ x > 2 3 . Con lo cual
tendremos que seleccionar, dentro del lóbulo, cuál de las partes univaluadas corresponde a la solución.
eli
5.2.2. Soluciones generales y particulares
Veamos las siguientes ecuaciones y soluciones
y 0 = ex ← y(x) = ex + C1
y 00 = ex
Pr
← y(x) = ex + C2 x + C1
y 000 = ex ← y(x) = ex + C3 x2 + C2 x + C1
Cada una de las soluciones representan familias de soluciones, una para cada constante. Este tipo de solucio-
nes las denominaremos soluciones generales. Es decir, llamaremos solución general de una ecuación diferencial
aquella que queda indeterminada por un conjunto de constantes {C1 , C2 , C3 , . . . , Cn }. En contraste, cuando
particularizamos los valores de las constantes tendremos una solución particular par cada una de las ecua-
or
ciones. Adicionalmente, cuando nos referimos a las ecuaciones no lineales el concepto de solución particular
varı́a. Soluciones particulares en este tipo de ecuaciones serán aquellas que se cumplen para rangos (o puntos)
muy particulares. Vale decir
ad
(y 0 )2 + y 2 = 0
⇒ y = 0 única solución
(y 00 )2 + y 2 = 0
Tamibién en este caso llamaremos a este tipo de soluciones, particulares. De igual modo puede darse casos
para los cuales no exista solución en un determinado intervalo.
rr
|y 0 |2 + 1 = 0
⇒ no tienen solución
|y 00 |2 + 1 = 0
Ecuaciones de la forma
Bo
y(x) = ln(x) + C1 para x > 0
xy 0 = 1 ⇒ y(x) = ln |x| + C ⇒
y(x) = ln(−x) + C1 para x < 0
175
5.2. SOBRE LAS SOLUCIONES
con: −1 < x < 0 ∧ 0 < x < 1, tienen soluciones particulares para intervalos de la variables x.
Del mismo modo
r
Si y(x) = f (x, C1 , C2 , . . . , Cn ) es solución de una ecuación diferencial
a
F[x, y(x), y 0 (x), y 00 (x), · · · , y (n) (x)] = 0 ,
in
y(x) = f (x, C1 , C2 , . . . , Cn ) es una familia n-paramétrica de soluciones.
Existe una diferencia entre una solución general de una ecuación y una solución n−paramétrica. La solución
m
general tiene que contener todas las soluciones de una ecuación diferencial determinada. Una solución
n−paramétrica no necesariamente. Veamos
y(x) = Cx + C 2
eli
y = xy 0 + (y 0 )2 ⇒ 2
y(x) = − x
4
Se estarı́a tentado en llamar solución general a la solución 1−paramétrica y = Cx + C 2 . Sin embargo, se deja
Pr
por fuera a la otra solución que no tiene que ver con un valor particular de la constante C.
Otro ejemplo, lo constituye
3 C2
y 0 = −2y 2 ⇒ y(x) = 2 , ∀x,
(Cx + 1)
pero también
or
−2
y(x) = x + C̃ , es solución con y(x) 6= 0 .
Una solución n−paramétrica se denominará solución general si contiene todas las soluciones de una de-
terminada ecuación diferencial. En el caso de ecuaciones diferenciales lineales, las soluciones n−paramétricas
ad
arbitrarias de una familia n−paramétrica con información para un único punto x = x0 . Esto es:
donde
y(x0 ) = C1 y 0 (x0 ) = C2 ... y (n−1) (x0 ) = Cn .
176
5.2. SOBRE LAS SOLUCIONES
En este caso diremos que tendremos un problema de valores iniciales, ya que determinamos las constantes
arbitrarias a partir de la información de la función y sus derivadas en un solo punto, por ejemplo:
y(0) = 0 1
y 00 + ω 2 y = 0 con ⇒ y(x) = sen(ωx) .
y 0 (0) = 1 ω
Si por el contrario, para determinar el valor de las constantes arbitrarias disponemos de información de la
función y sus derivadas en dos o más puntos, diremos que tendremos un problema de contorno. Esto es:
r
y(0) = 0
y 00 + ω 2 y = 0 con ⇒ y(x) = sen(nπωx) .
y(1) = 0
a
Nótese que también pudimos haber tenido información del tipo
in
y(0) = y0 , y 0 (1) = y1 ; y 0 (0) = y0 , y 0 (1) = y1 ; y 0 (0) = y0 , y(1) = y1 ,
m
solución particular (siempre se pueden determinar las constantes a partir de la información de la función y
las derivadas en UN punto). No ası́ los problemas de valores de contorno.
5.2.5. Ejemplos
eli
5.2.6. Practicando con Maxima
5.2.7. Ejercicios
Pr
or
ad
rr
Bo
177
Capı́tulo 6
ra
Ecuaciones diferenciales de orden 1
in
m
eli
Pr
or
ad
rr
Bo
178
6.1. SOLUCIONES ANALÍTICAS
d2 θ g
+ sen(θ) = 0, EDO no lineal, homogénea de orden 2
dt2 l
d2 θ g
+ θ = 0, EDO lineal, homogénea de orden 2
r
dt2 l
a
d2 θ g
+ θ = E(t) , EDO lineal, no homogénea de orden 2
dt2 l
in
x
y 0 + xy = , EDO no lineal, homogénea de orden 1
y3
m
tan(x)y 0 − y = tan2 (x) , EDO lineal, homogénea de orden 1
eli
Ahora de manera un poco más sistemática diremos que una ecuación diferencial de primer orden será un
funcional tal que si es explı́cita respecto a la derivada ésta se podrá despejar
Pr
y0 ≡
dy(x)
= H(x, y)
0
F[x, y(x), y (x)] = 0 ⇒ dx
P (x, y)dx + Q(x, y)dy = 0
Ejemplos:
or
y 0 = 2xy + ex ⇒ (2xy − ex ) dx − dy = 0 ,
y 0 = ln(x) + y ⇒ (ln(x) + y) dx − dy = 0
ad
Integración directa
La integración directa tiene varias variantes las cuales nos hemos tropezado en varias situaciones de
modelaje y que nos han permitido integrar (intuitivamente) ecuaciones diferenciales. La más directa de
Bo
dy(x)
= f (x)
dx
179
6.1. SOLUCIONES ANALÍTICAS
por lo cual, al integrar (analı́tica o numéricamente) tendremos la expresión para la función y(x),
Z Z Z
dy(x) = dx f (x) ⇒ y(x) = dx f (x) + C
La integración directa fue la estrategia que utilizamos anteriormente para encontrar las formulitas que
nos aprendimos en bachillerato. Esto es
R
v(t) = dt a = at + C1
P
Fext dv(t)
= = a = constante ⇒
r
2
m dt x(t) = R dt (at + C ) = a t + C t + C
1 1 2
2
a
en la cual al recordar las condiciones iniciales se tiene:
v(0) = v0 ≡ C1 ⇒ v(t) = v0 + at
in
t2
x(0) = x0 ≡ C2 ⇒ x(t) = x0 + v0 t + a.
2
Una primera variante de la estrategia de integración directa anterior se aplica a la siguiente ecuación
m
dy(x)
= f (y)
dx
acomodando los términos e integrando resulta:
eli
Z Z
dy
= dx ⇒ F[y(x)] = x + C
f (y)
donde F[y(x)] será un funcional, desde el cual quizá se pueda despejar y(x).
Esta estrategia se ilustra en el siguiente ejemplo:
Pr
dy(x)
= −ay (x) , con y(0) = 2 ,
dx
entonces: Z Z
dy
= −a dx ⇒ y(x) = Ce−ax ⇒ yp (x) = 2e−ax .
y
la Figura 6.1 muestra varias soluciones particulares pertenecientes a esta familia, para a = 31 .
or
Otro ejemplo de integración directa se puede ver en la búsqueda de la solución de la siguiente ecuación
diferencial no lineal:
yy 0 = (y + 1)2
ad
esto es:
yy 0
Z Z
ydy
=1 ⇒ = dx , para y 6= −1 ,
(y + 1)2 (y + 1)2
integrando
1
+ ln |y + 1| = x + C ,
rr
y+1
que no es otra cosa que una familia de soluciones implı́citas, 1−paramétrica. Para una condición inicial como
y(2) = 0 entonces
1
Bo
y(2) = 0 ⇒ C = −1 ⇒ + ln |y + 1| = x − 1 para y 6= −1 ,
y+1
una vez más esta familia de soluciones 1−paramétrica no constituye la solución general de la ecuación
diferencial ya que no contiene todas las soluciones. En este caso, y(x) = −1 también es solución.
180
6.1. SOLUCIONES ANALÍTICAS
a r
in
m
1
Figura 6.1: Familia de soluciones 1−paramétrica para a = 3. En particular han sido tomados los valores
C = −3, −2, −1, 0, 1, 2, 3
eli
6.1.2. Ecuaciones diferenciales separables
Los casos anteriores de integración directa son generalizados por una ecuación que llamaremos separable.
Pr
Esto es, la función (funcional) de dos variables del lado derecho se supone que es el resultado del producto
de dos funciones de una variable, con lo cual las variables dependientes e independientes se agrupan a lados
distintos de la igualdad. La siguiente ecuación es separable
dy(x)
= F [y(x)]G(x)
dx
or
y por lo tanto Z Z
dy(x) dy
= G(x) dx ⇔ = G(x) dx .
F (y) F (y)
Por ejemplo, al querer resolver la siguiente ecuación
ad
dy(x)
= x + xy
dx
se tiene
x2
Z Z
dy x2
rr
= x dx ⇒ ln(1 + y) = +C ⇒ y(x) = Ae 2 − 1,
1+y 2
donde C o A son constantes arbitrarias a ser determinadas por las condiciones iniciales y además con y 6= −1.
De todos modos y = −1 es una solución particular.
Bo
181
6.1. SOLUCIONES ANALÍTICAS
por lo tanto:
r
dy 1 dz a 1 dz a dz
= − ⇒ − = f (z) ⇒ = bf (z) + a
dx b dx b b dx b dx
a
es decir, el cambio de variable nos conduce a una ecuación diferencial separable:
dz
in
= dx .
bf (z) + a
Un ejemplo nos clarifica de qué se trata
m
y 0 = sen2 (x − y) ⇒ dz = dx − dy ,
esto es Z Z
dz dz
y0 = 1 − ⇒ z 0 = 1 − sen2 (z) ⇒ = dx
1 − sen2 (z)
eli
dx
es decir
Z
dz
= x + C ⇒ tan(z) = x + C ⇒ tan(x − y) = x + C ⇒ y = x − arctan(x + C) .
cos2 (z)
Pr
Se puede tratar de generalizar el caso anterior y considerar ecuaciones diferenciales del tipo
dy a1 x + b1 y + c1
=f
dx a2 x + b2 y + c2
Entonces, se distinguen dos casos dependiendo de si las rectas a1 x + b1 y + c1 = 0 y a2 x + b2 y + c2 = 0 son
paralelas o no.
or
1. Son paralelas:
a2 b2 dy a1 x + b1 y + c1
= =λ ⇒ =f ≡ f˜(a1 x + b1 y)
a1 b1 dx λ(a1 x + b1 y) + c2
ad
⇒
a1 dv − a2 du
v = a2 x + b2 y + c2 ⇒ dv = a2 dx + b2 dy dy =
a1 b2 − a2 b1
Bo
182
6.1. SOLUCIONES ANALÍTICAS
queda de la forma h u i h u i
a2 + b2 f du − a1 + b1 f dv = 0 ,
v v
u
donde la función f v se conoce como una función homogénea al igual que la ecuación diferencial
que hereda de ésta su nombre. Este tipo de ecuaciones diferenciales serán consideradas en la próxima
sección.
Otro enfoque (equivalente) de este mismo problema puede ser consultado en el problemario de Kiseliov,
Kransnov, Makarenko1 . En este enfoque el cambio de variables se relaciona con el punto de corte (x0 , y0 )
r
Para ejemplificar este caso analizaremos un ejemplo sencillo de una función con argumento inhomogéneo
del tipo.
a
dy(x) a1 x + b1 y + c1 Q(x, y) ∝ a2 x + b2 y + c2
in
= ⇔ Q(x, y)dy + P (x, y)dx = 0 ⇒
dx a2 x + b2 y + c2
P (x, y) ∝ a1 x + b1 y + c1
Decimos, entonces que los coeficientes Q(x, y) y P (x, y) son inhomogéneos (ci 6= 0). Supondremos que las
m
rectas no son paralelas, por lo cual utilizamos el cambio de variable propuesto anteriormente. Entonces
1 du dv
u = a2 x + b2 y + c2 ⇒ du = a2 dx + b2 dy ⇒ dy = −
b2 − b1 a2 a1
eli
1 du dv
v = a1 x + b1 y + c1 ⇒ dv = a1 dx + b1 dy ⇒ dx = −
a2 − a1 b2 b1
es decir v
1 u
v
P (u, v) = u + = ug1 ,
a2 (b2 − b1 ) b2 (a2 − a1 ) u
y v
ad
1 u
v
Q(u, v) = u + = ug2 .
a1 (b2 − b1 ) b1 (a2 − a1 ) u
Este tipo de funciones homogéneas serán consideradas más adelante.
Veamos ahora un caso bastante sencillo de resolver donde la EDO no es una ecuación diferencial separable.
Consideremos, a manera de prueba, la ecuación diferencial siguiente
Bo
dy(x)
+ ay(x) = e−x , con y(0) = 2 ,
dx
1 A. Kiseliov, M. Krasnov y G. Makarenko (1969) Problemas de Ecuaciones Diferenciales Ordinarias. (Mir, Moscú)
183
6.1. SOLUCIONES ANALÍTICAS
entonces, podemos preguntarnos sobre la posibilidad de que exista una función µ(x) de manera que si
multiplicamos ambos lados de la ecuación diferencial por µ(x) entonces, el lado izquierdo de la ecuación
diferencial se pueda escribir como:
dy(x) ? d
µ(x) + ay(x) ≡ [µ(x)y(x)] .
dx dx
De esta manera, la función µ(x) es una función a determinar (en este caso a adivinar). Efectivamente tenemos
que si
µ(x) = eax ,
r
entonces al multiplicar ambos lados de la ecuación diferencial por µ(x), resulta:
a
dy(x)
eax + eax ay(x) = eax e−x
dx
in
d ax
[e y(x)] = e(a−1)x
Zdx Z
d [eax y(x)] = dx e(a−1)x
m
de forma y manera que:
1 (a−1)x
eax y(x) = e +C.
a−1
eli
Para y(0) = 2:
1 2a − 3
y(0) = 2 = +C ⇒ C =
a−1 a−1
Una solución particular será entonces:
1 −x
e + (2a − 3)e−ax .
yp (x) =
Pr
a−1
de los términos yH (x) = Ce−ax corresponde a la solución general para la ecuación homogénea asociada
a esa ecuación diferencial: dy(x)
dx + ay(x) = 0. El otro término yI (x) = e
−x
corresponde a la solución
dy(x) −x
particular de la inhomogénea: dx + ay(x) = e .
Esto último será una propiedad general para ecuaciones diferenciales lineales de cualquier orden. Resolvere-
ad
mos la ecuación homogénea y luego encontraremos una solución de la inhomogénea. La solución general será
una suma de ambas soluciones.
En general, para la ecuación
y 0 + ay = g(x) , el factor integrador es: µ(x) = eax
rr
| {z } solución de la homogénea
solución de la inhomogénea
184
6.1. SOLUCIONES ANALÍTICAS
a r
in
m
eli
Figura 6.2: Mapa de las ecuaciones diferenciales explı́citas
valor en cada punto (x, y). Ese valor (por la igualdad que representa la ecuación diferencial) será el valor de
la derivada en ese punto y el valor de la derivada en un punto, no es otra cosa que la pendiente de la recta
tangente a una curva en ese punto. Con eso, al construir una gráfica recordamos las curvas integrales de los
campos vectoriales y reconstruimos las curvas solución a partir de sus tangentes.
ad
Tenemos entonces que si y = f (x) o f (x, y) = 0 define y como una función de x que satisface y 0 = f (y, x)
sobre un intervalo a < x < b, entonces el gráfico de esta función se denomina una curva integral y a la
totalidad de esas curvas se le llama un campo de direcciones. A las curvas con la propiedad: y 0 = f (x, y) =
constante se le denominan isoclinas (igual pendiente).
Por ejemplo, si consideramos la EDO:
rr
y
y0 = ⇒ y = Cx ← curva integral. (x 6= 0 , y 6= 0) .
x
O para la ecuación
Bo
x
y0 = − ⇒ x2 + y 2 = C 2 ← curva integral. (x 6= 0 , y 6= 0) .
y
185
6.1. SOLUCIONES ANALÍTICAS
a r
in
(a) (b)
m
Cuando por un punto pasa más de una curva integral lo llamaremos un punto singular y para los puntos
por donde pase una y solo una curva integral le llamaremos puntos ordinarios.
eli
La Figura 6.3 contiene la representación gráfica para las tangentes de las siguientes ecuaciones diferen-
ciales:
1 y
(a) y 0 = e−x − y (b) y 0 =
3 x
y la Figura 6.4 las de
(c) y 0 = −
Pr
x
(d) y 0 = 1 + xy
y
En el Cuadrante (a) de la Figura 6.3 se muestran las soluciones particulares para las condiciones iniciales:
y(0) = 0,75, 0,50, 0, −0,50, −0,75. El Cuadrante (b) de la misma figura corresponde a las tangentes
generadas a partir de la ecuación diferencial. Nótese que son curvas integrales radiales y que para el punto
x = 0 no está definida la curva integral. En el Cuadrante (c), de la Figura 6.4, se representan las tangentes
or
de la ecuación. Finalmente el Cuadrante (d) contiene las tangentes a la ecuación diferencial, en ella se han
indicado las curvas integrales para las soluciones particulares correspondientes a las condiciones iniciales:
y(0) = 0,75, 0,50, 0, −0,50, −0,75.
Es importante señalar que este método permite obtener las posibles soluciones de una ecuación diferencial
ad
186
6.1. SOLUCIONES ANALÍTICAS
a r
in
(c) (d)
m
Figura 6.4: Isoclinas para los ejemplos (c) y (d)
eli
donde n es una constante y t > 0.
Las funciones homogéneas indican un comportamiento particular cuando cambiamos la escala de sus
variables. Se utilizan con bastante frecuencia en hidrodinámica y termodinámica.
Por ejemplo, la siguiente función:
Pr
f (x, y) = x2 + y 2 ln
y
x
es una función homogénea de grado 2, ya que:
ty h y i
f (tx, ty) = (tx)2 + (ty)2 ln ⇒ f (tx, ty) = t2 x2 + y 2 ln = t2 f (x, y) .
tx x
or
Teorema: Si los coeficientes P (x, y) y Q(x, y) de una ecuación diferencial son homogéneos de orden n,
entonces la siguiente sustitución: y = ux, convertirá la ecuación diferencial en una ecuación diferencial
donde las variables son separables.
Bo
Demostración Como P (x, y) y Q(x, y) son funciones homogéneas de orden n (hipótesis) entonces:
187
6.1. SOLUCIONES ANALÍTICAS
r
donde x 6= 0 y f (u) + ug(u) 6= 0. J
a
El lector, debe demostrar que la sustitución x = uy también convierte la ecuación diferencial en una de
variables separables.
Nótese que exigir que Q(x, y) y P (x, y) sean funciones homogéneas de grado n, equivale a imponer que
in
dy(x) P (x, y) y y
= ≡F donde F es homogéna de grado 0 ,
dx Q(x, y) x x
m
con lo cual estamos diciendo que si los coeficientes Q(x, y) y P (x, y) son funciones homogéneas de grado n,
la ecuación diferencial es invariante de escala.
Consideremos la siguiente ecuación diferencial no linea
eli
p
xy 0 = x2 − y 2 + y
Esto es
p p
P (tx, ty) = (tx)2 − (ty)2 + ty = t x2 − y 2 + y
p
x2 − y 2 + y dx − xdy = 0 ⇒
Pr
Q(tx, ty) = −tx
los coeficientes son funciones homogéneas de grado 1 y por lo tanto al hacer y = ux tendremos
Z Z
p p dx du
x 1 − u2 + u dx − x(udx + xdu) = 0 ⇒ ± 1 − u2 dx − xdu = 0 ⇒ =± √ .
x
or
1 − u2
Notemos que: u 6= ±1 y x 6= 0. Integramos y, finalmente, llegamos a
y y
ln |x| = arcsen(u) + C ⇒ ln |x| = arcsen +C, para < 1 con x > 0
ad
x x
y y
− ln | − x| = arcsen(u) + C ⇒ − ln | − x| = arcsen +C, para < 1 con x < 0 .
x x
y
En este caso tenemos que u = = 1 ⇒ y = ±x también es solución.
rr
ción Q(x, y) y P (x, y) no son funciones homogéneas del mismo grado y se busca una transformación que
188
6.1. SOLUCIONES ANALÍTICAS
r
y el cambio de variable que se impone es y = vxm . Con lo cual habrá que estudiar si es posible “balancear”
el orden de las dimensionalidades de variables y funciones.
a
Tratemos con un ejemplo para ilustrar las ecuaciones isóbaras. Consideremos la ecuación
2
in
2xyy 0 + y 2 +
= 0 , entonces,
x
2 x→x ↔ dx = dx
y2 + dx + 2xydy = 0 ⇒
x y → z m ↔ dy = mz m−1 dz
m
En la contabilidad de los exponentes de x aporta un peso de 1 mientras que y aporta un peso de m. La
intención es balancear los términos para que la ecuación sea homogénea de grado n. Esto es
2
eli
z 2m + dx + 2xz m mz m−1 dz = 0
x
2 1 v
2m
z + dx + 2mxz −1 z 2m dz = 0 ⇒ m = − ⇒ y = vxm ⇒ y = √
x 2 x
Pr
El exponente del primer término es 2m, del segundo −1 del tercero 2m. Al balancear todos los exponentes
tendremos 2m = −1, con lo cual m = − 12 .
v2
2 v
dv 1 v dx
+ dx + 2x √√ − √ dx = 0 ⇒ vdv + =0
x x xx 2x x x
√
entonces al integrar y devolver el cambio v = y x tendremos
or
v2
Z Z
dx 1
dv v + =0 ⇒ + ln |x| = c ⇒ y 2 x + ln |x| = c .
x 2 2
ad
dy(x)
+ f (x)y(x) = g(x) ,
dx
al multiplicar a ambos lados por µ(x) resulta
Bo
dy(x)
µ(x) + µ(x)f (x)y(x) = µ(x)g(x) ,
dx
189
6.1. SOLUCIONES ANALÍTICAS
r
Con lo cual hemos demostrado que para una ecuación lineal de primer orden, siempre es posible encontrar
un factor integrador µ(x) tal que la ecuación diferencial pueda ser expresada como una derivada total del
a
factor integrador y la función incógnita.
in
Z
dy(x) d 1
+ f (x)y(x) = g(x) ⇒ [µ(x)y(x)] = µ(x)g(x) ⇒ y(x) = dx µ(x)g(x) + C
dx dx µ(x)
R
dx f (x)
donde µ(x) = e .
m
Definición: Una ecuación diferencial de la forma
eli
se llama una ecuación diferencial exacta si esta es el diferencial total de alguna función f (x, y), es decir,
si:
∂ ∂
P (x, y) = f (x, y) y Q(x, y) = f (x, y) .
∂x ∂y
Pr
Teorema: Una condición necesaria y suficiente para que la ecuación diferencial
P (x, y) = Q(x, y) ,
∂y ∂x
donde las funciones: P (x, y), Q(x, y), ∂y P (x, y), ∂x Q(x, y) deben existir y ser contı́nuas.
ad
Demostración Vamos a probar que si: P (x, y)dx + Q(x, y)dy = 0, entonces: ∂y P (x, y) = ∂x Q(x, y).
Como la ecuación es exacta, por la definición anterior se tiene que:
∂ ∂
P (x, y) = f (x, y) ∧ Q(x, y) = f (x, y) ,
∂x ∂y
rr
y como suponemos que P (x, y), Q(x, y), ∂y P (x, y), ∂x Q(x, y) existen y son contı́nuas:
∂ ∂ ∂ ∂
f (x, y) ∧ f (x, y) ∃ ,
Bo
∂y ∂x ∂x ∂y
y como:
∂ ∂ ∂ ∂
f (x, y) = f (x, y) ,
∂y ∂x ∂x ∂y
190
6.1. SOLUCIONES ANALÍTICAS
? ∂f (x, y) ∂f (x, y)
d [f (x, y)] = 0 ⇔ P (x, y)dx + Q(x, y)dy = 0 ⇒ d [f (x, y)] = dx + dy = 0
r
∂x ∂y
donde f (x, y) será la función a determinar.
a
Entonces tendremos que la condición necesaria y suficiente para que una ecuación diferencial sea exacta
es
in
∂f (x, y)
P (x, y) ⇔
∂x ∂ 2 f (x, y) ∂ 2 f (x, y)
∂P (x, y) ∂Q(x, y)
⇒ ≡ ⇔ ≡ ⇒ d [f (x, y)] = 0
∂f (x, y) ∂y∂x ∂x∂y ∂y ∂x
m
Q(x, y) ⇔
∂y
Si esto se cumple entonces, podremos encontrar la función f (x, y) integrando respecto a cualquiera de
las variables (ahora consideradas independientes ambas)
eli
Z x Z x
∂f (x, y) ∂f (x, y) ∂ dS(y)
P (x, y) ≡ ⇔ f (x, y) = P (u, y)du + S(y) ⇒ Q(x, y) = = P (u, y)du +
∂x x0 ∂y ∂y x0 dy
entonces
Z x
∂P (u, y) dS(y)
Pr Z x
∂Q(v, y) dS(y) dS(y)
v=x
Q(x, y) = du + ≡ dv + = Q(v, y)|v=x0 +
x0 ∂y dy x0 ∂v dy dy
con lo cual nos queda finalmente otra ecuación diferencial para encontrar S(y) y con ella f (x, y). Esto es
Z y Z x Z y
dS(y)
= Q(x0 , y) ⇒ S(y) = Q(x0 , w)dw ⇒ f (x, y) = P (u, y)du + Q(x0 , w)dw = C . J
or
dy y0 x0 y0
Hay que hacer notar que los segmentos de lı́nea que unen el punto (x0 , y0 ) con los puntos genéricos
(x, y0 ) ∧ (x0 , y) pertenecen al entorno de (x0 , y0 ). Este tipo de entornos también se denomina multiplemente
conexo.
ad
Notemos que además de demostrar el teorema también encontramos una familia 1-paramétrica de solu-
ciones: Z x Z y
f (x, y) = P (u, y)du + Q(x0 , w)dw = C .
x0 y0
[xsen(y) − y 2 ]y 0 = cos(y) .
Entonces:
Bo
P (x, y) = cos(y)
y 0 xsen(y) − y 2 = cos(y) ⇔ cos(y) dx − xsen(y) − y 2 dy = 0 ⇒
Q(x, y) = − xsen(y) − y 2
191
6.1. SOLUCIONES ANALÍTICAS
r
6.1.9. Ecuaciones diferenciales lineales de orden 1
a
Una ecuación diferencial lineal de orden 1
in
dy(x)
+ f (x)y(x) = g(x) ,
dx
no es exacta, ya que:
m
P (x, y) = f (x)y(x) − g(x)
∂Q ∂P
[f (x)y(x) − g(x)] dx + dy = 0 ⇒ ⇒ 6= .
∂x ∂y
Q(x, y) = 1
eli
pero como ya vimos, si µ(x) es un factor integrador, entonces:
P (x, y) = µ(x) [f (x)y(x) − g(x)]
µ(x) [f (x)y(x) − g(x)] dx + µ(x)dy = 0 ⇒
Pr
Q(x, y) = µ(x)
y por lo tanto
Z Z Z
dµ(x) dµ(x)
= f (x)dx ⇒ = f (x)dx ⇒ ln |µ(x)| = f (x)dx ,
µ(x) µ(x)
es decir, R
f (x)dx
ad
µ(x) = e .
Esto significa que para las ecuaciones lineales de orden 1 se tiene
R
f (x)dx
R R P (x, y) = e [f (x)y(x) − g(x)]
e f (x)dx [f (x)y(x) − g(x)] dx + e f (x)dx dy = 0 ⇒
rr
R
f (x)dx
Q(x, y) = e
∂P h R R i R
⇒ ∂y e f (x)dx f (x)y(x) − e f (x)dx g(x) = f (x)e f (x)dx
∂y
∂Q h R i R
⇒ ∂x e f (x)dx = f (x)e f (x)dx
∂x
192
6.1. SOLUCIONES ANALÍTICAS
Volviendo a la ecuación original multiplicada por el factor integrador que la convierte en exacta, podemos
escribir:
R R R
f (x)dx f (x)dx f (x)dx
e f (x)y(x)dx − e g(x)dx + e dy = 0
R R R
f (x)dx f (x)dx f (x)dx
e dy + e f (x)y(x)dx = e g(x)dx
h R i R
d y(x)e f (x)dx = e f (x)dx
g(x)dx
R
Z R
f (x)dx
y(x)e = e f (x)dx g(x)dx + C .
r
Llegamos entonces a la fórmula que nos dará la solución general para cualquier ecuación diferencial lineal
a
de orden 1. Z R
1 C
y(x) = R e f (x)dx g(x)dx + R f (x)dx . (6.3)
in
e f (x)dx e
En realidad, lo anterior se puede formalizar con el siguiente teorema para el problema de valores iniciales.
Consultar la bibliografı́a recomendada para estudiar su demostración
m
Teorema: Sean las funciones F y ∂y F funciones continuas en algún intervalo a < x < b y c < y < d que
contienen al punto (x0 , y0 ). Entonces, en algún intervalo x0 − < x < x0 + contenido en a < x < b,
existe una única solución y = y(x) del problema de valores iniciales:
dy(x)
eli
= F (x, y) , con y(x0 ) = y0 .
dx
Por ejemplo, se la ecuación
2
y 0 − 2xy = ex .
2
Pr
Aquı́: f (x) = −2x y g(x) = ex . Por lo tanto, el factor integrador es:
2
R R
−2xdx
µ(x) = e f (x)dx
=e = e−x .
y la solución viene a ser:
Z
1 2 2 C 2
y(x) = e−x ex dx + = ex (x + C) .
e−x2 e−x2
or
la idea a ecuaciones que no sean, necesariamente lineales. Ası́ para una ecuación diferencial que pueda ser
escrita como
?
d [f (x, y)] = 0 ⇔ µ(x, y)Q(x, y)dy + µ(x, y)P (x, y)dx = 0
es decir
∂f (x, y) ∂f (x, y)
rr
193
6.1. SOLUCIONES ANALÍTICAS
y, obviamente, esta condición de integrabilidad dependerá del µ(x, y) que propongamos. Veamos algunos
casos:
1. Si µ(x, y) = µ(x) entonces la condición es
∂P (x, y) dµ(x) ∂Q(x, y) 1 dµ(x) 1 ∂P (x, y) ∂Q(x, y)
µ(x) = Q(x, y) + µ(x) ⇒ = −
∂y dx ∂x µ(x) dx Q(x, y) ∂y ∂x
con lo cual, si se cumple que
r
1 ∂P (x, y) ∂Q(x, y) 1 dµ(x) R
− = f (x) = ⇒ µ(x) = e dx f (x)
Q(x, y) ∂y ∂x µ(x) dx
a
podremos determinar el factor integrador.
in
Una vez identificado procedemos a integrar, formalmente f (x, y)
Z y Z y
∂f (x, y) ∂
f (x, y) = µ(x) Q(x, u)du + S(x) ⇒ = µ(x)P (x, y) ≡ µ(x) Q(x, u)du + S(x)
y0 ∂x ∂x y0
m
y finalmente, una vez más
Z y Z y
∂µ(x)Q(x, u) dS(x) ∂µ(x, u)P (x, u) dS(x)
µ(x)P (x, y) = du + ⇒ µ(x)P (x, y) = du +
y0 ∂x dx y0 ∂u dx
eli
con lo cual
Z x Z y Z x
S(x) = µ(u, y0 )P (u, y0 )du ⇒ f (x, y) = µ(x) Q(x, u)du + µ(u, y0 )P (u, y0 )du + C .
x0 y0 x0
Pr
Por ejemplo, consideremos la siguiente ecuación diferencial
x
[e − sen(y)] dx + cos(y)dy = 0 ⇒ ⇒ = 0 6= = − cos(y) .
∂x ∂y
Q(x, y) = cos(y)
1 ∂P (x, y) ∂Q(x, y) − cos(y) − 0
f (x) = − = = −1 ,
Q(x, y) ∂y ∂x cos(y)
entonces, el factor integrante es exacta:
R R
µ(x) = e dx f (x)
= e− dx
= e−x .
rr
−x −x ∂Q ∂P
e x
[e − sen(y)] dx+e cos(y)dy = 0 ⇒ ⇒ = = −e−x cos(y) .
−x ∂x ∂y
Q(x, y) = e cos(y)
194
6.1. SOLUCIONES ANALÍTICAS
r
y podremos determinar el factor integrador.
a
Es claro que otras cambios de variables apropiados, como µ = µ(z) donde z = xy, pueden hacer posible
encontrar un factor integrante.
in
6.1.11. Ecuación de Bernoulli
La ecuación de Bernoulli, formulada por James Bernoulli2 y resuelta por su hermano Johann Bernoulli,
m
se caracteriza por tener la forma:
dy(x)
+ y(x)f (x) = y(x)n g(x) . (6.4)
dx
Es fácil darse cuenta de que la ecuación de Bernoulli se reduce a una ecuación con variables separadas
eli
cuando n = 0 y cuando n = 1 se trata de una ecuación de la forma:
dy(x)
= y(x) [g(x) − f (x)] .
dx
Pr
la cual también es de variables separables. Entonces, es la presencia del término y n lo que hace que la
ecuación no sea lineal.
Leibniz, en 1696, indicó que el cambio de variable z = y 1−n convierte la ecuación (6.4) en una ecuación
lineal.
Consideremos entonces n 6= 1, si multiplicamos ambos lados de (6.4) por (1 − n)y −n resulta:
−n dy
or
dx
La ecuación (6.5) es una ecuación diferencial lineal, la cual ya sabemos resolver.
Ejemplo, sea la ecuación:
x
Bo
y 0 + xy = 3 , con y 6= 0 .
y
2 James Bernoulli (1654-1705), fue un matemático y cientı́fico suizo, formaba parte de la gran familia Bernoulli. En 1690 se
convirtió en la primera persona en desarrollar la técnica para resolver ecuaciones diferenciales separables.
195
6.1. SOLUCIONES ANALÍTICAS
r
dz
+ 4xz = 4x ,
dx
a
la cual es una ecuación diferencial lineal con factor integrador
in
2
R R
dx f (x) 4xdx
µ(x) = e =e = e2x ,
m
Z
1 2 C 1 h 2i C 2
y(x) = 2x2 e2x (4x)dx + 2x2 = 2x2 e2x + 2x2 = 1 + Ce−2x .
e e e e
eli
La ecuación de Riccati3 es conocida como una ecuación diferencial no lineal que tiene la siguiente forma:
dy(x)
= A(x) + B(x)y(x) + C(x)y(x)2 , C(x) 6= 0 . (6.6)
dx
Pr
Esta ecuación fue estudiada por muchos matemáticos, entre ellos los propios integrantes de la familia
Bernoulli. Daniel Bernoulli, hijo de John y sobrino de James Bernoulli, publicó su solución en 1724, luego
de mantenerla oculta por mucho tiempo en modo de anagrama.
Podemos seguir las recomendaciones de Euler4 quien propuso que una sustitución del tipo:
1
y(x) = y1 (x) + , (6.7)
z(x)
or
donde y1 (x) es una solución particular de (6.6), convierte la ecuación de Riccati en una ecuación lineal
para z(x). Al sustituir (6.7) en (6.6) resulta lo siguiente:
ad
2
dy1 1 dz 1 1
− 2 = A(x) + B(x) y1 + + C(x) y1 +
dx z dx z z
dy1 dz
z2 = A(x) + B(x)y1 + C(x)y12 z 2 + [2 C(x)y1 + B(x)] z + C(x)
−
dx dx
dz dy1 2
rr
2
− = A(x) + B(x)y1 + C(x)y1 − z + [2 C(x)y1 + B(x)] z + C(x)
dx dx
| {z }
=0
3 El conde Jacopo Francesco Riccati (1676-1754) fue un matemático veneciano, que estudió detalladamente la hidrodinámica
Bo
Rusia. Fue un reputado matemático y fı́sico, y es considerado uno de los más grandes matemáticos de la historia.
196
6.1. SOLUCIONES ANALÍTICAS
por lo tanto:
dz
= − [2 C(x)y1 + B(x)] z − C(x) . (6.8)
dx
También podemos hacer la siguiente sustitución
donde y1 (x) es una solución particular de (6.6). Esto es, al sustituir (6.9) en (6.6) resulta:
r
dy1 du
= A(x) + B(x) [y1 + u] + C(x) y12 + 2y1 u + u2
+
dx dx
a
dy1 du
+ = A(x) + B(x)y1 + C(x)y12 + [B(x) + 2C(x)y1 ] u + C(x)u2
dx dx
in
du
= [B(x) + 2C(x)y1 ] u + C(x)u2 ,
dx
es decir:
du
m
− [B(x) + 2C(x)y1 ] u = C(x)u2 , (6.10)
dx
que no es más que la ecuación de Bernoulli (6.4) con f (x) = − [B(x) + 2C(x)y1 ], g(x) = C(x) y n = 2.
Como un ejemplo, resolvamos la siguiente ecuación de Riccati
eli
2
y0 = y2 − ,
x2
conociendo la solución particular y1 = 1/x.
En lugar de hacer todo el desarrollo anterior, podemos reconocer de manera fácil que:
Pr
2
A(x) = − , B(x) = 0 , C(x) = 1 .
x2
Tenemos entonces dos posibilidades: la primera es utilizar la ecuación lineal (6.8)
dz(x) 2 1 c
=− z(x) − 1 ⇒ z(x) = − x + 2 .
or
dx x 3 x
1 1 2 x3 + 3 c
ad
y(x) = + =− .
x − 31 x + c
x2
x (x3 − 3 c)
3x2
du(x) 2
rr
y en función de y(x)
1 3x2 2 x3 + 3 c
Bo
y(x) = − 3 =− .
x x − 3c x (x3 − 3 c)
197
6.1. SOLUCIONES ANALÍTICAS
y (Axp y q + Bxr y s )
y0 = − ,
x (Cxp y q + Dxr y s )
r
y (Axp y q + Bxr y s ) dx + x (Cxp y q + Dxr y s ) dy = 0 .
a
Y se puede demostrar que el factor integrante será de la forma
in
µ(x, y) = xa y b ,
m
y 2x2 y 3 + 3 dx + x x2 y 3 − 1 dy = 0 ,
entonces:
P (x, y) = y 2x2 y 3 + 3
∂Q ∂P
⇒ = 3x2 y 3 − 1 6= = 8x2 y 3 + 3
eli
∂x ∂y
Q(x, y) = x x2 y 3 − 1
La ecuación no es exacta.
Si µ(x, y) = xa y b es un factor integrante, resulta que:
Pr
xa y b 2x2 y 4 + 3y dx + xa y b x3 y 3 − x dy = 0
198
6.1. SOLUCIONES ANALÍTICAS
F[y 0 (x)] = 0
F[x, y 0 (x)] = 0
r
0
F[x, y(x), y (x)] = 0 ⇒
F[y(x), y 0 (x)] = 0
a
F[x, y(x), y 0 (x)] = 0
in
Veamos todos estos casos:
1. F[y 0 (x)] = 0
Como F[y 0 (x)] = 0 no contiene ni a x ni a y(x), entonces sı́ existe al menos una raı́z κi de la ecuación
m
F[y 0 (x)] = 0 entonces
y(x) − C
y 0 = κi ⇒ y(x) = κi x + C ⇒ κi = .
x
eli
Por lo tanto
y(x) − C
F = 0,
x
es la integral de la ecuación diferencial.
Pr
Ejemplo: la solución de la ecuación
(y 0 )7 − (y 0 )5 + y 0 + 3 = 0 ,
es 7 5
y(x) − C y(x) − C y(x) − C
− + +3=0
or
x x x
2. F[x, y 0 (x)] = 0
Si se puede despejar x, entones podemos hacer los siguientes cambios de variable
ad
Ejemplo: la ecuación
(y 0 )3 − y 0 = 1 + x .
Hacemos entonces los siguientes cambios de variables
Bo
x = t3 − t − 1 dx = (3t2 − 1) dt
⇒ ⇒ dy = t(3t2 − 1) dt
0
y = t dy = t dx
199
6.1. SOLUCIONES ANALÍTICAS
integrando:
t2
R
t(3t2 − 1) dt
R
dy = 2
y(x) = 4 (3t − 2) + C
⇒
x = t3 − t − 1 x = t3 − t − 1
r
y = z dy = z dx
df dz df dz
⇒ ⇒ z(x) = ⇒ dx =
dz dx dz z
a
y = f (z) dy = f 0 (z) z 0 dx
in
df dz
R
x = dz z +C
y = f (z)
m
Ejemplo: la ecuación
y = a(y 0 )2 + b(y 0 )3 , a y b = constantes
Tenemos entonces:
eli
0
y = z
dz
⇒ dx = (2az + 3bz 2 )
z
y = az 2 + bz 3
la solución paramétrica es :
x =
R
Pr
(2a + 3bz) dz + C
x = 2az + 23 bz 2 + C
⇒ .
y = az 2 + bz 3 y = az 2 + bz 3
En el caso de que queramos obtener y(x) podemos intentar despejar z de la primera ecuación, en
este caso esto es posible
or
1 h p i
z(x) = − 2 a ± 4 a2 + 6 b(x − C) ,
3b
y sustituir en la segunda:
ad
1 p 2 p
y(x) = 2 a ± 4 a2 + 6 b(x − C) a ∓ 4 a2 + 6 b(x − C) .
27b2
b) No se puede despejar y 0 ni y de F[y(x), y 0 (x)] = 0, pero puede existir un parámetro tal que
dy = f 0 (t) dt
y = f (t) f 0 (t)
rr
⇒ ⇒ f 0 (t) dt = g(t) dx ⇒ dt = dx
0 g(t)
y = g(t) dy = g(t) dx
La solución paramétrica es entonces la siguiente:
Bo
R f 0 (t)
g(t) dt = x + C
.
y = f (t)
200
6.1. SOLUCIONES ANALÍTICAS
Ejemplo: la ecuación
y 2/3 + (y 0 )2/3 = 1 ,
tenemos entonces:
y = cos3 (t)
3 cos2 (t)sen(t)
⇒ − dt = dx
sen3 (t)
y0 = sen3 (t)
Por lo tanto
r
−3 cot2 (t)dt =
R
x+C x = 3 [cot(t) + t] + C
⇒
a
y = cos3 (t) y = cos3 (t)
in
4. Caso: F[x, y(x), y 0 (x)] = 0
m
y = G(x, y 0 ) = G(x, z) ⇒ dy = ∂x G dx + ∂z G dz = z dx ,
por lo tanto:
φ(x, z, C) = 0
eli
dz
z = ∂x G + ∂z G ⇒
dx
y = G(x, z)
por lo tanto:
φ(y, z, C) = 0
dy = z [∂y H dy + ∂z H dz] ⇒
x = H(x, z)
ad
En cuanto a la ecuación de Clairaut podemos notar que al reemplazar y 0 por el parámetro m, lo que
se obtiene es la ecuación de la lı́nea recta
y = mx + f (m) .
201
6.1. SOLUCIONES ANALÍTICAS
r
= xz 2 − z −1 1
y dy = z 2 dx + 2xz + dz
z2
a
es decir:
1 dz
z = z 2 + 2xz + 2
in
z dx
1 dz
1 = z + 2x + 3
z dx
dx dx 1
m
= z + 2x + 3
dz dz z
dx 1
(z − 1) + 2x = − 3
dz z
dx 2x 1
eli
+ = − 3 .
dz z−1 z (z − 1)
Esta última ecuación es una ecuación diferencial lineal, por lo tanto, la sabemos resolver
Z R
1 C
e f (z)dz g(z)dz + R f (z)dz
x(z) =
e
R
f
Pr
(z)dz e
Z R
1 2x
dz 1 C
= R 2 e z−1 − 3 dz + R 2x dz
e z−1 dz z (z − 1) e z−1
z−1
Z
1 C
= − dz +
(z − 1)2 z3 (z − 1)2
2 Cz 2 + 2 z − 1
or
= 2
2 (z − 1) z 2
La solución, en forma paramétrica, a la ecuación diferencial es entonces
ad
2 z(Cz + 1) − 1
x(z) =
2
2 (z − 1) z 2 .
2 −1
y(x) = xz − z
rr
problema de encontrar una solución particular puede llegar a ser complejo. Sin embargo, en algunos casos,
existe un método para encontrar soluciones particulares de una ecuación diferencial de primer orden, este
método tiene que ver con el concepto de envolvente de una familia de curvas. Primero veamos que significa
una envolvente de manera conceptual
202
6.1. SOLUCIONES ANALÍTICAS
Una curva Γ se denomina una envolvente de una familia de curvas f (x, y, C) = 0 si se cumplen las
siguientes dos propiedades
1. En cada punto de la envolvente existe un único miembro de la familia tangente al punto.
2. Todo miembro de la familia de curvas es tangente a la envolvente en un punto distinto de la envolvente.
El siguiente teorema nos suministra una condición suficiente para que exista una envolvente de la familia
de curvas f (x, y, C) = 0.
r
Teorema: Si la función f (x, y, C) = 0 es una función dos veces diferenciable para un conjunto de valores
x, y, C, y si para este conjunto de valores se cumple que:
a
f (x, y, C) = 0 , ∂c f (x, y, C) = 0 ,
in
∂x f ∂ y f
6= 0 , ∂cc f 6= 0 ,
∂cx f ∂cy f
m
entonces, la familia de curvas f (x, y, C) = 0 tiene una envolvente cuya ecuación paramétrica estará
dada por:
f (x, y, C) = 0
eli
∂c f (x, y, C) = 0
y = cos(x + C) ,
Pr
posee una envolvente.
Tenemos entonces:
sen(x + C) 1
= − cos(x + C) , ∂cc f = cos(x + C) ,
cos(x + C) 0
La función cos(x + C) es diferente de cero si x + C 6= π/2, por lo tanto, todos los valores que excluyan a
ad
sen(x + C) = 0
rr
y 2 = cos2 (x + C) + sen2 (x + C) = 1 ⇒ y = ±1 .
203
6.1. SOLUCIONES ANALÍTICAS
Envolventes y soluciones
Sea f (x, y, C) = 0 una familia 1-paramétrica de soluciones a la ecuación diferencial y 0 = f (x, y). Para
esta familia puede existir o no una envolvente, si la envolvente existe, entonces se tiene que en cada punto
de la envolvente hay un miembro de la familia de soluciones tangente a la envolvente. Esto significa que la
curva envolvente en cada uno de sus puntos tiene la misma pendiente y 0 que las curvas integrales, y por lo
tanto, cada envolvente satisface la ecuación diferencial y 0 = f (x, y).
Podemos decir entonces, que una envolvente de una familia de soluciones de y 0 = f (x, y) es también
una solución de la ecuación diferencial. La inversa de esta afirmación no tiene porque ser verdadera, es
r
decir, una solución particular, que no sea obtenida a partir de la familia 1-paramétrica de soluciones, no es
necesariamente una envolvente.
a
Por ejemplo, utilizando el método de las envolventes podemos encontrar una solución particular de
1
y 0 = (1 − y 2 ) 2 ,
in
que no sea obtenible de la familia de soluciones y = cos(x + C).
Como vimos en el ejemplo anterior, y = 1 y y = −1 son envolventes de y = cos(x + C). Por lo tanto,
m
tenemos dos soluciones particulares a la ecuación diferencial: y = 1 y y = −1.
6.1.16. Ejemplos
eli
1. Consideremos la siguiente ecuación diferencial no lineal
√
1 − x2 p Z p Z
0
p p
y =− √ ⇔ 1 − x2 dx + 5 − y dy = 0 ⇒ dx 1− x2 + dy 5−y =0
5−y
2.
2x + 3y − 1 1 0
y0 = − ⇒ λ = 2, z = 2x + 3y − 1 ⇒ dz = 2dx + 3dy ⇒ y 0 = (z − 2)
4x + 6y + 2 3
con lo cual
ad
Z Z
1 0 z dz z+8 2z + 4
(z − 2) = − ⇒ = ⇒ dz = dx ⇒ 2z − 12 ln |z + 8| = x + C ,
3 2z + 4 dx 2z + 4 z+8
por lo tanto, la solución será:
rr
4x + 6y − 2 − 12 ln |2x + 3y + 7| = x + C ⇒ x + 2y − 4 ln |2x + 3y + 7| = C̃ ,
(x + y)y 0 − 2x + y − 1 = 0
204
6.1. SOLUCIONES ANALÍTICAS
la cual corresponde al caso en los cuales los coeficientes de la ecuación Q(x, y) y P (x, y) son funciones
inhomogéneas. Tal y como hemos visto un cambio de variable lo convierte en homogéneo. De nuevo,
hay que tener cuidado con el signo + de: P dx + Qdy = 0.
u = 2x − y + 1 du = 2dx − dy dx = 13 (du − dv)
(2x − y + 1) dx−(x + y) dy = 0 ⇒ ⇒ ⇒
v = −(x + y) dv = −dx − dy dy = − 31 (du + 2dv)
r
(u + v)du − (u − 2v)dv = 0 ,
a
y ahora haciendo el cambio de variables u = tv con lo cual du = tdv + vdt
in
Z Z
dv t+1
(tv + v)(tdv + vdt) − (tv − 2v)dv = 0 ⇒ (t2 + 2)dv + v(t + 1)dt = 0 ⇒ + dt = 0
v t2 + 2
e integrando tendremos que
m
√ √ ! √ !
1 2 2 2 √ 2
ln |v| + ln |t + 2| + arctan t = C ⇒ ln |v 2 (t2 + 2)| + 2 arctan t = C̃ ,
2 2 2 2
eli
para v 6= 0, y ahora
√
u 2x − y + 1 2 2
√ 2 2x − y + 1
t= = ⇒ ln (x + y) + 2(2x − y + 1) + 2 arctan =C,
v −(x + y) 2 −(x + y)
Pr
para x + y 6= 0. La Figura 6.7 ilustra esta familia de soluciones.
or
ad
rr
Bo
Figura 6.5: Solución gráfica para la ecuación diferencial (x + y)y 0 − 2x + y − 1 = 0. Las curvas de diferentes colores
indican soluciones particulares: y(0) = 7; y(0) = 5; y(0) = 2; y(0) = −7; y(0) = −5; y(0) = −2.
205
6.1. SOLUCIONES ANALÍTICAS
x2 y + y 3 y 0 + x3 + y 2 x = 0 .
Por lo tanto:
P (x, y) = x3 + y 2 x
∂Q(x, y) ∂P (x, y)
x3 + y 2 x dx + x2 y + y 3
dy ⇒ ⇒ = = 2yx
∂x ∂y
Q(x, y) = x2 y + y 3
r
la ecuación diferencial es exacta, y otra vez:
a
Z x Z y
3 2
x2 w + w3 dw = C ,
f (x, y) = u + y u du +
in
x0 y0
= x4 + 2x2 y 2 + y 4 = C ,
2
= x2 + y 2 = C .
m
5. Dada la siguiente ecuación diferencial
1 + x2 y 0 + xy = 0 .
eli
Esta ecuación no es exacta, ya que:
P (x, y) = xy
∂Q ∂P
2
(xy)dx + 1 + x dy = 0 ⇒ ⇒ = 2x 6= = x.
2 ∂x ∂y
Q(x, y) = 1+x
Pr
Podemos ver que el arreglo:
1 ∂Q(x, y) ∂P (x, y) 2x − x 1
− = = = f (y) ,
P (x, y) ∂x ∂y xy y
R dy
µ(y) = e y = eln(y) = y .
Por lo tanto, la ecuación es exacta:
P (x, y) = xy 2
ad
2 2
∂Q ∂P
(xy )dx + y + yx dy = 0 ⇒ ⇒ = = 2xy .
∂x ∂y
Q(x, y) = y + yx2
6. Otros métodos
Muchas veces, la solución de una ecuación diferencial se puede obtener utilizando más de un método.
Si fallan los métodos vistos anteriormente entonces podemos utilizar un poco de ingenio matemático.
Veamos los siguientes ejemplos
Bo
a) Resolvamos la ecuación
xy 0 = y − y 2 − x2 ,
206
6.1. SOLUCIONES ANALÍTICAS
ydx − xdy − y 2 + x2 dx
= 0
r
y2
ydx − xdy
= + 1 dx , x 6= 0
x2 x2
a
hyi y 2
−d = + 1 dx
x x
in
y
d
− y 2 x = dx
x +1
m
integrando:
d xy
Z Z y
− 2 = dx ⇒ − arc tg = x + C ⇒ y(x) = −x tan(x + c) , x 6= 0 .
y x
+1
eli
x
b) Resolver
32
y 0 = −2x + 2 x2 + y − 1 .
Podemos hacer la siguiente sustitución:
Pr
dy dz
z = x2 + y − 1 ⇒ = − 2x
dx dx
Por lo tanto
dz 2 dz 2
− 2x = −2x + 2z 3 ⇒ = 2z 3
dx dx
or
1 3
y(x) = 1 − x2 + (2x + C) .
27
Bo
Es bueno acotar y queda como ejercicio, demostrar que y(x) = 1 − x2 también es una solución.
207
6.1. SOLUCIONES ANALÍTICAS
c) Resolver
2 cos(y)y 0 + sen(y) = x2 csc(y) , y 6= 0 .
Podemos verificar que los métodos anteriores no funcionan, pero si multiplicamos por sen(y):
r
Esta es una ecuación lineal para sen2 (y), si hacemos z = sen2 (y) tenemos:
a
dz
+ z = x2
dx
in
donde el fácil ver que el factor integrador es µ(x) = ex . Por lo tanto:
Z
1 C 1 C
x2 ex dx + x = x 2 − 2 x + x2 ex + x = 2 − 2 x + x2 + Ce−x ,
z= x
m
e e e e
la solución es entonces:
h p i
y(x) = arcsen ± 2 − 2 x + x2 + Ce−x , y 6= 0 .
eli
7. Consideremos la ecuación
a1
y = xy 0 + , donde a es una constante.
2 y0
Pr
Como resolvimos con anterioridad y = G(x, y 0 ). Entonces:
0
y = z dy = z dx a
⇒ ⇒ z dx = z dx + x − 2 dz
a 2z
dy = z dx + x − 2za2 dz
y = xz + 2z
or
r
a dz a a
0 = x− 2 ⇒ x= ⇒ z=±
2z dx 2z 2 2x
r r
a a 2x
y(x) = ±x ± .
2x 2 a
a
Y la familia 1-paramétrica de soluciones será: y(x) = xC + .
Bo
2C
8. Encontrar las envolventes de
y 2 = 2xC − C 2 .
208
6.1. SOLUCIONES ANALÍTICAS
r
2
y − 2xC + C 2 = 0 y = x
⇒ y 2 − x2 = 0 ⇒
a
x = C y = −x
in
9. Encontrar una solución particular de
9(y 0 )2 (2 − y 2 ) = 4(3 − y) ,
m
no obtenible de su solución (x − C)2 = 3y 2 − y 3 .
Veamos si esta familia de soluciones tiene envolventes
eli
Por otro lado,
2(x − C) −6y + 3y 2
= −6y(2 − y) 6= 0 ∂cc f = 2 6= 0 ,
2 0
Pr
La solución y = 0, no se puede considerar ya que el determinante anterior tiene que ser diferente de
cero. Por lo tanto, una solución particular es la recta y = 3.
ad
0
y = z dy = z dx
⇒ ⇒ z dx = z dx + (x + 2z) dz
y = xz + z 2 dy = z dx + (x + 2z) dz
Bo
es decir: x dz
0= +2 ⇒ x = −2z
z dx
209
6.1. SOLUCIONES ANALÍTICAS
Esto nos permite encontrar una solución particular de la ecuación diferencial, ya que
x x2
z=− ⇒ y = xz + z 2 ⇒ y(x) = − .
2 4
f (x, y, C) = y − xC − C 2 ⇒ ∂c [y − xC − C 2 ] = −x − 2C = 0 ⇒ x = −2C
r
Por otro lado,
a
−C 1
= 1 6= 0 ∂cc f = −2 6= 0 ,
in
−1 0
La envolvente tiene entonces su forma paramétrica dada por
y − xC − C 2 = 0 x2 x2
m
⇒ y+ = 0 ⇒ y(x) = − .
4 4
x = −2C
eli
6.1.18. Ejercicios
1. Pruebe que p
y0
p
1 − x2 = x 1−y,
Pr
tiene como solución:
p p
1 − x2 − 2 1−y =C para − 1 < x < 1 ∧ y < 1.
p
(a) y 0 = x + y , |x| < 5 . (b) y 0 = x2 + y 2 , |x| < 1 . (c) y 0 = 1 + xy , |x| < 5 .
3. Muestre que:
ad
√
x
a) f (x, y) = y sen es homogénea de grado 12 .
y
b) f (x, y) = ey/x + tan xy es homogénea de grado 0.
rr
5. Resuelva la ecuación
sen(x) π
xy 0 + 3y = , con x 6= 0 , y y = 1.
x2 2
210
6.1. SOLUCIONES ANALÍTICAS
6. Demuestre que si µ = µ(z) donde z = xy, entonces el factor integrante viene dado por
R
dz f (z)
µ(z) = e ,
donde:
∂P (x, y) ∂Q(x, y)
−
∂y ∂x
f (z) =
yQ(x, y) − xP (x, y)
Con este resultado resuelva la ecuación:
r
x3 + x2 y + x y 0 + y 3 + xy 2 + y = 0 .
a
7. Demuestre que si µ = µ(z) donde z = x/y, entonces el factor integrante viene dado por
in
R
dz f (z)
µ(z) = e ,
donde:
m
∂P (x, y) ∂Q(x, y)
y2 −
∂y ∂x
f (z) =
yQ(x, y) + xP (x, y)
Resuelva la ecuación:
eli
xy 0 = 3y .
8. Demuestre que si µ = µ(z) donde z = y/x, entonces el factor integrante viene dado por
R
dz f (z)
µ(z) = e ,
Pr
donde:
∂Q(x, y) ∂P (x, y)
2
x −
∂x ∂y
f (z) =
yQ(x, y) + xP (x, y)
Resuelva la ecuación:
3xy 0 = y .
or
9. Resuelva la ecuación
xy 0 + y − y 2 ln x = 0 .
ad
11. Encuentre, utilizando el método de las envolventes, soluciones particulares no obtenibles de la familia
rr
de soluciones.
a)
√ 1
Bo
y0 = y − x, y = x + (x + c)2 , x ≤ y ≤ x + 1.
4
b)
y 0 = 3y 2/3 , y = (x − c)3 .
211
6.2. SOLUCIONES NUMÉRICAS
c) p
p
y = xy 0 + 3 1 + (y 0 )2 , y = Cx + 3 1 + C2 , y > 0 , x2 < 9 .
d)
y = xy 0 + ln y 0 , y = Cx + ln C .
e)
y = xy 0 − (y 0 )2/3 .
r
6.2. Soluciones numéricas
a
En muchos problemas prácticos que involucran ecuaciones diferenciales no resulta posible expresar la
solución en términos de funciones elementales y es necesario recurrir a métodos numéricos. Por una solución
in
numérica entenderemos como aquellas soluciones que vendrán estipuladas como tablas de valores donde
para cada valor de xk le corresponde algún valor de la función yk (xk ). Más adelante encontraremos algunas
soluciones que tampoco vienen expresadas en términos de funciones elementales, como es el caso de la solución
y = J0 (x), las funciones de Bessel.
m
6.2.1. Las ideas generales
Dada una ecuación diferencial de segundo orden de la forma
eli
ẍ(t) = F [ẋ(t), x(t), t]
siempre se puede convertir en un sistema de dos ecuaciones lineales de primer orden, al extender el espacio
de variables de la forma
ẋ ≡ p(t)
Pr
q̇ = p(t)
⇒ ẍ(t) = F [ẋ(t), x(t), t] ⇔
x ≡ q(t) ṗ = F (p(t), q(t), t)
dt dt
p(t) F [p(t), q(t), t]
Ası́ dado un conjunto de potenciales elásticos y las fuerzas que de ellos derivan,
x
−k |x|
p=1 → kx
ad
1 2
p=2 → kx −kx
2
dV
V (x) = 1 3
⇒ Fk (x) = − =
p=3 → 3 kx
dx
−kx2
.. ..
..
rr
. . .
1
p
p−1 x
k|x| −k|x|
p |x|
p(t)
x(t)
dQ d
= F (Q(t), t) ⇒ =
dt dt 1 p−1 x(t)
p(t) m [F ext (x(t), t)] − k|x(t)| |x(t)|
212
6.2. SOLUCIONES NUMÉRICAS
donde y(x) es probablemente una función continua de la variable continua x. Tengamos claro que una solución
numérica de ésta ecuación es en realidad una aproximación a la función y(x).
Al resolver numéricamente, lo que se obtiene es una función yk = y(xk ) que resulta ser el valor de la
r
función obtenida con el método. La función es evaluada para un conjunto de puntos discretos xk = x0 + kh,
con k = 0, 1, 2, . . . y x0 < x1 < x2 · · · . A h se le denomina la longitud del paso.
a
Diremos que un método es de paso único si la determinación de yk+1 sólo involucra un único valor de yk
y múltiple paso si para calcularlo se utilizan varios valores yk , yk−1 , · · · , yk−p . Por otra parte se denomina
un método explı́cito si para determinar yk+1 se utilizan valores anteriores yk , yk−1 , · · · , yk−p y implı́cito
in
si se utilizan una función del mismo valor yk+1 .
Ası́
yk+1 = yk−1 + 2h f (xk , yk )
m
representa un método explı́cito de paso único mientras que
h
yk+1 = yk + [f (xk , yk ) + f (xk+1 , yk+1 )]
2
eli
será implı́cito de múltiples pasos.
El rebusque de Taylor
Tal y como hemos dicho arriba, dada una ecuación diferencial, su solución a través de un método de paso
único puede ser escrita como
Pr
y 0 (x) = f (y(x), x) ⇒ yk+1 = yk + ϕ (xk , yk , h) con h = xi+1 − xi ;
Lo primero que se puede hacer es expandir por Taylor alrededor del punto x = xk
1 1
or
2 n
y(x) = y(xk ) + (x − xk ) y 0 (xk ) + (x − xk ) y 00 (xk ) + · · · + (x − xk ) y (n) (xk ) + · · ·
2! n!
e identificamos
y 0 (xk ) → f (yk , xk )
00 0 ∂f ∂f
y (xk ) → f (yk , xk ) = + y0
∂x x=xx ∂y x=xx k
y=yk y=yk
rr
y 000 (xk ) → f 00 (yk , xk ) = ∂x f 0 + ∂y f 0 yk0 = ∂xx f + (∂xy f ) yk0 + [∂yx f + (∂yy f ) yk0 ] yk0 + ∂y f yk00
.. .. .. ..
. . . .
Bo
Por lo que podemos reconstruir la serie de Taylor hasta el orden que podamos o requiramos
1 2 0 1 1 n (n−1)
yn+1 = yn + h f (yk , xk ) + h f (yk , xk ) + h3 f 00 (yk , xk ) + · · · + h f (yk , xk ) + · · ·
2! 3! n!
213
6.2. SOLUCIONES NUMÉRICAS
Podemos considerar el siguiente ejemplo donde tenemos siguiente ecuación diferencial cuya solución exacta
conocemos
y 0 = x2 + y ⇒ y(x) = 3ex − x2 − 2x − 2
si tenemos como condición inicial y(0) = 1, entonces
r
y 0 = x2 + y , y 00 = 2x + y 0 , y 000 = 2 + y 00 , y (4) = y 000 , . . .
a
al tomar en cuenta la condición inicial
in
y 0 (0) = 1 , y 00 (0) = 1 , y 000 (0) = 3 , y (4) (0) = 3 , . . .
por lo tanto
m
1 2 00 1 1
y(h) = h y (0) + h3 y 000 (0) + h4 y (4) (0) + · · ·
y(0) + hy 0 (0) +
2! 3! 4!
1 1 1
= 1 + h + h2 + h3 + h4 + · · ·
2 2 8
eli
Algunos valores se muestran a continuación, tomando términos de la serie hasta orden 4.
h y(h) y(x)
0.1 1.1055125 1.1055128
0.2
Pr
1.2242000 1.2242083
0.3 1.3595125 1.3595764
0.4 1.5152000 1.5154741
podemos ver que a medida que nos alejemos del origen el método no es tan bueno.
La idea de integrar una ecuación diferencial ordinaria puede ilustrarse, formalmente de la siguiente forma
Z xk+1
y 0 (x) = f (y(x), x) ⇒ yk+1 = yk + dξ f (ξ, y(ξ)) ,
ad
xk
h
⇒ yk+1 = yk + 2 [f (xk , yk ) + f (xk+1 , yk + h f (xk , yk ))]
Con h = xi+1 −xi el paso de integración. Nótese además que hemos utilizado Euler otra vez para expresar
yk+1 = yk+1 (yk , xk ).
214
6.2. SOLUCIONES NUMÉRICAS
El método de Euler constituye una expansión por Taylor hasta primer orden por lo que el error es
claramente de segundo orden por cuanto si comparamos con la expansión en series de Taylor correspondiente
tendremos
h2 d2 y
d y
yk+1 = yk + h + + ···
dx x=xk 2! dx2 x=xk
h2 d2 y
kεtot k ∝
2! dx2 x=xk
r
6.2.4. El método de Euler y el problema de valores iniciales
a
Este método si bien no se utiliza en la práctica en su forma estándar para ecuaciones diferenciales
ordinarias, si ilustra el proceso de discretización de una ecuación diferencial y su solución mediante métodos
in
numéricos.
Para resolver la ecuación de un oscilador armónico libre que parte del reposo, i.e.
d2 φ(t)
2 2 k dφ(t)
+ ω0 φ(t) = 0 con: ω0 = ; φ (t0 ) = 1; y =0
m
dt2 m dt t=t0
en la cual φ(t) representa la posición de un cuerpo de masa m unido a un resorte de constante elástica k.
Discretizando mediante diferencia centrada
eli
d2 φ(t) 1 1
h = ti+1 − ti ; ≈ 2 [φ(ti+1 ) − 2φ(ti ) + φ(ti−1 )] ≡ 2 [φi+1 − 2φi + φi−1 ]
dt2 h h
con lo cual la ecuación del oscilador libre queda como
d2 φ(t)
+ ω02 φ(t) = 0
Pr ⇒ φi+1 − 2 − h2 ω02 φi + φi−1 = 0
dt2
esta última ecuación es la versión en diferencias finitas de la ecuación diferencial y es claro que se convierte
en una ecuación algebraica.
Finalmente, los dos valores iniciales para la iteración φ0 y φ1 surgen de las condiciones iniciales
φ0 ≡ φ (t = t0 ) = 1
or
dφ(t)
=0 ⇒ φ1 ≈ φ0 .
dt t=t0
ad
xk
y se aproxima la función con un promedio ponderado.
215
6.2. SOLUCIONES NUMÉRICAS
yk+1 = yk + [α + β] fk hk + β [γ ∂x fk + δ fk ∂y fk ] h2k +
2
δ2 2 2
γ 2
+β ∂x fk + 2γδ fk ∂xy fk + fk ∂y fk h3k + · · ·
r
2 2
con fk = f (yk , xk ) y como se ve claramente, queda libertad para escoger
a
Euler Mejorado o Heuns α = β = 12 ; γ=δ=1
in
1
yk+1 = yk + fk hk + 2 [∂x fk + fk ∂y fk ] h2k
1
Euler Modificado α = 0; β = 1; γ=δ=
m
2
1 1
yk+1 = yk + fk hk + 2 ∂x fk + 2 fk ∂y fk h2k
Runge-Kutta de cuarto orden aproxima la función f (ξ, y(ξ)) en cuatro puntos intermedios en el intervalo
eli
xk < x < xk+1 por lo cual
yk+1 = yk + [α κ1 + β κ2 + γ κ3 + δ κ4 ] hk
podemos plantearnos varias formas de hacerlo
hk
Pr
yk+1 = yk + [κ1 + 2κ2 + 2κ3 + κ4 ]
6
donde
κ1 = f (xk , yk )
1 1
κ2 = f xk + hk , yk + κ1
2 2
or
1 1
κ3 = f xk + hk , yk + κ2
2 2
κ4 = f (xk + hk , yk + κ3 )
ad
o también
hk
yk+1 = yk + [κ1 + 3κ2 + 3κ3 + κ4 ]
8
donde
rr
κ1 = f (xk , yk )
1 1
κ2 = f xk + hk , yk + κ1
3 3
Bo
1 1
κ3 = f xk + hk , yk + κ2
3 3
κ4 = f (xk + hk , yk + κ3 )
216
6.2. SOLUCIONES NUMÉRICAS
κ1 = f (xk , yk )
κ2 = f (xk + a2 hk , yk + b21 κ1 )
κ3 = f (xk + a3 hk , yk + b31 κ1 + b32 κ2 )
κ4 = f (xk + a4 hk , yk + b41 κ1 + b42 κ2 + b43 κ3 )
r
..
.
a
κ6 = f (xk + a6 hk , yk + b61 κ1 + b62 κ2 + b63 κ3 + b64 κ4 + b65 κ5 )
la cual puede ser redefinida y truncada para obtener
in
h i
ỹk+1 = yk + hk C̃1 κ1 + C̃2 κ2 + C̃3 κ3 + C̃4 κ4 + C̃5 κ5 + O(h5 )
Volvamos al mismo ejemplo que vimos anteriormente
m
y 0 = x2 + y ⇒ y(x) = 3ex − x2 − 2x − 2
con la condición inicial y(0) = 1.
Tenemos entonces que f (x, y) = x2 + y. Los valores iniciales son x0 = 0 y y0 = y(x0 ) = 1. Si tomamos
eli
h = 0,1, entonces al considerar la ecuación de Runge-Kutta de cuarto orden
1
y(x0 + h) = y(0,1) = y(0) + [κ1 + 2κ2 + 2κ3 + κ4 ]
6
donde
κ1 =
Pr
(0,1)f (xk , yk ) = (0,1)f (0, 1) = 0,1
1 1
κ2 = (0,1)f xk + hk , yk + κ1 = (0,1)f (0,05, 1,05) = 0,10525
2 2
1 1
κ3 = (0,1)f xk + hk , yk + κ2 = (0,1)f (0,05, 1,052625) = 0,1055125
2 2
κ4 = (0,1)f (xk + hk , yk + κ3 ) = (0,1)f (0,1, 1,1055125) = 0,11155125
or
1 1
κ3 = (0,1)f xk + hk , yk + κ2 = (0,1)f (0,15, 1,1647021) = 0,1187202
2 2
κ4 = (0,1)f (xk + hk , yk + κ3 ) = (0,1)f (0,2, 1,2242329) = 0,1264233
217
6.2. SOLUCIONES NUMÉRICAS
r
0.3 1.3595125 1.3595761 1.3595764
0.4 1.5152000 1.5154736 1.5154741
a
6.2.6. Métodos multipaso
in
Los métodos multipaso se basan en encontrar el valor yn+k como una función de k de valores precedentes:
yn+k−1, yn+k−2, yn+k−3, · · · yn . Para k = 1, retomamos los métodos de paso único del tipo Euler o Runge-
Kutta. Será explı́cito (abierto) si el valor yn+k puede ser calculado directamente o implı́cito (abierto) si la
m
fórmula contiene el valor yn+k deseado.
Otra vez la idea está en aproximar el argumento de la integración formal
Z xi+1
y 0 (x) = f (y(x), x) ⇒ yi+1 = yi + dξ f (ξ, y(ξ))
eli
xi−k
nótese en este caso que el punto i + 1 recibe la contribución de k puntos anteriores. El integrando f (ξ, y(ξ))
lo aproximaremos con un polinomio de interpolación de Newton de orden n. Tal que
Pr
f (ξ, y(ξ)) → f (ξ) = pn (ξ) + Rn (ξ)
haciendo pn (x) ≡ f (xn + αh) con α cero o negativo de tal modo que en términos del operador diferencias
atrasada ∇f (x) = f (x) − f (x − h) siendo h el incremento
ad
α (α + 1) 2 α (α + 1) (α + 2) 3
f (xn + αh) = fn + α∇fn + ∇ fn + ∇ fn +
2! 3!
α (α + 1) (α + 2) · · · (α + r − 1) r
+ ∇ fn
r!
rr
Bo
218
6.2. SOLUCIONES NUMÉRICAS
r
3 1
3α2
4
α 11α ∇ fi
+α2 + + +3 + ···
a
5 2 3 4! −k
por razones de conveniencia que son evidentes al hacer el desarrollo, se toman las fórmulas para k = r y k
in
impar y obtendremos
yi+1 = yi + h fi + 21 ∇fi + 12
5
∇2 fi + 38 ∇3 fi
k=0
⇒
r=3 251 5 (4)
m
R = 720 h f (ζ)
yi+1 = yi + h [2fi + 0∇fi ]
k=1
⇒
r=1 1 3 (2)
R = 3 h f (ζ)
eli
yi+1 = yi + h 4fi − 4∇fi + 83 ∇2 fi + 0∇3 fi
k=3
⇒
r=3 14 5 (4)
R = 45 h f (ζ)
yi+1 = yi + h 6fi − 12∇fi + 15∇2 fi − 9∇3 fi + 33
10 ∇4 fi
k=5
⇒
r=5
R = 140
Pr
41 7 (6)
h f (ζ)
y al expresar las diferencias atrasadas las fórmulas explı́citas (abierta) quedan expresadas como
k=0 h
y = yi + 24 [55fi − 59fi−1 + 37fi−2 − 9fi−3 ] R ∼ O h5
r = 3 i+1
k=1
y = yi + 2hfi R ∼ O h3
r = 1 i+1
or
k=3
= yi + 4h
y 3 [2fi − fi−1 + 2fi−2 ] R ∼ O h5
r = 3 i+1
k=5
yi+1 = yi + 3h 7
r=5 10 [11fi − 14fi−1 + 26fi−2 − 14fi−3 + 11fi−4 ] R ∼ O h
ad
Siguiendo el mis procedimiento se pueden escribir las fórmulas implı́citas (cerradas) para las mismas
“curiosas” situaciones. Para este caso la conveniencia se obtienes para k impar y r = k + 2
yi+1 = yi + h fi+1 − 12 ∇fi+1 − 12 1 1
∇2 fi+1 − 24 ∇3 fi+1
k=0
⇒
rr
−1 5 (4)
R = 90 h f (ζ)
yi+1 = yi−3 + h 4fi+1 − 8∇fi − 20 ∇2 fi+1 − 38 ∇3 fi+1 + 14
3 45 ∇4 fi+1
k=3
⇒
r=5 −8 5 (4)
R = 945 h f (ζ)
219
6.2. SOLUCIONES NUMÉRICAS
r
Se debe puntualizar lo siguiente respecto a las fórmulas explı́citas e implı́citas de los métodos multipaso
antes mencionados
a
Los métodos multipasos, normalmente, requieren menos evaluaciones de las funciones que los métodos
in
monopaso para un mismo nivel de precisión.
Los métodos multipaso requieren de un método monopaso que le permita determinar los yn+k−1, yn+k−2, yn+k−3, · · · , yn
puntos iniciales.
m
Las fórmulas explı́citas son, normalmente, menos precisas que las implı́citas. La razón se fundamenta
en que, mientras las explı́citas extrapolan la solución al punto yi+1 , las implı́citas la interpolan, por
cuanto la toman en cuenta en el momento de calcularla.
eli
Las fórmulas explı́citas e implı́citas deben ser consideradas como complementarias, por cuanto las
∗
explı́citas pueden predecir el valor de yi+1 necesario para la fi+1 = f (xi+1 , yi+1 ) del cálculo de yi+1 en
la fórmula implı́cita.
Existen varias combinaciones predictor-corrector, entre ellas mencionamos:
Milne de cuarto orden
Pr
• Predictor
4h
yi+1 = yi−3 + [2fi − fi−1 + 2fi−2 ]
3
• Corrector
h
yi+1 = yi−1 + [fi+1 − 4fi + fi−1 ]
3
or
• Predictor
3h
ad
• Predictor
h
yi+1 = yi + [55fi − 59fi−1 + 37fi−2 − 9fi−3 ]
Bo
24
• Corrector
h
yi+1 = yi + [9fi+1 + 19fi − 5fi−1 + fi−2 ]
24
220
6.2. SOLUCIONES NUMÉRICAS
El método de extrapolación multipaso más exitoso (conjuntamente con los métodos de paso único del
tipo Runge-Kutta) es el de extrapolación racional de Bulirsch-Stoer en el cual se define un paso superior
de H y una serie de subpaso hη = H/η con el aumento del número de subpasos, en algún momento siguiendo
algún criterio de convergencia se hace una extrapolación (racional) que representa el lı́mite η → ∞.
El método de Bulirsch-Stoer tiene una estrategia diferente al los anteriores y posee, como motor de
aproximación el método del punto medio modificado o salto de rana (leap frog). Este esquema se utiliza con
frecuencia en discretizaciones de ecuaciones diferenciales en derivadas parciales y se basa en aproximar la
derivada por el valor el promedio en los dos extremos:
r
y(xn ) − y(n−1 )
y 0 (x) = f (y(x), x) ⇒ y 0 (xn ) = f (y(xn ), xn ) =
a
2h
por lo tanto
in
z0 ≡ y(x)
z1 = z0 + hf (x, z0 )
..
m
.
zn+1 = zn−1 − 2hf (x + nh, zn )
eli
1
y(x + H) ≈ yn ≡ [zn + zn−1 + hf (x + H, zn )]
2
Nótese que si reacomodamos
4yn − yn/2
y(x + H) ≈
3
Pr
obtendremos un método de cuarto orden que requiere menos evaluaciones de f (y(xn ), xn ) por paso h
los resultados a ver si está dentro del los lı́mites de tolerancia que nos hemos impuesto
yh − yh/2
≡ ∆ yh , yh/2 < εmáx ⇒
yh
ad
5 !1/5
εmáx h0 εmáx
≈ ⇒ h0 = ht
∆ yh , yh/2 ht ∆ yh , yh/2
donde hemos denotado h0 como el paso ideal. Esta relación es general para cualquier método de 4 orden de
paso único, multipaso, implı́cito o explı́cito.
rr
∆(yh ,yh∗
) ∆h
h0 =
0,25 0,25
Mht εmáx ∆0
∆(yh ,yh
≡ Mht ∆0 < ∆1
∗
) ∆h
221
6.2. SOLUCIONES NUMÉRICAS
a r
κ1 = f (xk , yk )
κ2 = f (xk + a2 hk , yk + b21 κ1 )
in
κ3 = f (xk + a3 hk , yk + b31 κ1 + b32 κ2 )
κ4 = f (xk + a4 hk , yk + b41 κ1 + b42 κ2 + b43 κ3 )
..
m
.
κ6 = f (xk + a6 hk , yk + b61 κ1 + b62 κ2 + b63 κ3 + b64 κ4 + b65 κ5 )
y con los mismos puntos (¡ las mismas evaluaciones !) se puede reescribir para 4 orden como:
eli
h i
ỹk+1 = yk + hk C̃1 κ1 + C̃2 κ2 + C̃3 κ3 + C̃4 κ4 + C̃5 κ5 + O(h5 )
∆ (yh , ỹh )
Para métodos multipasos y predictor corrector la situación puede tener un refinamiento adicional
antes de proceder a modificar el paso h. El esquema serı́a para un método predictor corrector del tipo
Adams Modificado o Adams Moulton, donde el
ad
Predictor
h
yi+1 = yi + [55fi − 59fi−1 + 37fi−2 − 9fi−3 ]
24
Corrector
rr
h
yi+1 = yi + [9fi+1 + 19fi − 5fi−1 + fi−2 ]
24
se realiza una serie de iteraciones dentro de la fórmula de corrector, i.e.
Bo
h
yi+1 = yi + [9f (xi+1 , yi+1 ) + 19f (xi , yi ) − 5f (xi−1 , yi−1 ) + f (xi−2 , yi−2 )] .
24
222
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
6.2.8. Ejemplos
6.2.9. Practicando con Maxima
6.2.10. Ejercicios
r
Modelar o describir matemáticamente un fenómeno es el fin último de la ciencias. Las matemáticas son
el lenguaje de la fı́sica: ¿Cómo describir el chisporroteo de una llama? ¿la textura de un pintura al oleo?
a
¿el tráfico en carreteras durante horas picos? ¿el titilar de las estrellas? Describir matemáticamente estas
situaciones no sólo no es fácil, pero tampoco es única. Son fenómenos complejos y su descripción puede tener
in
muchos grados de profundidad.
m
Malthus5 postuló esta famosa ecuación:
dy(x)
= k y(x) (6.11)
dx
eli
con k > 0 o k < 0 y y(0) = y0 , Es fácil verificar que la solución viene dada por:
y(t) = y0 ek t . (6.12)
Para k < 0 tenemos una situación de decaimiento: la población decrece con el tiempo. Este concepto se
utiliza los procesos de decaimiento radiactivo. El tiempo de vida media se define como el tiempo necesario
Pr
para que la mitad de los núcleos decaigan, lo cual es independiente de la cantidad de la muestra y permite
medir la edad de todo aquello que contenga isótopos radioactivos. En particular el C14 del cual se sabe que:
tiene una vida media de 5730 años y que todos los organismos están (o estuvieron) formados por carbono.
Por lo tanto, si sabemos el porcentaje de C14 en una muestra, digamos el 63 % podremos inferir su edad
y(0) = 1
or
1
y(5730) = ek 5730 = 2
5730
tendremos finalmente
y(t) = 2−t/5730
de aquı́ obtendremos la edad en años de la muestra
rr
ln 0,63
y(t) = 0,63 ⇒ t = − 5730 ≈ 3819,48
ln 2
5 En honor al economista polı́tico inglés Thomas Robert Malthus (1766-1834). Quien fue uno de los primeros en darse cuenta
Bo
queñ la población crece como una razón geométrica mientras que los medios de subsistencias crecen de manera aritmética. Esta
afirmación plasmada en su Ensayo sobre el Principio de Poblaciones, el cual inspiró a Darwin en la formulación de principio
de selección natural. Malthus, muy religioso y creyente pensaba que esa diferencia en el crecimiento de la población y las
necesidades que ellas generaban, eran de procedencia divina y que forzarı́a a la humanidad a ser más laboriosa e ingeniosa para
lograr los medios de subsistencia. Darwin, no tan religioso, lo formuló como una situación natural presente en todas las especies.
223
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
a r
in
m
Figura 6.6: Decaimiento Radioactivo
eli
En la Figura 6.6 se puede apreciar la solución de la ecuación (6.11) y el valor aproximado de la edad de
la muestra.
Para k > 0 la ecuación 6.11 describe el incremento poblacional. El valor de k se calcula experimentalmente
(promediando sus valores para cada uno de los parámetros). Para la población venezolana k = 0,018
Pr
Población Venezolana (Millones Hab.)
Año Población y(t) = 0,350 e0,018t
1800 (0) 0.350 0.350
1847 (47) 0.750 0.816
1873 (73) 1.000 1.302
1881 (81) 1.750 1.504
or
El crecimiento de la población venezolana (Tabla 1) desde 1800 puede modelarse con k = 0,018 y a =
0,001, como se puede apreciar en la Figura 6.7.
Bo
224
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
a r
in
m
Figura 6.7: Población de Venezuela desde 1800
eli
Esta ecuación toma en cuenta le decrecimiento de la población con el término −y 2
y 0 = (k − ay) y = ky − ay 2
donde k y a son constantes arbitrarias. Esta ecuación es separable y la solución tiene la forma de
Pr
y
ln =k t+C,
k − ay
y por lo tanto
k y0
y(t) = .
a y0 + (k − a y0 ) e−k t
or
La gráfica para el caso de una torta recién sacada del horno y que se encuentra a una temperatura de
T0 = 176◦ , con una temperatura ambiente de Tm = 23◦ , y con T (8) = 63◦ , se aprecia en la Figura 6.8
(k ≈-0.1677).
225
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
a r
in
m
Figura 6.8: Enfriamiento de una torta recién horneada
También se puede modelar el enfriamiento con una temperatura del ambiente variable esto es:
eli
dT
= k [T − Tm (t)] T (0) = T0
dt
tómese, por ejemplo,
πt
Pr
Tm (t) = 23 − 10 cos
12
con 0 ≤ t ≤ 24 horas
entonces:
dT 1 πt
= T − 23 − 7 cos
dt 4 12
con la solución
207 + 23 π 2 + 63 cos π12t − 21π sen πt
1
t 12
or
T (t) = C e +
4
9 + π2
si T (0) = 15◦ , entonces la constante C resulta ser
135 + 8 π 2
C=−
ad
9 + π2
es decir:
207 + 23 π 2 + 63 cos π12t − 21π sen πt
135 + 8 π 2
1
t 12
T (t) = − e4 + .
9 + π2 9 + π2
rr
226
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
r
Ahora bien, si el pago de los intereses se hace varias veces durante ese lapso, entonces tendremos
ζ ζ ζ
a
C2 = C1 1 + = C0 1 + 1+ .
100 · 2 100 · 2 100 · 2
in
Finalmente, si el interés se paga k veces en cada lapso, entonces
kt
ζ
C(t) = C0 1 + . (6.14)
100 · k
m
Si k = 12 entonces se tienen intereses pagaderos sobre saldos mensuales. En el caso de que k = 365, los
intereses son pagaderos sobre saldos diarios. Nótese que si
kt
ζ
eli
ζ
k→∞⇒ 1+ → e( 100 t) ;
100 · k
entonces, podemos aproximar este modelo discreto de pagos sobre saldos por uno continuo, i.e.
ζ ζ
C(t) = C0 e( 100 t)
Pr ⇔ C 0 (t) =
100
C(t) .
Existen situaciones en las cuales los bancos, movidos por la competencia, ofrecen cancelar los intereses
sobre un año hipotético de 360 dı́as. En este caso, el capital crece como:
365t
ζ
C(t) = C0 1 + . (6.15)
100 · 360
or
La siguiente tabla muestra una comparación del crecimiento del capital inicial C0 = 1, en un lapso de 10
años, sujeto a intereses del 40 % sobre saldos diarios y siguiendo los tres modelos antes mencionados.
kt 365t
ad
ζ
Años C(t) = e( 100 t) C(t) = 1 + ζ
100·k C(t) = 1 + ζ
100·360
0 1.0 1.0 1.0
1 1.491497997 1.491824698 1.499797972
2 2.224566275 2.225540928 2.249393957
3 3.317936142 3.320116923 3.373636494
rr
227
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
para sistemas con m = cte (partı́culas), con v(t) la velocidad y r(t) la posición.
r
6.3.6. Movimientos con aceleración constante
a
En carreras de velocidad, en las cuales los autos tienen que generar el máximo posible de velocidad para
in
una distancia dada tendremos, que la ecuación Newton (6.16) se expresa de la siguiente forma
F
v(t) = v0 + m t
dv(t)
cte = F = m ⇒
m
dt
x(t) = x + v t + 1 F t2
0 0
2m
F
Los valores tı́picos para este caso son v0 = r0 = 0 , a = m = 9,8 ms−2 , y por lo tanto la velocidad final a los
eli
400 m es: √
vf = 2ax ≈ 89 m/s = 320, 4 Km/h .
Fricción en fluidos
Pr
En la descripción del movimiento de un paracaidista la ecuación (6.16) se convierte en:
X
F (v(t)) = −mg + ηv 2 (6.17)
ext.
dp(t) dv(t)
= = m = m a(t) ,
dt dt
or
2gt
1 + exp − vt
la velocidad que anula la sumatoria de fuerzas y a partir de la cual el cuerpo cae sin aceleración.
El tiempo que tarda en alcanzar esa velocidad es estrictamente para t −→ ∞, sin embargo, una buena
Bo
aproximación que surge de la ecuación (6.18), la constituye: t vt /2g . La velocidad terminal tı́pica en un dı́a
soleado para un paracaidista de 70 Kg, en posición de “águila extendida”, es 54 ms−1 (194, 4 Km h−1 ) y por
lo tanto alcanza la velocidad terminal luego de aproximadamente 15 s, esta situación se aprecia claramente
en la Figura 6.9.
228
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
a r
in
Figura 6.9: Velocidad y posición del paracaidista en función del tiempo.
m
Por su parte, la posición surge al integrar la ecuación (6.18)
dy(t) 1 − exp − 2gt
vt
v(t) = = −vt ,
eli
dt 1 + exp − 2gt vt
Fuerzas elásticas
or
Otra situación muy conocida se presenta bajo la acción de fuerzas elásticas. Ası́, la ecuación (7.40), ahora
se expresa como
X dv(t)
F (v(t)) = −kx(t) = m = ma(t) . (6.20)
dt
ad
ext.
La posición será r !
k
x(t) = C1 sen t + C2 .
m
229
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
a r
in
Figura 6.10: Trayectoria de la Flecha al abandonar el arco.
m
Para analizar el caso del lanzamiento de una flecha (23 g) por una arco de 30 lb (134 N) el cual un arquero
puede separarlo 0,72 m se obtiene la velocidad de salida de la flecha como
s
r 134
k 0,72
eli
vf = d = 0, 72 = 65 m/s
m 23 × 10−3
P = mv = const = m0 v0
or
dm
si dt = σ = cont ⇒ m (t) = m0 + σt, y consecuentemente
m0
v (t) = v0 .
ad
m0 + σt
Un segundo caso tiene que ver con una masa M atada a una cadena de densidad lineal de masa ρ. Esta
masa se impulsa hacia arriba con una velocidad inicial v0 . Se pide encontrar el tiempo en que alcanza la
altura máxima. La ecuación de Newton para este caso se puede expresar como
rr
d (mv) dm dv
−Pmasa − Pcadena = ⇔ −M g − ρxg = v+ m
dt dt dt
o equivalentemente
Bo
M
ξ=+x ρ
dp
−gρξ = , donde: y
dt
p = mv = ρξ dξ
dt
230
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
con lo cual
dp
−gρξp = p ⇒ −gρξmdξ = pdp ⇒ −gρξρξdξ = pdp
dt
3
ξ p M 2
3
p2
Z Z
2 2 ξ
2 ρ (m0 v0 )
− gρ ξ dξ = pdp ⇒ gρ − = −
M
ρ m 0 v0 3 3 2 2
Z
ρξdξ
t − t0 = .
r
s 3
ξ3 ( Mρ ) (m0 v0 )2
2gρ2 3 − 3 + 2
a
Un cohete en movimiento
in
Finalmente el caso más emblemático es el movimiento de un cohete que consume una fracción importante
de su combustible. Llamemos v la velocidad de cohete para un instante de tiempo t y v 0 la velocidad de salida
de los gases respecto a tierra. Para ese instante t la cantidad de movimiento del cohete es mv un instante dt
m
más tarde la cantidad de movimiento será
eli
Entonces, el cambio en la cantidad de movimiento será
dp = p0 − p = mdv − vgases dm
dv(t) vgases dm
− = −g
dt m dt
integrando
mi
− gt
ad
v = v0 + vgases ln
m(t)
si suponemos que el combustible se quema de la forma
dm
m(t) = mi (1 + αt) ↔ = α = cte .
dt
rr
La cantidad
dm
E = vgases ,
dt
Bo
231
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
a r
Figura 6.11: Velocidad y posición del Cohete
in
6.3.7. Modelado de concentraciones de soluciones
m
Otro de los problemas tı́picos donde se aplican exitosamente las ecuaciones diferenciales son los problemas
de manejo de concentración de sustancias en soluciones lı́quidas. El principal objetivo, consiste en plantear
el problema en término del problema de valores iniciales que gobierna el fenómeno (ecuación diferencial +
condiciones iniciales). Para ello, en este tipo de problemas, siempre utilizaremos la regla intuitiva de
eli
Tasa de cambio de la concentración = Tasa de ingreso − Tasa de egreso
Ası́, tendremos que para un problema tı́pico en el cual inicialmente se encuentran diluidos en un recipiente
(un tanque) y0 gr de una sustancia en V0 litros de un lı́quido. A este tanque le cae otro lı́quido con una
Pr
concentración distinta de la misma sustancia a ventrada lit/min, mientras que vsalida lit/min salen del tanque.
Si suponemos que dentro del tanque sucede algún proceso de homogenización de la solución, la pregunta
tı́pica es que queremos saber la cantidad de sustancia que se encuentra en el tanque en un tiempo t. A la
concentración de la sustancia en el lı́quido de entrada (gr/lit), en un tiempo t, la denotaremos como C (t)
gr/lit. La figura (6.12) ilustra este proceso.
Para empezar notemos que, en esta situación el volumen no es constante. Por lo tanto, con el mismo
espı́ritu de la “ley de balanceo” que hemos propuesto, si las velocidades de ingreso y egreso son constantes,
or
nos queda que la variación del volumen inicial viene dada por la diferencia de estas velocidades, esto es
con lo cual también hemos integrado una ecuación diferencial para encontrar como variará el volumen con
el tiempo.
Para la construcción de la ecuación diferencial, procedemos de manera similar y si describimos la cantidad
de sustancia en el tanque como y (t), nos queda que la tasa de cambio de la cantidad de sustancia en el tanque
será
lit gr lit y (t) gr
rr
0
y (t) = ventrada C (t) − vsalida
mı́n lit mı́n V0 + (ventrada − vsalida ) t lit
| {z } | {z }
Tasa de Ingreso Tasa de Egreso
Bo
Por lo tanto la ecuación diferencial tomará la forma tı́pica de una ecuación diferencial lineal de primer
orden inhomogénea
vsal
y 0 (t) + y (t) = vent C (t)
V0 + (vent − vsal ) t
232
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
a r
in
Figura 6.12: Soluciones y tanques
m
que tendrá por solución
−vsal
!
y0
eli
vsal
! ((−vent + vsal ) t − V0 ) ent − vsal
v
−
(−V0 ) vent − vsal
y (t) =
| {z }
Respuesta a las Condiciones iniciales
vsal vsal
!
− ((−vent + vsal ) t −
Pr
V0 ) −vent + vsal
Z t
vent C (u) (u (vent − vsal ) + V 0) vent − vsal du
0
| {z }
Respuesta a la Exitación externa
Nótese lo genérico de esta solución. Por un lado, la concentración de la sustancia, C (t) , en la solución
que entra al sistema es distinta a la concentración de la sustancia presente en el tanque, más aún, puede
ser variable con el tiempo. Por otro lado esta solución presenta una singularidad (un infinito) cuando la
or
velocidad de ingreso es igual a la velocidad de egreso. Para este caso en el cual el volumen del tanque
permanece constante tendremos que resolver la ecuación diferencial
v
salida u
Z t ! vsalida t
0 vsal −
ad
Tal y como hemos mencionado varias veces (y seguiremos mencionando) la solución general para una ecua-
ción diferencial in homogénea se compone de dos soluciones, la solución de la ecuación diferencial homogénea
más la solución de la inhomogéna.
rr
vsalida t vsalida t Z t v
salida u
− −
y (t) = y0e V +e V C (u) ventrada e V du
| {z } 0
Respuesta a las Condiciones Iniciales | {z }
Respuesta a la Exitación externa
233
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
En esta es una visión que debemos conservar, en general para todas las ecuaciones lineales inhomogéneas
independientes del orden de la ecuación diferencial, ası́ recordando, dada una ecuación diferencial y su
solución tal que se cumple la condición inicial y (0) = y0 entonces siempre es posible
Z x
d Rx
−p(u)du
Rx
−p(u)du
R
y (x) + p (x) y (x) = g (x) ⇔ y (x) = y0 e 0 +e 0 g (u) e p(u)du du ,
dx | {z } 0
solución homgénea | {z }
Solución inhomogénea
donde ahora vemos claramente que la solución de la homogénea da cuenta a las condiciones iniciales del
r
proceso y la solución de la inhomogénea provee la respuesta a la excitación externa al sistema.
Este comportamiento de las soluciones es útil si nos planteamos que al tratar de “limpiar” una piscina,
a
a la cual le hemos añadido el doble de la cantidad de sulfatos permitida, y queremos saber cuanto tiempo
tenemos que mantener abierta una entrada de 120 lits/min de agua sin sulfatos y la salida de la piscina que
in
responde a 60 lits/min. La piscina en cuestión tiene 20 m de longitud, 10 m de ancho y 2 m de profundidad.
Siguiendo los pasos anteriormente planteados, tendremos que
lit
m
60
vsal mı́n
y 0 (t) + y (t) = 0 ⇒ y 0 (t) + y (t)
=0
V0 + (vent − vsal ) t
5
lit
4 × 10 lit + (120 − 60) t
mı́n
eli
lit
60
mı́n y0
y 0 (t) + y (t)
lit
= 0 ⇒ y (t) = 20000 3t + 20000
4 × 105 lit + 60 t
mı́n
Pr 3
donde el volumen es V = 400m3 = 400 (100cm) = 4 × 108 cm3 = 4 × 108 10−3 lit = 4 × 105 lit.
Con lo cual el tiempo para que la cantidad final decaiga a la mitad de la inicial surge de
2y0
y0 = 20000 ⇒ t ≈ 6.666,66 minutos !!!!!
3t + 20000
or
6.3.8. Ejemplos
6.3.9. Practicando con Maxima
6.3.10. Ejercicios
ad
rr
Bo
234
Capı́tulo 7
a r
Ecuaciones diferenciales ordinarias de orden
in
mayor a 1
m
eli
Pr
or
ad
rr
Bo
235
Vamos a estudiar algunos métodos para resolver ecuaciones diferenciales ordinarias de orden mayor a 1,
esto es, ecuaciones del tipo
F[x, y(x), y 0 (x), y 00 (x), ..., y (n) (x)] = 0 .
Primero estudiemos las lineales.
Una ecuación diferencial lineal de orden n, es una ecuación de la forma
fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = Q(x) , (7.1)
r
donde f0 (x), f1 (x), f2 (x), ..., fn (x) y Q(x) son funciones contı́nuas de x en un intervalo I y fn (x) 6= 0.
Si Q(x) 6= 0 la E.D.O se denomina una E.D.O. Lineal de orden n inhomogénea. Si Q(x) = 0 se llama una
a
E.D.O. Lineal de orden n homogénea.
Teorema: Si f0 (x), f1 (x), f2 (x), ..., fn (x) y Q(x) son todas funciones contı́nuas sobre un intervalo común
in
I, y fn (x) 6= 0 cuando x ∈ I, entonces la ecuación diferencial
fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = Q(x) ,
m
tiene una y sólo una solución
y = y(x) ,
que satisface el conjunto de condiciones iniciales
eli
y(x0 ) = y0 , y 0 (x0 ) = y1 , y 00 (x0 ) = y2 , . . . , y (n) (x0 ) = yn−1 .
fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = 0 , (7.2)
donde yp (x) es una solución particular de la ecuación diferencial inhomogénea (7.1), es una familia
n-paramétrica de soluciones de la ecuación (7.1).
4. Si yp (x) es una solución particular de (7.1), entonces αyp (x) es una solución de (7.1) si reemplazamos
Bo
236
7.1. LINEALES HOMOGÉNEAS CON COEFICIENTES CONSTANTES
fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = Q1 (x)
fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = Q2 (x)
r
fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = Q1 (x) + Q2 (x) .
a
Esta propiedad se conoce como el Principio de Superposición.
in
6. Si yp (x) = u(x) + iv(x) es una solución de
fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = R(x) + iC(x) ,
m
entonces, la función u(x) es una solución de
fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = R(x) ,
eli
fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = C(x) ,
Ahora bien, ¿que forma debe tener m para que (7.4) sea la solución de (7.3)? Sustituyamos la solución de
prueba (7.4) en (7.3):
rr
dn mx dn−1 mx d2 d
an e + an−1 e + · · · + a2 2 emx + a1 emx + a0 emx
dxn dx n−1 dx dx
an mn emx + an−1 mn−1 emx + · · · + a2 m2 emx + a1 memx + a0 emx = 0
Bo
n
an m + an−1 mn−1 + · · · + a2 m2 + a1 m + a0 = 0 (7.5)
De esta manera hemos respondido a la pregunta: el valor de m que hace que (7.4) sea la solución de
(7.3) es aquel valor que satisface ésta última ecuación algebraica de grado n. La ecuación (7.5) tendrá por lo
237
7.1. LINEALES HOMOGÉNEAS CON COEFICIENTES CONSTANTES
menos n raı́ces que denotaremos por: m1 , m2 , m3 , . . . , mn . Esto significa que cada función yi (x) = emi x con
i = 1, 2, 3 . . . será una solución de (7.3).
La ecuación (7.5) se denomina Ecuación Caracterı́stica de (7.3) y se obtiene de una manera muy sencilla
simplemente intercambiando y 0 (x) por m y el orden de la derivada por su correspondiente valor numérico.
Por ejemplo:
5y 00 (x) + 3y 0 (x) + y(x) = 0 ⇒ 5m2 + 3m + 1 = 0 .
Como se puede ver, la ecuación caracterı́stica
r
an mn + an−1 mn−1 + · · · + a2 m2 + a1 m + a0 = 0 ,
a
condicionará la solución de la siguiente forma
1. Si m es una raı́z real con multiplicidad k = 2 entonces las k soluciones asociadas con m serán de la
in
forma
emx , xemx , x2 emx , x3 emx , · · · , xk−1 emx .
2. Si m y m son parejas de soluciones complejas, α±iβ , del polinomio caracterı́stico y tienen multiplicidad
m
k, entonces las soluciones correspondientes serán
eαx cos(βx), eαx sen(βx), · · · , xk−1 eαx cos(βx), xk−1 eαx sen(βx) .
eli
Podemos ver algunos casos y ejemplos
La ecuación
La ecuación
y 000 + 3y 00 + 3y 0 + y = 0 ⇔ r3 + 3r2 + 3r + 1 = (r + 1)3 = 0 ,
con las raı́ces m = −1 y con multiplicidad k = 3, tendrá una solución de la forma
ad
La ecuación
rr
4y (4) + 12y 000 + 49y 00 + 42y 0 + 10y = 0 ⇔ 4r4 + 12r3 + 49r2 + 42r + 10 = (r2 + 2r + 10)(2r + 1)2 = 0 ,
con raı́ces
1
m1 = −1 + 3i, m2 = −1 − 3i, m3 = − , con multiplicidad 2 .
Bo
2
Tendrá como solución
238
7.1. LINEALES HOMOGÉNEAS CON COEFICIENTES CONSTANTES
La ecuación
y (4) + 4y 000 + 24y 00 + 40y 0 + 100y = 0 ⇔ r4 + 4r3 + 24r2 + 40r + 100 = (r2 + 2r + 10)2 = 0 ,
a r
La ecuación
4y 000 + 33y 0 − 37y = 0 ,
in
con
y(0) = 0; y 0 (0) = −1; y 00 (0) = 3 ⇔ 4r3 + 33r − 37 = (r − 1)(4r2 + 4r + 37) = 0 ,
consecuentemente con una solución general de la forma
m
y(x) = C1 ex + e−x/2 [C2 cos(3x) + C3 sen(3x)] ,
eli
8 x −x/2 8 19
y(x) = e −e cos(3x) + sen(3x) .
45 45 45
Como pudimos ver, al buscar las raı́ces de la ecuación caracterı́stica puede ocurrir varios casos los cuales
vamos a resumir a continuación.
Pr
7.1.1. Las raı́ces de la ecuación caracterı́stica son todas diferentes
Cuando las n raı́ces de la ecuación (7.5) son distintas entonces las n soluciones linealmente independientes
de (7.3) se pueden escribir como:
...
Si la ecuación caracterı́stica presenta raı́ces múltiples puede ser que la ecuación caracterı́stica se pueda escribir
como una colección de productos de términos, por ejemplo, supongamos que la ecuación caracterı́stica se
Bo
m2 (m − a)3 (m + b)4 (m + c) = 0 ,
239
7.1. LINEALES HOMOGÉNEAS CON COEFICIENTES CONSTANTES
m = 0 (2 veces) → y1 = c1 + c2 x
y2 = c3 + c4 x + c5 x2 eax
m = a (3 veces) →
y3 = c6 + c7 x + c8 x2 + c9 x3 e−bx
m = −b (4 veces) →
m = −c (1 vez) → y4 = c10 e−cx
r
y(x) = c1 + c2 x + c3 + c4 x + c5 x2 eax + c6 + c7 x + c8 x2 + c9 x3 e−bx + c10 e−cx .
a
7.1.3. Las raı́ces de la ecuación caracterı́stica son números complejos
in
Puede suceder también que las raı́ces resultantes sean números complejos. En este caso es bueno notar
que si lo coeficientes de la ecuación caracterı́stica son todos reales, entonces las raı́ces imaginarias que puedan
aparecer lo harán en la forma de pares conjugados, es decir, que si a+ib es una raı́z entonces a−ib también lo
m
será. Supongamos por un momento que m1 = a+ib y m2 = a−ib son dos raı́ces de la ecuación caracterı́stica,
entonces la solución de la ecuación diferencial de segundo orden asociada será:
y(x) = c1 e(a+ib)x + c2 e(a−ib)x = c1 eax eibx + c2 eax e−ibx = eax c1 eibx + c2 e−ibx
eli
si utilizamos la fórmula de Euler
lo que viene a ser una segunda manera de escribir la solución de la ecuación diferencial.
7.1.4. Ejemplos
1. Queremos encontrar la solución general de
or
y 000 + 2y 00 − y 0 − 2y = 0 .
m1 = 1
m3 + 2m2 − m − 2 = 0 ⇒ m2 = −1
m3 = −2
y 0000 − 3y 00 + 2y 0 = 0 .
240
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES
la solución será
y(x) = c1 + (c2 + c3 x) ex + c4 e−2x .
r
3. Encontremos la solución general de
a
y 0000 + 2y 00 + 1 = 0 .
in
m1 =i
m2 =i
2
m4 + 2m2 + 1 = 0 ⇒ m2 + 1 = 0 ⇒
m3 = −i
m
m4 = −i
eli
4. Veamos otro ejemplo, encontrar la solución general de
la solución será:
or
a estudiar una herramienta que es utilizada para demostrar que un conjunto de soluciones es linealmente
independiente. Hablaremos de el wronskiano.
Pero primero que todo recordemos el concepto de independencia y dependencia lineal de funciones.
241
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES
r
Por el contrario, si no existe ninguna constante ci 6= 0, se dirá que S es linealmente independiente.
a
7.2.1. El wronskiano
in
Definición: Wronskiano.
El conjunto S = {f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x)} de funciones, cuando menos n − 1 veces
diferenciables, conforman el wronskiano,
m
W (S) = W (f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x))
···
f1 (x) f2 (x) fn (x)
eli
f10 (x) 0
··· fn0 (x)
f 2 (x)
W (S) = .. .. ..
..
. . . .
(n−1) (n−1) (n−1)
f
1 (x) f2 (x) · · · fn (x)
Pr
Si W (S) 6= 0 al menos en un punto dentro del intervalo I, entonces S es linealmente independiente
n
X
f (x) = ci fi (x) = c1 f1 (x) + c2 f2 (x) + · · · + cn fn (x)
i=1
también es solución de la ecuación diferencial (7.6) y se denomina como solución general de (7.6).
rr
Adicionalmente, si los coeficientes ai (x) son continuos en el intervalo abierto I, para todo i =
1, 2, · · · , n, entonces la ecuación diferencial (7.6) tiene un conjunto fundamental de n soluciones lineal-
mente independientes.
Bo
242
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES
Si yp (x) es solución de (7.7) sin constantes arbitrarias, entonces yp (x) se denomina solución particular
de (7.7). De igual modo, se denominará solución general de (7.7) a la suma de la solución, yh (x), de la
ecuación homogénea (7.6) más la solución particular:
r
y(x) = yh (x) + yp (x) .
a
Anteriormente vimos que la solución general de la ecuación diferencial
in
an y (n) (x) + an−1 y (n−1) (x) + · · · + a2 y 00 (x) + a1 y 0 (x) + a0 y(x) = Q(x) ,
m
donde yh (x) es la solución de la ecuación diferencial homogénea asociada a la no homogénea, es decir, cuando
Q(x) = 0, y yp (x) es una solución particular de la ecuación diferencial no homogénea.
Como ya sabemos de un método para resolver la ecuación homogénea queda preguntarse como se hace
para calcular una solución particular. Veamos algunos métodos.
eli
7.2.2. El método de los coeficientes indeterminados
Este método se utiliza si la función Q(x) esta conformada por funciones que tienen un número finito
de derivadas linealmente independientes, es decir, que Q(x) contenga únicamente términos del tipo: a, xk ,
Pr
eax , sen (ax), cos(ax) y combinaciones lineales de tales términos. Por ejemplo, si Q(x) = sen(ax) podemos
construir un conjunto con las derivadas sucesivas, esto es:
sen (ax) → a cos(ax) , −a2 sen (ax) , −a3 cos(ax) , a4 sen (ax) . . .
pero de este conjunto infinito únicamente las funciones: {sen (ax) , cos(ax)} son linealmente independientes.
or
x3
2
→ 3x , 6x , 6
1 1 2 6
→ − 2 , 3 , − 4 ,...
ad
x x x x
Podemos estudiar el wronskiano de este conjunto de funciones para ver si son linealmente independientes.
Para el ejemplo anterior tenemos
f1 (x) f2 (x) sen (ax) cos(ax)
rr
Volviendo al punto que tiene que ver con la búsqueda de yp (x), para el método de los coeficientes
indeterminados necesitamos comparar los términos de Q(x) con los de yh (x) y pueden resultar los siguientes
casos:
243
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES
Caso 1 La funciones Q(x) y yh (x) no contienen términos en común. En este caso, se construye una solución
particular yp (x) con el conjunto conformado por Q(x) y todas sus derivadas linealmente independientes.
Por ejemplo, encuentremos la solución general de
y 00 + 4y 0 + 4y = 4x2 + 6ex .
r
Queda claro que Q(x) y yh (x) no contienen términos en común. La solución particular la construiremos
a
de esta manera:
Q(x) = 4x2 + 6ex →
2
∪ {ex }
x , x, 1
in
| {z } |{z}
x2 ex
No hace falta tomar en cuenta las constantes. La solución particular será una combinación lineal de
los elementos que resultan de la unión de esos conjuntos
m
yp (x) = Ax2 + Bx + C + Dex
eli
Una vez que la solución es propuesta, no queda más que derivar y sustituir en la ecuación diferencial
problema:
igualando coeficientes
or
4A = 4
8A + 4B = 0 3 2
⇒ A = 1 , B = −2 , C = ,D= ,
2A + 4B + 4C = 0 2 3
ad
9D = 6
2 3
Caso 2 Los términos de Q(x) aparecen como xk veces un término de la solución yh (x), donde k es un entero
positivo. Esto es, si la función yh (x) contiene un término, digamos u(x), tal que un término de Q(x)
Bo
es xk u(x) entonces una solución particular se puede construir con una combinación lineal de xk+1 u(x)
y todas las derivadas linealmente independientes. En todo lo anterior se ignoran las constantes. Si
Q(x) contienen términos que cumplen con el Caso 1 estos también deben ser agregados a la solución
particular.
244
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES
y 00 − 3y 0 + 2y = 2x2 + 3e2x .
yh (x) = c1 ex + c2 |{z}
e2x
u(x)
r
Notemos que
u(x)
a
z}|{
2 2x 2x
Q(x) = 2x + 3 |{z}
e → e = x e2x
0
→ k = 0.
in
La solución particular se puede construir a partir del siguiente conjunto:
2x 2x 2
xe , e ∪ x , x, 1
| {z } | {z }
x0+1 e2x x2
m
Del primer conjunto no tomamos en cuenta el término e2x porque éste ya aparece en yh (x). Por lo
tanto, la solución particular será una combinación lineal de los elementos que resultan de la unión de
esos conjuntos: 2x 2
eli
xe , x , x , 1 ,
esto significa que proponemos como solución particular la siguiente:
Derivando:
Pr
yp0 (x) = 2Ax + B + 2Dxe2x + De2x
yp00 (x) = 2A + 4Dxe2x + 4De2x .
Igualando coeficientes
ad
2A = 2
2B − 6A = 0 7
⇒ A = 1, B = 3, C = , D = 3,
2A − 3B + 2C = 0 2
D = 3
rr
245
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES
1. La ecuación caracterı́stica de la ecuación diferencial homogénea tiene una raı́z multiple que se
repite r veces.
2. Q(x) contiene un término que es xk veces un término, digamos u(x), de la solución yh (x). La
función u(x) se obtiene de la raı́z múltiple.
En este caso, la solución particular será una combinación lineal de xk+r u(x) y todas las derivadas
linealmente independientes. Si además Q(x) contiene términos que correspondan al Caso 1 estos deben
agregarse.
r
Por ejemplo, dada la ecuación
y 00 + 4y 0 + 4y = 3xe−2x .
a
Si resolvemos la ecuación homogénea: y 00 + 4y 0 + 4y = 0, encontraremos que
in
yh (x) = c1 e−2x + c2 x |{z}
e−2x ⇒ m1 = −2 , m2 = −2 ⇒ r = 2
u(x)
Notemos que
m
u(x)
z}|{
−2x −2x
| {z } ⇒ xe
Q(x) = 3 xe = x1 e−2x ⇒ k = 1 .
eli
3 −2x 2 −2x
, xe−2x , e−2x
x e ,x e
| {z }
x1+2 e−2x
No tomaremos en cuenta los términos xe−2x , e−2x porque estos ya aparecen en yh (x). Por lo tanto,
Pr
la solución particular será la siguiente combinación lineal
Se deriva
yp00 (x) = 4Ax3 e−2x − 12Ax2 e−2x + 6Axe−2x + 4Bx2 e−2x − 8Bxe−2x + 2Be−2x
4 −2Ax3 e−2x + 3Ax2 e−2x − 2Bx2 e−2x + 2Bxe−2x + 4 Ax3 e−2x + Bx2 e−2x = 3xe−2x
igualando coeficientes
6A = 3 1
⇒ A= , B = 0,
2B = 0 2
Bo
246
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES
an y (n) (x) + an−1 y (n−1) (x) + · · · + a2 y 00 (x) + a1 y 0 (x) + a0 y(x) = Q(x) , (7.8)
r
Por simplicidad, para desarrollar este método vamos a considerar el caso n = 2, luego veremos como
a
generalizar al caso de orden n. Es decir, vamos a estudiar la ecuación
in
donde Q(x) es una función continua y diferente de cero. Si y1 (x) y y2 (x) son un par de soluciones linealmente
independientes de la ecuación diferencial homogénea asociada a (7.9), es decir, de la ecuación
m
entonces, vamos a proponer que una solución particular de la ecuación (7.9) es de la forma:
eli
donde u1 (x) y u2 (x) son dos funciones a determinar.
Derivando:
yp0 (x) = u01 (x)y1 (x) + u1 (x)y10 (x) + u02 (x)y2 (x) + u2 (x)y20 (x)
=
Pr
[u1 (x)y10 (x) + u2 (x)y20 (x)] + [u01 (x)y1 (x) + u02 (x)y2 (x)]
yp00 (x) = u001 (x)y1 (x) + u01 (x)y10 (x) + u01 (x)y10 (x) + u1 (x)y100 (x)
+ u002 (x)y2 (x) + u02 (x)y20 (x) + u02 (x)y20 (x) + u2 (x)y200 (x)
0
= [u1 (x)y100 (x) + u2 (x)y200 (x)] + [u01 (x)y10 (x) + u02 (x)y20 (x)] + [u01 (x)y1 (x) + u02 (x)y1 (x)]
0
a2 [u1 (x)y100 (x) + u2 (x)y200 (x)] + a2 [u01 (x)y10 (x) + u02 (x)y20 (x)] + a2 [u01 (x)y1 (x) + u02 (x)y2 (x)] +
a1 [u1 (x)y10 (x) + u2 (x)y20 (x)] + a1 [u01 (x)y1 (x) + u02 (x)y2 (x)] + a0 [u1 (x)y1 (x) + u2 (x)y2 (x)] = Q(x)
ad
acomodando términos:
=0 =0
z }| { z }| {
u1 (x) [a2 y100 (x) + a1 y10 (x) + a0 y1 (x)] + u2 (x) [a2 y200 (x) + a1 y20 (x) + a0 y2 (x)] +
0
a2 [u01 (x)y10 (x) + u02 (x)y20 (x)] + a2 [u01 (x)y1 (x) + u02 (x)y2 (x)] + a1 [u01 (x)y1 (x) + u02 (x)y2 (x)] = Q(x)
rr
Es claro que lo que tenemos es una ecuación con dos incógnitas: u01 (x) y u02 (x), pero como buscamos una
solución particular podemos tomar de esta última ecuación el siguiente caso:
Bo
u0 (x)y1 (x) + u02 (x)y2 (x) = 0
1
(7.12)
Q(x)
u01 (x)y10 (x) + u02 (x)y20 (x) =
a2
247
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES
r
u1 (x) = G1 (x) dx , u2 (x) = G2 (x) dx
a
por lo tanto, la solución general es:
in
y(x) = C1 y1 (x) + C2 y2 (x) + u1 (x) y1 (x) + u2 (x) y2 (x) .
m
será una solución particular de la ecuación no homogénea, donde y1 (x), y2 (x), . . . , yn (x) son las n soluciones
linealmente independientes de la ecuación diferencial homogénea.
Sustituyendo la ecuación (7.13), para la solución particular, en la ecuación diferencial y siguiendo el
eli
mismo procedimiento que para el caso de orden 2 se tendrı́a que resolver el siguiente sistema de ecuaciones:
u01 (x)y1 (x) + u02 (x)y2 (x) + · · · + u0n (x)yn (x) = 0
u01 (x)y10 (x) + u02 (x)y20 (x) + · · · + u0n (x)yn0 (x) = 0
..
.
..
.
Pr
..
.
..
.
..
.
..
.
..
.
..
.
.
= ..
Q(x)
u01 (x)y1(n−1) (x) + u02 (x)y2(n−1) (x) + · · · + u0n (x)yn(n−1) (x) =
an
Consideremos un ejemplo, encontremos la solución general de
y 00 − 3y 0 + 2y = sen e−x .
or
Cuando se resuelve la ecuación diferencial homogénea asociada a la ecuación diferencial del problema se tiene
y 00 − 3y 0 + 2y = 0 ⇒ yh (x) = C1 ex + C2 e2x ,
ad
x
0 e2x e 0
sen (e−x ) 2e2x −x
x
−e2x sen (e−x ) e sen (e ) ex sen (e−x )
u01 (x) = x
2x
= , u02 (x) = x 2x
=
e
x e 2x e3x ex e 2x e3x
e 2e e 2e
248
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES
a r
Figura 7.1: A la izquierda la solución y(x) = 52 e−4x + 35 ex y a la derecha la solución y(x) = C1 e−4x + C2 ex
in
para C1 = {−1, 0, 1} y C2 = {−1, 0, 1}
m
Integrando por partes:
eli
ex e2x
La solución particular es entonces:
yp (x) = − cos e−x ex + −sen e−x + e−x cos e−x e2x = −e2x sen e−x ,
7.2.4. Ejemplos
or
1. La ecuación
a y 00 + b y 0 + c y = 0 ⇔ a r2 + b r + c = 0
tiene asociada ese polinomio caracterı́stico y sus raı́ces m1 y m2 condicionan la solución de la manera
siguiente:
ad
y = C1 em1 x + C2 em2 x
rr
y = C1 em1 x + C2 xem1 x
Bo
249
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES
a r
in
Figura 7.2: y(x) = C1 e−x + C2 xe−x para C1 = {−1, 0, 1} y C2 = {−1, 0, 1}
m
2. La ecuación
tiene asociado ese polinomio caracterı́stico y por lo tanto tiene como solución general
eli
2 −4x 3 x
y(x) = C1 e−4x + C2 ex y como solución particular y(x) = e + e
5 5
En la figura 7.1 se encuentra graficada esa solución particular. De igual modo, para distintos valores
Pr
de C1 = {−1, 0, 1} y C2 = {−1, 0, 1} tendremos las gráficas representadas en la figura 7.1 ¿Cuáles son
las condiciones iniciales a las cuales corresponden esos valores de las constantes?
3. Otra ejemplo es el siguiente, dada la ecuación
figura 7.2. Cabe seguir preguntando ¿Cuáles son las condiciones iniciales a las cuales corresponden esos
valores de las constantes?
4. Finalmente, la ecuación
con las siguientes soluciones r = −2 ± 4i y por lo tanto tiene como solución general
250
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES
a r
Figura 7.3: A la izquierda la solución y(x) = e−2x 3 cos 4x + 54 sen4x y a la derecha la solución y(x) =
in
e−2x (C1 cos 4x + C2 sen4x) para C1 = {−1, 0, 1} y C2 = {−1, 0, 1}
m
La representación gráfica se encuentra en la figura 7.3 y para distintos valores de las constantes. Al
igual que en los casos anteriores, para distintos valores de las constantes de integración, tendremos las
gráficas de la figura 7.3
5. Otro ejemplo interesante es la ecuación inhomogénea de Cauchy1 -Euler2
eli
a0 y(x) + a1 x y 0 (x) + · · · + an xn y (n) (x) = F(x)
con los ai = ctes, puede ser resuelta por este método. Consideremos una ecuación de orden 2
Pr
c y(x) + b x y 0 (x) + a x2 y 00 (x) = F(x)
xm (c + bm + am(m − 1)) = 0
or
por lo tanto
am2 + (b − a)m + c = 0
ad
con p
−(b − a) ± (b − a)2 − 4ac
m=
2a
por lo tanto
rr
yh = C1 xm1 + C2 xm2
1 Louis Augustin Baron de Cauchy (1789-1857). Matemático francés, uno de los creadores del análisis matemático
Bo
moderno. Estudió, entre otras cuestiones, los criterios de convergencia de series, las funciones de variable compleja y los sistemas
de ecuaciones diferenciales
2 Leonhard Euler (1707-1783). Matemático suizo. Destacó en el estudio de diversas cuestiones del cálculo logarı́tmico y
251
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES
yh = xm1 (C1 + C2 ln x)
r
y1h = xm1 y2h = xm2
a
xm 2 xm2
0 0
F (x) F (x)
m2 xm2 −1 m2 xm2 −1
in
a x2 = a x2
u01 = m1 m2
= G1 (x)
x x W (y1 , y2 )
m1 xm1 −1 m2 xm2 −1
xm 1 xm 1
0 0
m
F (x) F (x)
m1 x 1m −1 m1 −1
a x2
m 1 x a x2
u02 = = = G2 (x)
xm 1 xm 2 W (y 1 , y2 )
m1 xm1 −1 m2 xm2 −1
eli
La siguiente ecuación diferencial
1
x2 y 00 − xy 0 + 5y =
x
tiene como solución de la homogénea
Pr
yh = x (C1 cos(2 ln x) + C2 sen(2 ln x))
xsen(2 ln x) x1
Z Z
1
u1 = G1 (x) dx = dx = cos(2 ln x)
2x 4
x cos(2 ln x) x1
Z Z
1
u2 = G2 (x) dx = dx = sen(2 ln x)
2x 4
rr
4 4 4
y la general
1
y = x (C1 cos(2 ln x) + C2 sen(2 ln x)) + x
4
252
7.3. LINEALES NO HOMOGÉNEAS CON COEFICIENTES NO CONSTANTES
fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = Q(x) , (7.14)
r
donde f0 (x), f1 (x), . . . , fn (x) y Q(x) son funciones continuas de x en un intervalo común I, además fn (x) 6= 0.
a
7.3.1. Método de reducción del orden
in
Para aplicar este método, primero que todo, debemos poder encontrar una solución (no trivial) de la
ecuación diferencial homogénea asociada a (7.14)
fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = 0 . (7.15)
m
Consideremos, por simplicidad, el caso n = 2:
eli
y sea y1 (x) una solución (no trivial) de la ecuación diferencial homogénea asociada a (7.16):
El método permitirá encontrar una segunda solución de la ecuación homogénea y también una solución
particular de (7.16).
Pr
Sea y2 (x) una segunda solución de la ecuación diferencial homogénea y vamos a suponer que tiene la
forma Z
y2 (x) = y1 (x) u(x)dx , (7.18)
Z
y20 (x) = y1 (x)u(x) + y10 (x) u(x)dx (7.19)
Z
y200 (x) = y1 (x)u0 (x) + 2y10 (x)u(x) + y100 (x) u(x)dx (7.20)
ad
Z
+f0 (x) y1 (x) u(x)dx = 0
Z
[f2 (x)y100 (x) + f1 (x)y10 (x) + f0 (x)y1 (x)] u(x)dx + f2 (x)y1 (x)u0 (x) + [2f2 (x)y10 (x) + f1 (x)y1 (x)] u(x) = 0
Bo
f2 (x)y1 (x)u0 (x) + [2f2 (x)y10 (x) + f1 (x)y1 (x)] u(x) = 0 , (7.21)
253
7.3. LINEALES NO HOMOGÉNEAS CON COEFICIENTES NO CONSTANTES
acomodando términos
Z Z Z
du dy1 (x) f1 (x) du dy1 (x) f1 (x)
+2 =− dx ⇒ +2 =− dx
u y1 (x) f2 (x) u y1 (x) f2 (x)
esto es:
Z
f1 (x)
ln |u(x)| + 2 ln |y1 (x)| = − dx
f2 (x)
r
Z
f1 (x)
ln |u(x)(y1 (x))2 | = − dx
f2 (x)
a
Z
2 f1 (x)
u(x)(y1 (x)) = exp − dx
f2 (x)
in
Z
1 f1 (x)
u(x) = exp − dx
(y1 (x))2 f2 (x)
Por lo tanto, si logramos integrar esta última ecuación estaremos encontrando una segunda solución
m
linealmente independiente de (7.17):
Z Z
1 f1 (x)
y2 (x) = y1 (x) exp − dx dx . (7.22)
(y1 (x))2 f2 (x)
eli
Consideremos el siguiente ejemplo para encontrar la solución general de
x2 y 00 + xy 0 − y = 0 ,
Pr
donde y1 = x es una solución de la ecuación diferencial y x 6= 0.
Como esta ecuación es de orden 2, podemos ir directamente a la ecuación (7.22) en lugar de hacer el
desarrollo nuevamente, esto es:
Z Z Z Z
1 x 1 1 1
y2 (x) = x 2
exp − 2
dx dx = x 2
exp [− ln |x|] dx = x 3
dx = −
x x x x 2x
or
por lo tanto:
1
yh (x) = C1 x + C2 .
x
Si queremos encontrar una solución particular de la ecuación no homogénea (7.16), también podemos
ad
utilizar la solución de prueba (7.18). Repitiendo los cálculos que nos llevaron a la ecuación (7.21) resultará
que ahora tenemos:
f2 (x)y1 (x)u0 (x) + [2f2 (x)y10 (x) + f1 (x)y1 (x)] u(x) = Q(x)
0
0 y1 (x) f1 (x) Q(x)
u (x) + 2 + u(x) = (7.23)
rr
y esta ecuación es simplemente una ecuación diferencial lineal de primer orden para u(x). Esto significa que
debemos encontrar el factor integrador
Bo
Z 0
y1 (x) f1 (x)
µ(x) = exp 2 + dx
y1 (x) f2 (x)
254
7.3. LINEALES NO HOMOGÉNEAS CON COEFICIENTES NO CONSTANTES
r
x2 y 00 + xy 0 − y = 0 ⇒ y1 (x) = x , y2 (x) = x−1
a
Podemos entonces proponer la siguiente solución particular para la ecuación diferencial no homogénea:
Z
in
yp (x) = x u(x)dx ,
En lugar de repetir los cálculos que consisten en derivar yp (x) un par de veces y sustituir en la ecuación
diferencial problema, podemos ir directamente al grano pues ya sabemos el resultado, esto es, la ecuación
m
(7.23):
1 x x 3 1
u (x) + 2 + 2 u(x) = 3 ⇒ u0 (x) + u(x) = 2
0
x x x x x
el factor integrador para esta ecuación es
eli
3 3
R
µ(x) = e x dx = eln |x| = x3
por lo tanto:
1
u(x) = 3
Z
x3 C
dx + 3 ⇒
Pr 1
u(x) = 3
Z
xdx +
C
⇒ u(x) =
1 x2 C
+ 3
x x2 x x x3 x3 2 x
Como lo que queremos es una solución particular podemos omitir la constante de integración:
1
u(x) =
2x
or
x
y(x) = C1 x + C2 x−1 + ln |x| .
2
3 Louis Augustin Baron de Cauchy (1789-1857). Matemático francés, uno de los creadores del análisis matemático
moderno. Estudió, entre otras cuestiones, los criterios de convergencia de series, las funciones de variable compleja y los sistemas
de ecuaciones diferenciales.
4 Leonhard Euler (1707-1783). Matemático suizo. Destacó en el estudio de diversas cuestiones del cálculo logarı́tmico y
255
7.3. LINEALES NO HOMOGÉNEAS CON COEFICIENTES NO CONSTANTES
donde los ai son constantes. Esta ecuación puede ser resuelta por el método que se describe a continuación.
Consideremos, por razones de simplicidad, una ecuación de orden 2:
Propondremos que la ecuación homogénea tiene como solución una función de la forma: y = xm , esto es:
r
xm [a2 m(m − 1) + a1 m + a0 ] = 0
a
por lo tanto
p
2 −(a1 − a2 ) ± (a1 − a2 )2 − 4a2 a0
in
a2 m + (a1 − a2 )m + a0 = 0 ⇒ m= .
2a2
Esto significa que se pueden presentar los siguientes casos:
m
1. Si m1 6= m2 y ambas reales, entonces la solución de la homogénea será
yh = C1 xm1 + C2 xm2
eli
2. Si m1 = m2 = m y ambas reales, entonces la solución de la homogénea será
yh = xm (C1 + C2 ln |x|)
Para buscar la solución de la ecuación inhomogénea vamos a suponer el caso m1 6= m2 , por lo tanto,
tomaremos como punto de partida las dos soluciones linealmente independientes de la ecuación homogénea:
y1 = xm1 y2 = xm2 .
or
Podemos aplicar el método de variación de parámetros que vimos anteriormente. (Queda como ejercicio
repetir los cálculos que llevaron al sistema (7.12)). Por lo tanto, en nuestro caso resulta que
ad
0
xm 2
xm1 0
Q(x) Q(x)
m2 −1 m1 −1
a x2 m2 x m
1
x
2
a2 x2
u01 = = G1 (x) , u0
2 =
= G2 (x)
xm 1 xm 2 xm1 xm2
m1 xm1 −1 m2 xm2 −1 m1 xm1 −1 m2 xm2 −1
rr
256
7.3. LINEALES NO HOMOGÉNEAS CON COEFICIENTES NO CONSTANTES
r
sen(2 ln |x|)
Z Z
1
u1 = G1 (x) dx = dx = cos(2 ln |x|) ,
2x 4
a
cos(2 ln |x|)
Z Z
1
u2 = G2 (x) dx = dx = sen(2 ln |x|) ,
2x 4
in
finalmente las solución particular será
1 1 1
yp = x cos2 (2 ln |x|) + sen2 (2 ln |x|) = x ,
4 4 4
m
por lo tanto, la solución general es:
1
y = x [C1 cos(2 ln |x|) + C2 sen(2 ln |x|)] + x .
4
eli
La ecuación de Euler puede representarse de una manera más general:
a0 y(x) + a1 (x − x0 )y 0 (x) + · · · + an (x − x0 )n y (n) (x) = Q(x) , (7.26)
donde x0 también es una constante. El siguiente cambio de variable:
Pr
x − x0 = eu ⇒ u = ln(x − x0 )
transforma la ecuación de Euler en una ecuación lineal con coeficientes constantes. Para ver esto, consideremos
el caso n = 3, es decir:
a0 y(x) + a1 (x − x0 )y 0 (x) + a2 (x − x0 )2 y 00 (x) + a3 (x − x0 )3 y 000 (x) = Q(x) . (7.27)
or
Notemos que:
dy dy dx dy
= = (x − x0 )
du dx du dx
d2 y dy 2
2d y
ad
− = (x − x0 )
du2 du dx2
d3 y d2 y dy d3 y
3
− 3 2
+2 = (x − x0 )3 3 ,
du du du dx
al sustituir en la ecuación (7.27) resulta:
rr
2
1 dy 1 d y dy
a0 y(u) + a1 (x − x0 ) + a2 (x − x0 )2 −
(x − x0 ) du (x − x0 )2 du2 du
3 2
1 d y d y dy
Bo
+ a3 (x − x0 )3 −3 2 +2 = Q(u)
(x − x0 )3 du3 du du
2 3
d2 y
dy d y dy d y dy
a0 y(u) + a1 + a2 − + a3 − 3 + 2 = Q(u) ,
du du2 du du3 du2 du
257
7.3. LINEALES NO HOMOGÉNEAS CON COEFICIENTES NO CONSTANTES
factorizando:
dy d2 y d3 y
a0 y(u) + (a1 − a2 + 2a3 )+ (a2 − 3a3 ) 2 + a3 3 = Q(u) .
du du du
Esta última es una ecuación diferencial lineal con coeficientes constantes que ya sabemos resolver.
7.3.3. Ejemplos
7.3.4. Practicando con Maxima
r
7.3.5. Ejercicios
a
cos(x) es una solución particular de y 00 −3y 0 +2y =
1 3
1 3
1. Si yp (x) = 10 cos(x) − 10 sen(x) +i 10 sen(x) + 10
eix . Encuentre una solución particular de:
in
a) y 00 − 3y 0 + 2y = cos(x).
b) y 00 − 3y 0 + 2y = sen(x).
Verifique la validez de los resultados.
m
2. Demuestre que la solución yh (x) = eax [C1 cos(bx) + i C2 sen(bx)] se puede escribir de alguna de las
siguientes formas:
yh (x) = Ceax sen(bx + D) o yh (x) = Ceax sen(bx − D)
eli
donde C y D son constantes.
3. Resuelva las siguientes ecuaciones diferenciales
a) y 00 + 2y = 0
Pr
b) y 00 − 3y + 2y = 0
c) y 00 − y = 0
d ) y 000 + y 00 − 6y 0 = 0
e) y 00 + 3y + 2y = 4
f ) y 00 + 3y + 2y = 12ex
or
g) y 00 + 3y + 2y = sen(x)
h) y 00 + 3y + 2y = cos(x)
i ) y 00 + 3y + 2y = 8 + 6ex + 2sen(x)
ad
a) x2 y 00 + xy 0 − 4y = x3 , y1 (x) = x2
b) x2 y 00 + xy 0 − y = x2 e−x , y1 (x) = x
6. Resuelva las siguientes ecuaciones de Euler
258
7.3. LINEALES NO HOMOGÉNEAS CON COEFICIENTES NO CONSTANTES
a) (x − 3)2 y 00 + (x − 3)y 0 + y = x, x 6= 3
2 00 0
b) x y + xy = 0, x 6= 0
c) x y + 2x y − xy 0 + y = x,
3 000 2 00
x 6= 0
7. Resuelva utilizando el método de variación de parámetros y verifique los resultados
a) y 00 + y = sec(x)
b) y 00 + y = sec3 (x)
r
c) y 00 + 3y 0 + 2y = 12ex
a
d ) y 00 + y = 4xsen(x)
e) x2 y 00 − xy 0 + y = x, y1h = x, y2h = x ln(x)
in
00 2 0 2
f) y − xy + x2 y = x ln(x), y1h = x, y2h = x2
g) x2 y 00 + xy 0 − 4y = x3 , y1h = x2 , y2h = x−2
8. Resuelva utilizando el método de reducción del orden y verifique los resultados
m
a) x2 y 00 − xy 0 + y = 0, y1h = x
b) y 00 − 2 0
xy + 2
x2 y = 0, y1h = x
c) (2x2 + 1)y 00 − 4xy 0 + 4y = 0, y1h = x
eli
d ) 2x2 y 00 + 3xy 0 − y = 0, y1h = x1/2
2 00 0 3
e) x y + xy − 4y = x , y1h = x2
f ) y 00 + (x2 − 1)y 0 − x2 y = 0, y1h = ex
g) x2 y 00 − 2y = 2x2 , y1h = x2
Pr
9. Demuestre que las siguientes sustituciones
R R R R
y=e y1 (x)dx
, y 0 = y1 (x)e y1 (x)dx
, y 00 = y12 (x)e y1 (x)dx
+ y10 (x)e y1 (x)dx
,
f0 (x) f1 (x)
y10 = − − y1 − y12
ad
f2 (x) f2 (x)
R
donde, si y1 (x) es solución de la ecuación de Riccati, entonces y = e y1 (x)dx es solución de la ecuación
lineal. Aplique las sustituciones anteriores para trasformar la ecuación
rr
xy 00 − y 0 − x3 y = 0.
259
7.4. EL OPERADOR DIFERENCIAL Y LAS ECUACIONES DIFERENCIALES
r
Es posible construir la siguiente combinación lineal con los operadores diferenciales:
a
P (D) = a0 + a1 D + a2 D2 + · · · + an Dn , an 6= 0 . (7.28)
donde a2 , a1 , a2 , . . . an son constantes. A este nuevo objeto lo podemos llamar el operador polinomial de orden
in
n.
La utilidad de este objeto matemático quedará clara si hacemos la siguiente definición
P (D)y ≡ an Dn + an−1 Dn−1 + · · · + a2 D2 + a1 D + a0 y
m
= an Dn y + an−1 Dn−1 y + · · · + a2 D2 y + a1 Dy + a0 y
= an y (n) + an−1 y (n−1) + · · · + a2 y 00 + a1 y 0 + a0 y . (7.29)
Por otro lado, recordemos que una ecuación diferencial lineal de orden n con coeficientes constantes es
eli
una ecuación de la forma
an y (n) + an−1 y (n−1) + · · · + a2 y 00 + a1 y 0 + a0 y = Q(x) , (7.30)
por lo tanto, (7.30) se puede escribir de una manera compacta como
Pr P (D)y = Q(x) . (7.31)
El operador polinomial es lineal, esto significa que tiene las siguientes propiedades
Si f1 (x) y f2 (x) son dos funciones diferenciables de orden n, entones
P (D) [αf1 (x) + βf2 (x)] = αP (D)f1 (x) + βP (D)f2 (x)
donde α y β son constantes. Además:
or
Si y1 (x), y2 (x), . . . , yn (x) son n soluciones de la ecuación diferencial homogénea P (D)y = 0 entonces
yh (x) = C1 y1 (x) + C2 y2 (x) + · · · + Cn yn (x) es también una solución.
Si yh (x) es una solución de P (D)y = 0 y yp (x) es una solución de P (D)y = Q(x) entonces y(x) =
ad
260
7.4. EL OPERADOR DIFERENCIAL Y LAS ECUACIONES DIFERENCIALES
Por alguno de los métodos anteriormente vistos podemos encontrar las soluciones particulares de cada
una de las siguientes ecuaciones
D 2 + 1 y = x2 , D2 + 1 y = xe2x , D2 + 1 y = 3
r
2 1 2x 4
yp1 (x) = x − 2 , yp2 (x) = xe − e2x , yp3 (x) = 3
5 5
a
por lo tanto, una solución particular de la ecuación diferencial problema es
in
2 1 2x 4 2x 2 1 2x 4 2x
yp (x) = x − 2 + xe − e +3=x +1+ xe − e .
5 5 5 5
Al operador diferencial también se le pueden agregar las siguientes propiedades. Consideremos los ope-
radores
m
P1 (D) = an Dn + an−1 Dn−1 + · · · + a2 D2 + a1 D + a0 (7.32)
n n−1 2
P2 (D) = bn D + bn−1 D + · · · + b2 D + b1 D + b0 (7.33)
eli
con n ≥ m.
(P1 +P2 )f (x) = P1 f (x)+P2 f (x) = an Dn + · · · + an Dn + · · · + (a2 + b2 )D2 + (a1 + b1 )D + a0 + b0 f (x)
[g(x)P (D)] f (x) = g(x) [P (D)f (x)]
Pr
g(x) [P1 (D) + P2 (D)] f (x) = g(x) [P1 (D)f (x)] + g(x) [P2 (D)f (x)]
[P1 (D)P2 (D)] f (x) = P1 (D) [P2 (D)f (x)]
Si el operador polinomial diferencial puede ser factorizado, es decir, si:
P (D) = an Dn + an−1 Dn−1 + · · · + a2 D2 + a1 D + a0 = an (D − m1 )(D − m2 ) · · · (D − mn ) ,
las cantidades: m1 , m2 , . . . , mn son las raices de la ecuación caracterı́stica de P (D)y = 0.
or
Si
P (D) = an Dn + an−1 Dn−1 + · · · + a2 D2 + a1 D + a0 ,
es un operador polinomial de orden n, entonces:
ad
n n−1 2
P (D + a) = an (D + a) + an−1 (D + a) + · · · + a2 (D + a) + a1 (D + a) + a0
donde a es una constante.
Por ejemplo:
rr
= (D + 1) (D − 3) sen(x) + x2
261
7.4. EL OPERADOR DIFERENCIAL Y LAS ECUACIONES DIFERENCIALES
Teorema: Si
P (D) = an Dn + an−1 Dn−1 + · · · + a2 D2 + a1 D + a0
es un operador polinomial diferencial con coeficientes constantes y u(x) es una función n veces diferen-
ciable, entonces:
P (D) [ueax ] = eax P (D + a)u ,
donde a es una constante.
r
D2 − D + 3 x3 e−2x
a
Al comparar la forma de esta expresión con la de teorema anterior, vemos que a = −2 y u(x) = x3 .
in
Por lo tanto, si hacemos
2
P (D − 2) = (D − 2) − (D − 2) + 3 = D2 − 5D + 9
se obtiene que
m
D2 − D + 3 x3 e−2x = e−2x (D − 2) x3 = e−2x D2 − 5D + 9 x3 = e−2x 9x3 − 15x2 + 6x .
eli
El método puede aplicarse a ecuaciones diferenciales de orden n, ya que si se tiene que
(D − m1 )(D − m2 ) · · · (D − mn )y = Q(x) ,
(D − m1 )u = Q(x) .
or
(D − m2 )(D − m3 ) · · · (D − mn )y = u(x)
Repitiendo el proceso,
ad
v = (D − m3 ) · · · (D − mn )y ⇒ (D − m2 )v = u(x)
Integrando:
(D − m3 ) · · · (D − mn )y = v(x)
Esta repetición nos llevará entonces hasta la solución y(x).
rr
y 000 + 2y 00 − y 0 − 2y = e2x .
262
7.4. EL OPERADOR DIFERENCIAL Y LAS ECUACIONES DIFERENCIALES
r
(D + 1) (D + 2) y = e2x + C1 ex
a
Repetimos el proceso, pero ahora hacemos v = (D + 2) y, por lo tanto
in
1 2x C1 x
(D + 1) v = e2x + C1 ex ⇒ v 0 + v = e2x + C1 ex ⇒ v = e + e + c2 e−x
3 2
Conocida v, entonces
m
1 2x C1 x
(D + 2) y = e + e + c2 e−x
3 2
Integrando una vez más:
eli
1 2x C1 x 1 2x
y 0 + 2y = e + e + c2 e−x ⇒ y(x) = e + C1 ex + c2 e−x + C3 e−2x .
3 2 12
Notemos que existe una manera bastante sencilla de resolver la ecuación combinando varios métodos. Si
buscamos yh (x) a través de la ecuación caracterı́stica se obtiene que la solución es: yh (x) = C1 ex + c2 e−x +
C3 e−2x . Ahora bien, una solución particular se obtiene al considerar u(x) = e2x entonces v = 13 e2x y por lo
1 2x
tanto yp (x) = 12 e .
Pr
7.4.3. El operador inverso
Los operadores suelen tener su inversa, esto significa que si
donde yp (x) es una solución particular de P (D)y = Q(x). Notemos que esto significa que
Z Z Z
−n
ad
D Q(x) = ···
|{z} Q(x)dx .
n veces
263
7.4. EL OPERADOR DIFERENCIAL Y LAS ECUACIONES DIFERENCIALES
Esta última notación resulta ser a veces más conveniente y dependiendo de la forma de Q(x) puede resultar
algunas veces de fácil solución.
En general, se tiene que sı́
entonces
1 1
yp = [Q(x)] = [Q(x)]
r
P (D) a0 1 + a1 a2 2 + ··· + an−1 n−1 an n
a0 D + a0 D a0 D + a0 D
a
1
1 + c1 D + c2 D2 + · · · + cn−1 Dn−1 + cn Dn [Q(x)] , a0 6= 0 ,
=
a0
in
donde el término 1 + c1 D + c2 D2 + · · · + cn−1 Dn−1 + cn Dn /a0 es la expansión en serie de 1/P (D).
Por otro lado, notemos que si a0 = 0, entonces
m
Si ambos a0 = 0 y a1 = 0, entonces se puede seguir factorizando. Por lo tanto, en general:
eli
esto significa que
1 1
yp = [Q(x)] = [Q(x)] ar 6= 0
P (D) Dr (an Dn−r + · · · + ar+1 D + ar )
=
1
Pr 1
[Q(x)]
Muchos cálculos se simplificarán notablemente por la forma que pueda tener la función Q(x), por ejemplo,
si Q(x) = bxk , entonces
P (D)y = bxk .
Note que si k = 0, entonces:
or
1 b
yp = [b] = , a0 6= 0 .
P (D) a0
porque b es constante.
ad
y 00 − 2y 0 − 3y = 5 ⇒ (D2 − 2D − 3)y = 5 ,
1 5
yp = [5] = − .
P (D) 3
La mejor manera de ilustrar el método es con un ejemplo. Consideremos la siguiente ecuación diferencial:
264
7.4. EL OPERADOR DIFERENCIAL Y LAS ECUACIONES DIFERENCIALES
r
1 1 1 1
= − +
a
(D − 2)2 (D − 1) D − 1 D − 2 (D − 2)2
por lo tanto:
in
1 4x 1 4x 1 4x
yp = 2e − 2e + 2
2e .
D−1 D−2 (D − 2)
Ahora estamos en capacidad de resolver cada término por separado:
m
2e4x 2e4x 2e4x e4x
yp = − + = .
3 2 4 6
Par otro lado, la familia de soluciones de la ecuación homogénea es
eli
yh = (C1 + C2 x)e2x
7.4.5. Ejemplos
1. Encontrar una solución particular de
Cuando se hace la expansión en serie de 1/P (D) no hace falta ir más allá de D3 , ya que D3 x2 = 0.
2. Encontrar una solución particular de
por lo tanto:
1 2 1 1 2
yp = 2x = 3 2x .
P (D) D D2 − 1
Bo
265
7.4. EL OPERADOR DIFERENCIAL Y LAS ECUACIONES DIFERENCIALES
r
3. Si Q(x) = beax , entonces
P (D)y = beax
a
Se puede demostrar (queda como ejercicio) que una solución particular de esta ecuación es
1 beax
in
yp = [beax ] = , P (a) 6= 0 .
P (D) P (a)
Encuentremos una solución particular de
y 000 − y 00 + y 0 + y = 3e−2x .
m
Entonces
(D3 − D2 + D + 1)y = 3e−2x ,
aquı́ b = 3 y a = −2, por lo tanto:
eli
1 −2x 3e−2x 3e−2x 3
yp = 3e = = = − e−2x ,
P (D) P (−2) (−2) − (−2)2 + (−2) + 1
3 13
4. Si Q(x) = b cos(ax) o Q(x) = b sen(ax). En este caso podemos utilizar la fórmula de Euler y volver al
caso anterior.
Pr
Encuentremos una solución particular de
y 00 − 3y 0 + 2y = 3sen(2x) ,
entonces:
(D2 − 3D + 2)y = 3sen(2x) ,
or
sabemos que: e2ix = cos(2x) + isen(2x) y que la parte imaginaria de una solución particular de
(D2 − 3D + 2)y = 3e2ix
será una solución de nuestro problema. Por lo tanto, con b = 3 y a = 2i se tiene:
ad
266
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE
r
7.5. Ecuaciones diferenciales y las transformadas de Laplace
a
7.5.1. Algunas definiciones previas
in
En general vamos a definir una transformación integral, F (s), de una función, f (t) como
Z b
F (s) = K (s, t) f (t)dt = T {f (t)} , (7.34)
m
a
eli
Nombre F (s) = T {f (t)} f (t) = T−1 {F (s)}
R∞ R γ+i∞
Laplace L(s) = 0
e−st f (t)dt f (t) = 1
2πi γ−i∞
est L(s)ds
Pr
q Z ∞ q Z ∞
2 sen(st) 2 sen(ts)
Fourier de senos y cosenos F(s) = π f (t)dt f (t) = π F(s)ds
0 cos(st) 0 cos(ts)
Z ∞ Z ∞
Fourier compleja F(s) = √1
2π
e ist
f (t)dt f (t) = √1
2π
e−ist F(s)ds
−∞ −∞
or
Z ∞ Z ∞
Hankel (Fourier-Bessel) F (s) = tJn (st)f (t)dt f (t) = sJn (ts)F (s)ds
0 0
Z ∞ R γ+i∞
Mellin M(s) = ts−1 f (t)dt f (t) = 1
s−t M(s)ds
ad
2πi γ−i∞
0
La idea detrás de la utilidad de las transformaciones integrales puede resumirse en el siguiente esquema
−→ transformación directa −→
rr
267
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE
r
Z ∞
f (t)e−st dt , 0 ≤ t < ∞
a
0
converge para algún valor de s = s0 , entonces convergerá para todo s > s0 . Si la integral existe se denominará
in
la transformada de Laplace de f (t).
Por ejemplo, podemos ver que si f (t) = t, entonces
Z ∞ Z h
L[t] = F (s) = te−st dt = lı́m te−st dt
m
0 h→∞ 0
h
he−sh e−sh
t 1 1 1
= lı́m e−st − − 2 = lı́m − − 2 + 2 = 2.
h→∞ s s 0 h→∞ s s s s
eli
Se puede ver que si f (t) = 0, entonces
Z ∞
L[0] = 0e−st dt = 0 .
0
Pr
Existen tablas con las transformadas de Laplace, de manera que no es necesario ir calculando las integrales
impropias para cada una de las funciones.
Las transformadas de Laplace son lineales, es decir:
utilizando las transformadas de Laplace. Este método, como veremos a continuación, permite obtener una
solución particular dado un conjunto de condiciones iniciales.
Bo
268
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE
r
Ahora bien, podemos observar lo siguiente
a
Z ∞
L [y 0 ] = e−sx y 0 dx
0
in
y al integrar por partes, con u = e−sx y dv = y 0 dx, se tiene
Z ∞ Z ∞
b
e−sx y 0 dx = lı́m e−sx y 0 − (−s)e−sx ydx
m
0 b→∞ 0
Z ∞
−sb
ye−sx dx
= lı́m e y(b) − y(0) + s
b→∞ 0
Si agregamos la suposición adicional de que la solución de la ecuación diferencial, es decir, y(x) satisface
eli
h i
lı́m e−sx y (k) (x) = 0 , k = 0, 1, 2, . . . , n − 1 , s > s0 ,
x→∞
entonces: ∞
L [y ] =0
Z
Pr e−sx y 0 dx = −y(0) + sL [y] .
0
Para calcular L [y 00 ] se procede de manera similar, pero ahora es necesario integrar dos veces por partes
y utilizar el resultado para L [y 0 ]. Resultando:
Repitiendo el proceso:
Al sustituir todos estos últimos resultados en (7.36), sacando los términos que contienen a L [y], resulta
Bo
269
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE
r
+a2 s2 L [y] − a2 [y 0 (0) + sy(0)]
a
+a1 sL [y] − a1 y(0)
+a0 L [y] = L [Q(x)]
in
factorizando para L [y] se tiene:
an sn + an−1 sn−1 + an−2 sn−2 + · · · + a2 s2 + a1 s + a0 L [y]
m
− an sn−2 + an−1 sn−3 + · · · + a3 s + a2 y 0 (0)
.. .. .. .. .. .. .. .. ..
. . . . . . . . .
− [an sn + an−1 ] y (n−2) (0)
eli
− an y (n−1) (0) = L [Q(x)] . (7.37)
En (7.37) se puede apreciar que es necesario conocer las cantidades: y(0), y 0 (0), y 00 (0), ... , y (n−1) (0),
las cuales se pueden determinar vı́a las condiciones iniciales. Por otra lado, también se puede ver que la
Pr
transformada de Laplace de la función que estamos buscando L [y] se puede despejar directamente de (7.37).
Por ejemplo, encontraremos la solución a siguiente ecuación diferencial
y(0) = 0
y 00 + y = sen(2x) con:
0
y (0) = 1
Si nos fijamos en (7.37) vemos que para este caso se tiene: a2 = 1, a1 = 0 y a0 = 1, entonces:
or
2
s +4
1 2
L [y] = +1
s2 + 1 s2 + 4
por lo tanto:
s2 + 6 2 5 − 32 5
rr
3
L [y] = = − + = +
(s2 + 1) (s2 + 4) 3(s2 + 4) 3(s2 + 1) s2 + 4 s2 + 1
mediante la transformada inversa en cada término
− 23
1 −1 2 1
Bo
−1
L = − L = − sen(2x)
s2 + 4 3 s2 + 22 3
5
5 −1 1 5
L−1 2 3 = L 2
= sen(x)
s +1 3 s +1 3
270
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE
se tiene
−2 5
1 5
L [y] = L − sen(2x) + sen(x) = 2 3 + 2 3
3 3 s +4 s +1
por lo tanto, nuestra solución particular para las condiciones iniciales dadas es:
1 5
y(x) = − sen(2x) + sen(x) .
3 3
r
Algunas veces es posible identificar la transformada de Laplace H(s) como el producto de dos transfor-
a
madas de Laplace, F (s) y G(s) las cuales son las transformadas de funciones conocidas f (t) y g(t). Pero
eso es algunas veces: en general la transformada del producto de funciones no es el producto
in
de transformadas. Esas veces están contenidas en el llamado Teorema de Convolución, según el cual se
establece una especie de “producto generalizado” de funciones f y g.
m
F (s) = L [f (t)] y G(s) = L [g(t)] definidas en el intervalo s > a > 0 ,
entonces
H(s) = F (s)G(s) = L [h(t)] , para s > a
eli
donde Z t Z t
−1
h(t) = L [F (s)G(s)] = f (t − τ ) g(τ ) dτ = f (τ ) g(t − τ ) dτ = (f ∗ g) (t)
0 0
f ∗g =g∗f (conmutatividad)
or
f ∗ [g + k] = f ∗ g + f ∗ k (distributividad)
f ∗ [g ∗ k] = [f ∗ g] ∗ k (asociatividad)
ad
f ∗0=0∗f =0
(f ∗ 1) (t) = f (t − τ ) 1 dτ = f (t − τ ) dτ 6= f (t) ,
0 0
Z t
τ =t
(cos ∗1) (t) = cos(t − τ ) 1 dτ = sen(t − τ )|τ =0 = sen(0) − sen(t) = −sen(t) .
0
271
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE
El ejemplo más emblemático de la aplicación del Teorema de Convolución es el estudio del oscilador
amortiguado y forzado, el cual viene descrito por la ecuación diferencial
x(0) = x0
ẍ + 2λ ẋ + ω02 x = f (t) , con:
ẋ(0) = dx
dt t=0 = ẋ0
r
2
a2 s + a1 s + a0 L [x] − [a2 s + a1 ] x(0) − [a2 ] ẋ(0) = L [f (t)]
2
s + 2λs + ω02 L [x] − [s + 2λ] x(0) − ẋ(0) = L [f (t)]
a
2
s + 2λs + ω02 L [x] − [s + 2λ] x0 − ẋ0 = F (s)
in
F (s) + [s + 2λ] x0 + ẋ0
L [x] =
s2 + 2λs + ω02
por lo tanto
F (s) + [s + 2λ] x0 + ẋ0 2λ x0 + ẋ0 + sx0 F (s)
m
L [x] = 2 = 2 + 2 ,
2
s + 2λs + ω0 2
s + 2λs + ω0 s + 2λs + ω02
para el primer sumando de la expresión anterior, se tiene lo siguiente:
2λ x0 + ẋ0 + sx0 x0 (s + λ) ẋ0 + x0 λ
eli
L [x](1) = = + ,
s2 + 2λs + ω02 2 2
(s + λ) + (ω02 − λ2 ) (s + λ) + (ω02 − λ2 )
y mediante la transformada inversa:
" #
L−1
x 0
2
(s + λ)
+
ẋ 0
2
+ x 0 λ
Pr = x0 e−λt cos(ωt) +
ẋ0 + λx0
sen(ωt) ,
2 2 2 2
(s + λ) + (ω0 − λ ) (s + λ) + (ω0 − λ ) (1) ω
p
con ω = ω02 − λ2 .
Para el segundo sumando
F (s)
L [x](2) = ,
s2 + 2λs + ω02
or
s + 2λs + ω0 (2) 0 ω
7.5.5. Ejemplos
1. Ecuación diferencial, con valores iniciales, inhomogénea a una función escalón:
Bo
0 0≤x≤π y(0) = 1
y 00 + 4y = h(x) = con:
0
1 π < x ≤ 2π y (0) = 0
272
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE
podemos escribir
y 00 + y = h(x) = uπ (x) − u2π (x)
volviendo a fijarnos en (7.37)
2 e−πs e−2πs
s + 4 L [y] − s = −
r
s s −πs
e−2πs
1 e
L [y] = s+ −
a
s2 + 4 s s
por lo tanto
in
e−πs e−2πs e−πs e−2πs
1 s
L [y] = 2
s + − = 2 + −
s +4 s s s + 4 s (s + 4) s (s2 + 4)
2
m
mediante las transformadas inversas
−1 s
L = cos(2x)
s2 + 4
eli
e−πs
1
L−1 = uπ (x)g (x − π) , con g (τ ) = L−1
s (s2 + 4) s (s2 + 4)
por lo tanto
L−1
e−πs
= u (x)L
−1 1
Pr
1
−
s
= u (x)
1
{1 − cos[2(x − π)]}
π π
s (s2 + 4) 4 s s2 + 4 4
Por lo tanto:
1 1
L [y] = L cos(2x) + uπ (x) {1 − cos[2(x − π)]} + u2π (x) {1 − cos[2(x − 2π)]}
4 4
rr
s e−πs e−2πs
= + − ,
s2 + 4 s (s2 + 4) s (s2 + 4)
1 1
y(x) = cos(2x) + uπ (x) {1 − cos[2(x − π)]} + u2π (x) {1 − cos[2(x − 2π)]} .
4 4
273
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE
2. Ecuación diferencial, con valores iniciales, inhomogénea a una función impulso (delta de Dirac)
y(0) = 0
y 00 + 2y 0 + 2y = δ (x − π) , con:
0
y (0) = 0
r
δ (t − t0 ) = 0 con t 6= t0 y dτ δ (τ − τ0 ) = 1 (7.38)
−∞
a
con la útil propiedad: Z ∞
dτ δ (τ − τ0 ) f (τ ) = f (τ0 ) (7.39)
in
−∞
L [δ (t − c)] = e−cs ,
m
por lo tanto, para nuestra ecuación problema
y 00 + 2y 0 + 2y = δ (x − π)
eli
vemos que según (7.37)
e−πs
L [y] =
s2 + 2s + 2
por lo tanto:
e−πs 1
L [y] = = e−πs
or
s2 + 2s + 2 2
(s + 1) + 1
miramos la transformada inversa
" #
−1 −πs 1 h i
L e = uπ (x) e−(x−π) sen (x − π)
ad
2
(s + 1) + 1
resultando h i
y(x) = uπ (x) e−(x−π) sen (x − π)
o si lo preferimos en la otra notación:
Bo
0 x<π
y(x) =
−(x−π)
e sen (x − π) x ≥ π.
274
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
r
00 0
d ) y + 4y + 4y = 0, y(0) = 1, y 0 (0) = 1
a
e) y 00 − y 0 − 2y = 5sen(x), y(0) = 1, y 0 (0) = −1
f ) y 000 − 2y 00 + y 0 = 2ex + 2x, y(0) = 0, y 0 (0) = 0, y 00 (0) = 0
in
2. Evalúe cada una de las siguientes funciones
a) Γ(6)
m
b) Γ(7)
c) Γ(−5/2)
d ) Γ(5/2)
eli
3. Evalúe cada una de las siguientes funciones factoriales
a) − 52 !
b) − 72 !
c) 23 !
Pr
d ) 52 !
Una de las más famosas ecuaciones diferenciales, lineales, ordinaria con coeficientes constantes es
d2 u du
α ü + β u̇ + γ u ≡ α +β + γ u = Λ (t)
ad
dt2 dt
La cual utiliza para describir sistemas mecánicos y toma la forma
x ⇒ Desplazamiento
dx
⇒ Velocidad
rr
dt
d2 x
dx m ⇒ masa
m 2 +η + k x = F (t) donde
dt dt
η ⇒ Constante de Amortiguamiento
k ⇒ Constante Elástica
F (t) ⇒ Fuerza Aplicada
Bo
275
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
y circuitos eléctricos
Q ⇒ Carga Eléctrica
dQ
=I ⇒ Intensidad de Corriente
dt
d2 Q
dQ 1
L ⇒ Inductancia
L +R + Q = E (t) donde
dt2 dt C
R ⇒ Resistencia
C ⇒ Capacitancia
E (t) ⇒ Fuerza Electromotriz
r
Analicemos la ecuación que describe sistemas mecánicos y dejamos la cual describe sistemas eléctricos para
un análisis posterior. El primero de los casos a analizar será el de las oscilaciones libres, vale decir F (t) = 0,
a
lo cual en el lenguaje de las ecuaciones diferenciales se traduce a ecuaciones diferenciales homogéneas. En
contraste, si F (t) 6= 0, es decir, el caso inhomogéneo, estaremos describiendo oscilaciones forzadas.
in
7.6.2. Oscilaciones libres
Analicemos pues del caso del oscilador armónico libre, i.e.
m
r
d2 x k
m 2 +k x=0 ⇒ x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) con ω0 =
dt m
eli
ω0 se denomina la frecuencia natural de oscilación y C1 y C2 las constantes de integración que se determinan
de las condiciones iniciales. Es claro que
C1 = A cos δ
si ⇒ x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) ⇔ x (t) = A cos (ω0 t + δ)
C2 = A sen δ
Pr
con R la amplitud y δ en ángulo de fase. Obviamente, el perı́odo del movimiento será
r
2π m
T = = 2π
ω0 k
k
la frecuencia angular ω0 = m = 2 rad/sg. La ecuación diferencial que describe este movimiento será
dx
x (0) = 1; dt t=0 = 0; ⇒ x (t) = cos(2t)
2
d x
ad
dx
+4 x=0 ∧ x (0) = 4; dt t=0 =0 ⇒ x (t) = 4 cos (2t)
dt2
dx
x (0) = −2; =0 ⇒ x (t) = −2 cos (2t)
dt t=0
dx
1
x (0) = 0; = 1; ⇒ x (t) = sen(2t)
rr
dt t=0 2
d2 x
dx
+4 x=0 ∧ x (0) = 0; dt t=0 = 4; ⇒ x (t) = 2 sen (2t)
dt2
dx
Bo
276
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.4: Oscilador armónico libre. Cambios en la posición inicial no afectan la frecuencia natural.
eli
Consideremos que en el movimiento actúa una fuerza de amortiguación proporcional a la velocidad, por
lo cual el movimiento viene descrito por
d2 x dx d2 x dx
m
dt 2
+η
dt
Pr
+k x=
dt2
+ 2µ
dt
+ ω02 x = 0
la cual constituye una ecuación diferencial lineal homogénea de segundo orden. Las raı́ces del polinomio
caracterı́stico asociado serán
p r
−η ± η 2 − 4km η η 2 k
q
r= =− ± − = −µ ± µ2 − ω02
2m 2m 2m m
or
x (t) = (C1 + C2 t) eµ t
⇐ µ2 − ω02 = 0 Crı́tico
rr
n hp i hp io
x (t) = e−µ t
C1 cos ω02 − µ2 t + C2 sen ω02 − µ2 t ⇐ µ2 − ω02 < 0 Subamortiguado
Bo
Como un ejemplo analicemos el mismo caso del sistema anterior en el cual m = 0,1 Kg. y k = 0,4 N/m,
sólo que ahora
qla constante de amortiguamiento será η = 0,60, 0,40 y 0,15 En todos los caso la frecuencia
k
angular ω0 = m = 2 rad/sg. y la cantidad subradical µ2 − ω02 corresponderá a los tres casos anteriormente
277
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.5: Oscilador Armónico Libre. Cambios de velocidad incial no afectan la frecuencia natural
eli
x (0) = 0 √ √
2
d x
+ 6 dx
+ 4 x = 0 ∧ ⇒ x (t) = 1
+ 7
√ e ( 5−3)t + 1 − 7
√ e−(3+ 5)t
dt 2 dt 2 2
dx 2 5 2 5
dt t=0 = 4
x (0) = 0
Pr
2
d x
dt2 +4 dx
dt +4 x=0 ∧ ⇒ x (t) = (1 + 6t) e−2t
dx
dt t=0 = 4
2
x (0) = 0 h √ √ i
1
d x
dt2 + dx
dt +4 x=0 ∧ ⇒ x (t) = e− 2 t √9
15
sen 15
2 t + cos 15
2 t
or
dx
dt t=0 = 4
Si en los casos anteriores cambiamos el signo de la velocidad inicial, i.e. dx
dt t=0 = −4 m/s, tendremos la
siguiente representación gráfica.
√ √
ad
x (0) = 1; dx
= −4; ⇒ x (t) = 1
− 1
√ e ( 5−3)t + 1 + √ 1
e −(3+ 5)t
dt t=0 2 2 5 2 2 5
x (0) = 1; dx
dt t=0 = −4; ⇒ x (t) = (1 + 2t) e−2t
h √ √ i
rr
1 −7
x (0) = 1; dx
dt t=0 = −4 ⇒ x (t) = e− 2 t √
15
sen 15
2 t + cos 15
2 t
En todos los casos dado que r1 , r2 < 0 se tiene que x (t → 0) → 0. El movimiento subamortiguado es
periódico y el perı́odo viene descrito por
Bo
2π 2 2 !
ω0 T µ 1 µ
Tam = r 2 = r si << 1 ⇒ Tam ≈ T 1 +
2 ω0 2 ω0
1 − ωµ0 1 − ωµ0
278
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.6: Oscilaciones libres amortiguadas y no amortiguadas. Nótese que el perı́odo es mayor para el caso
subamortiguado
eli
el cual siempre sera mayor que el periodo de oscilación natural del sistema.
d2 x F0
+ ω02 x = cos ($t)
dt2 m
Amplitud modulada $ 6= ω0
ad
| {z }
inhomogénea
con lo cual es la suma de dos movimientos armónicos con distintas frecuencias y amplitudes. Si el cuerpo
parte del reposo, esto es: x (0) = ẋ (0) = 0 entonces
Bo
C1 = m ω−F 0
( 0
2 −$ 2
)
F0
⇒ x (t) = 2 [cos ($t) − cos (ω0 t)]
m (ω0 − $2 )
C2 = 0
279
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.7: Oscilaciones Libres amortiguadas con cambio de signo en la velocidad inicial
eli
dado que
ω0 − $ ω0 + $
cos (ω0 t) = cos + t
2 2
ω0 − $ ω0 + $ ω0 − $ ω0 + $
cos (ω0 t) = cos
2
Pr
cos
2
− sen
2
sen
2
ω0 − $ ω0 + $
cos ($t) = cos − t
2 2
ω0 − $ ω0 + $ ω0 − $ ω0 + $
cos ($t) = cos cos + sen sen
2 2 2 2
or
2F0 ω0 − $ ω0 + $
x (t) = sen t sen t
m (ω02 − $2 ) 2 2
| {z }
Envolvente
ad
El mismo sistema anterior en el cual m = 0,1 Kg. y k = 0,4 N/m, cuando parte del reposo desde el origen
de coordenadas y existe una fuerza de excitación F = 0,5 cos (3t) . Por lo tanto la ecuación diferencial que
describe el movimiento será
d2 x x (0) = 0
1
5
+ 4 x = 5 cos (3t) =⇒ x (t) = cos(2t) − cos(3t) ≡ 2 sen t sen t
rr
dt2 dx 2 2
= 0
| {z } | {z }
dt t=0 homogénea inhomogénea | {z }
envolvente
Bo
280
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.8: Oscilador armónico forzado con $ = ω02 Nótese el fenómeno de resonancia
eli
Resonancia $ = ω0
En el caso que la frecuencia de la fuerza de excitación coincida con la frecuencia natural del sistema, se
tiene
d2 x F0
dt2
+ ω02 x = F0 cos (ω0 t) =⇒
Pr
x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) +
2mω
t sen (ω0 t)
| {z 0 }
envolvente
El sistema anterior (m = 0,1 Kg. y k = 0,4 N/m), cuando parte del reposo desde el origen de coordenadas y
existe una fuerza de excitación F = 0,5 cos (2t). Por lo tanto la ecuación diferencial que describe el movimiento
será
x (0) = 0
or
d2 x 5t
+ 4 x = 5 cos (2t) ∧ =⇒ x(t) = sen (2t)
dt2 dx 4
dt t=0 = 0
ad
d2 x dx F0
+ 2µ + ω02 x = cos ($t)
rr
dt 2 dt m
la cual tendrá como solución
√ √
ω02 − $2 cos ($t) + 2µ$ sen ($t)
!
Bo
F0
− µ+ µ2 −ω02 t − µ− µ2 −ω02 t
x (t) = C1 e + C2 e + 2 2
m (ω02 − $2 ) + (2µ$)
281
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.9: Oscilador armónico forzado. Nótese la envolvente de la función
eli
una vez más se puede convertir en
√ √
F0 cos ($t − ζ)
− µ+ µ2 −ω02 t − µ− µ2 −ω02 t
x (t) = C1 e + C2 e + q
m 2 2
(ω02 − $2 ) + (2µ$)
| {z }
solución homogéne ≡régimen transitorio
| {z }
Pr solución inhomogénea ≡ régimen estacionario
donde
ω02 − $2 2µ$
cos (ζ) = q y sen (ζ) = q
2 2 2 2
(ω02 − $2 ) + (2µ$) (ω02 − $2 ) + (2µ$)
Es claro que el término homogéneo en todos sus casos (sobreamortiguado, crı́tico y subamortiguado) tiende a
or
cero, por ello se considera un término transitorio, no ası́ el término no homogéneo que permanece oscilando.
En términos Fı́sico se pude decir que el término transitorio representa la disipación de la energı́a inicial que se
le provee al sistema a través de la posición y la velocidad inicial de lanzamiento. Esta energı́a inicial se expresa
a través de las condiciones iniciales se disipa. Si no existiera disipación esta energı́a inicial permanecerı́a por
siempre en el sistema. Finalmente el término no homogéneo, a través de la fuerza de excitación, impone
ad
el movimiento al sistema. Nótese además que el termino no homogéneo nunca se hace infinito, ni siquiera
para el caso para el cual tiene un máximo y es aquel en el cual la frecuencia de excitación coincide con la
frecuencia natural del sistema.
Veamos el siguiente ejemplo. En un circuito RLC, cuyos componentes son L = 1 henry, R = 40 ohmios
1
y C = 40000 faradios, se le aplica un tensión de V = 24 voltios. Determine el comportamiento de la carga y
rr
L 2
+R + Q = E (t) ⇒ 2
+ 40 + 40000 Q (t) =
dt dt C dt dt 2
d2 I (t) dI (t) 1 dE (t) d2 I (t) dI (t)
L +R + I (t) = ⇒ + 40 + 40000 I (t) = 0
dt2 dt C dt dt2 dt
282
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.10: Carga en función del tiempo en un circuito RLC sometido a un voltaje constante. Nótese que
el sistema alcanza el régimen estacionario cercano a los 0,3 seg
eli
tomando en cuenta las condiciones iniciales tendremos como solución
h √ √ √ i
Q (0) = 10−4
1 −20t 47 11
7
Q(t) = 8000 + e 2640000 sen 1160t + 8000 cos 1160t
⇒
√ √
√
I (0) = dQ
dt
t=0
= 10−2
Pr dt
h
I (t) = dQ = e−20t 1 cos 1160t − 37 11 sen
100
6600 1160t
i
d2 Q
dQ 1 −4 dQ
+ 40 + 40000 Q = cos (180t) con Q (0) = 10 ∧ I (0) = = 10−2
dt2 dt 2 dt t=0
or
d2 I dI
+ 40 + 40000 I = −90sen (180t)
dt2 dt
con sus correspondientes soluciones a las condiciones iniciales del sistema
ad
( " √ √ √
# )
1 −20t 293 11 91 9 19
Q(t) = e sen 60 11t + cos 60 11t − cos (180t) + sen (180t)
1000 30140 685 274 548
√ 2461√11
( " # )
1 √
−20t 103 81 171
I(t) = e cos 60 11t − sen 60 11t + sen (180t) + cos (180t)
100 274 3014 137 274
rr
L
⇒A= q = √
ω02 = LC1 1 2 2 + R$ 2
2 $ − 78400$2 + 1600000000
4
L LC − $ L
283
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.11: Intensidad en un circuito RLC sometido a un voltaje constante.
eli
La fuerza elástica F = −kx, más allá de ser el caso más simple, representa la primera aproximación al
movimiento alrededor de un punto de equilibrio estable. Si recordamos que para una fuerza que derive de un
potencial se tiene
d 21 k x2
dV
F =−
dx
Pr
⇒ F = −k x = −
dx
,
mas aún, un punto de equilibrio estable se define como aquel en el cual no existen fuerzas externas, vale decir
dV
F |x=x0 = 0 ⇒ − = 0,
dx x=x0
por lo cual, dado un potencial de una fuerza arbitraria siempre podemos expandirlo en series de Taylor
or
| {z }
=0
2! dx x=x0
2
Ası́, un potencial de la forma
1 6 35 50
V (x) = x − 2x5 + x4 − x3 + 12x2
Bo
6 4 3
genera una fuerza
dV (x)
= − x5 − 10x4 + 35x3 − 50x2 + 24x
F =−
dx
284
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.12: Carga en función del tiempo en un circuito RLC sometido a un voltaje sinusoidal V (t) =
1
2 cos (180t) . Nótese el régimen transitorio (0 ≤ t . 0,17) y estacionario (t & 0,17) .
eli
tendrá como puntos de equilibrio x = 0, x = 1, x = 2, x = 3 y x = 4. En torno a x = 0 se podrá aproximar
con un potencial parabólico
2
1 2 d V (x)
Ṽ (x) = (x − x0 ) = 12x2
2! dx2 x=x0
Pr
tal y como se observa en la figura 7.15
La Figura (7.16) muestra el diagrama de cuerpo libre del Péndulo Fı́sico. Desde la ancestral fı́sica general,
aún en secundaria, era proverbial resolver este problema suponiendo ángulos pequeños. En esas tempranas
épocas de nuestro conocimiento de Fı́sica era limitado y más limitado aún era nuestra capacidad para
resolver ecuaciones diferenciales. A este “problema” se le conoce con el péndulo fı́sico. Aproximar es un arte
ad
y exploraremos este arte. Como norma general tendremos que se debe aproximar al final, pero no siempre
es ası́.
Si suponemos un cuerpo de masa constante, m, las ecuaciones diferenciales que describen el movimiento
no pueden ser otras que aquellas que provengan de las ecuaciones de Newton
dv(t)
rr
X
F(r(t), v(t), t) = m = m a(t) = m (ar ûr + aθ ûθ ) , (7.40)
externas
dt
Es bueno recordar que hay que expresar la aceleración en un sistema de coordenadas móviles (ûr , ûθ ).
Bo
285
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
1
Figura 7.13: Intensidad de corriente en un circuito RLC sometido a un voltaje sinusoidal V (t) = 2 cos (180t)
eli
Esto es
dûr
ûr = cos (θ) i + sen (θ) j ⇒ = [−sen (θ) i + cos (θ) j] θ̇ = θ̇ûθ
dt
dûθ
ûθ = −sen (θ) i + cos (θ) j ⇒ = − [cos (θ) i + sen (θ) j] θ̇ = −θ̇ûr
Pr dt
con lo cual
d [r (t) ûr ]
r (t) = r (t) ûr ⇒ v (t) = = ṙûr + rθ̇ûθ
dt
y para la aceleración
h i
d ṙ (t) ûr + r (t) θ̇ (t) ûθ
or
h i h i
a (t) = = r̈ − rθ̇2 ûr + 2ṙθ̇ + rθ̈ ûθ
dt
Es claro que si r (t) = L = cte
ad
d (Lûr )
r (t) = Lûr ⇒ v (t) = = Lθ̇ûθ
dt
y además h i
d Lθ̇ (t) ûθ
a (t) = = −Lθ̇2 ûr + Lθ̈ûθ .
rr
dt
Ası́, y para este caso particular, las ecuaciones de Newton quedan como
m ar = −mLθ̇2 = −T + mg cos (θ)
Bo
m a=T+m g ⇒ (7.41)
m aθ = mLθ̈ = −mg sen (θ) .
286
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.14: Amplitud como función de la frecuencia excitatriz. Nótese el máximo de la amplitud cuando el
sistema entra en resonancia, i.e. $ = ω0
eli
El caso más simple proviene de la suposición: θ ≈ sen (θ) 1, que implica lo siguiente
mLθ̇2 = −T + mg
m a=T+m g ⇒ (7.42)
Pr
mLθ̈ = −mgθ.
ahora sabemos que podemos integrar inmediatamente. Si suponemos que el sistema parte del reposo: θ̇ (0) = 0
y θ (0) = θ0 , entonces resulta:
r r r
g g g
Lθ̈ = −gθ ⇒ θ (t) = C1 sen t + C2 cos t ⇒ θ (t) = θ0 cos t
L L L
or
L L L 0
que no es otra cosa que la energı́a total del sistema. Por lo tanto, en el instante inicial, si soltamos la masa
desde un ángulo θ0 , la energı́a total es puramente potencial. Es decir
1
rr
por otro lado, de la ecuación (7.6.7) podemos obtener el perı́odo de oscilación para el Péndulo Fı́sico linea-
lizado:
Bo
r s !
g 2 2
L θ
ω = θ̇ (t) = (θ − θ ) ⇒ T = arctan p 2 .
L 0 g θ0 − θ 2
287
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.15: Aproximación por una parábola en torno a x = 0
eli
Este caso también se conoce con el nombre de oscilador armónico simple. Igualmente podemos analizar
el caso general del péndulo amortiguado forzado linealizado. Vale decir, una masa, m, atada a una varilla sin
masa de longitud L, y que oscila, inmersa en un fluido que la frena el movimiento de la masa con una fuerza:
−η v (t). Y que adicionalmente está excitada por una fuerza exterior F (t) = F0 cos ($t). Recordamos que
en este caso la ecuación en la dirección tangente (ûθ ), es
Pr
F0
mL θ̈ + η θ̇ + mg θ = F0 cos ($t) ⇒ θ̈ + 2µ θ̇ + ω02 θ = cos ($t)
mL
r
η g
donde, por costumbre, hemos rebautizado las constantes como: µ = y ω0 = .
2mL L
Por lo tanto, como ya vimos con anterioridad, su solución tendrá la forma
or
√ √
F0 cos ($t − ζ)
− µ+ µ2 −ω02 t − µ− µ2 −ω02 t
θ (t) = C1 e + C2 e + q
mL 2 2
(ω02 − $2 ) + (2µ$)
ad
donde
ω02 − $2 2µ$
cos (ζ) = q y sen (ζ) = q
2 2 2 2
(ω02 − $2 ) + (2µ$) (ω02 − $2 ) + (2µ$)
Hemos aprendido que dependiendo del valor de los coeficientes de la ecuación caracterı́stica del Péndulo
rr
Fı́sico amortiguado libre (F0 = 0) se derivan tres casos posibles: el caso Subamortiguado (µ2 − ω02 < 0), el
Sobreamortiguado (µ2 − ω02 > 0) y el caso Crı́tico (µ2 − ω02 = 0).
En el caso del Péndulo Fı́sico amortiguado forzado (F0 6= 0) la fı́sica se hace mucho más rica y pueden
2 2
ocurrir fenómenos de resonancia cuando ω02 − $2 + (2µ$) → 0.
Bo
Es interesante considerar los gráficos tanto de la evolución del sistema en el espacio directo: θ (t) vs t;
como la evolución del sistema en el espacio de fases ω = θ̇ (t) vs θ (t) . Las figuras (7.19) y (7.21) muestran
la primera de estas evoluciones, es decir, la evolución del ángulo en el espacio directo. Las figuras (7.20) y
288
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.16: Diagrama de Cuerpo Libre, del Péndulo Fı́sico
eli
(7.22) muestran la evolución del sistema en el espacio de fases. Es claro de la ecuación (7.6.7), en la cual
aparece ω = θ̇ (t), que las curvas en el diagrama de fase tanto para el caso libre (figura(7.18)) como para
los casos amortiguados (figuras(7.20) y (7.22)) corresponden a curvas con la misma energı́a. En el caso del
Péndulo Fı́sico linealizado libre, corresponden a curvas de energı́a constante. En los otros casos el sistema
va disipando energı́a debido al coeficiente de amortiguación.
Pr
Nótese que la disipación obliga al sistema a evolucionar al punto de equilibrio siguiendo trayectorias
espirales en el espacio de fases. Claramente más rápidamente en el caso sobreamortiguado que en el su-
bamortiguado. También sabemos que para el caso crı́tico (µ2 − ω02 = 0) el tiempo de evolución del sistema
hasta llegar al punto de equilibrio será menor que en cualquiera de los casos sobreamortiguados. Dejamos al
lector la comprobación de esta última afirmación.
Ahora bien, la situación que nos interesa simular es la del péndulo fı́sico para los casos en los cuales los
or
r
2g
θ̇ (t) = ± C + cos (θ) (7.44)
L
para distintos valores de la constante C = 4, 01; 4, 1; 6; 8; 10 y 20, para el caso Lg = 4.
Bo
La Figura (7.23) representa el diagrama de fase para estos casos. Las curvas cerradas (aquellas que tienen
los valores de ángulos y velocidades acotadas) representan oscilaciones del sistema, mientras que las curvas
abiertas (aquellas en las cuales las velocidades están acotadas pero no ası́ el valor del ángulo) representan
289
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.17:
√ Evolución θ (t) vs t del Péndulo Fı́sico libre, para distintos valores de la velocidad inicial
V0 = 3, 5, 40, 7, 8.
eli
que el sistema rota. Nótese que el sistema presenta puntos de equilibrio inestable para θ (t) ≈ ±nπ con
n = 0, 1, 2. Lo cual era de esperarse por cuanto corresponde al ángulo en el cual el sistema varilla-masa se
encuentran verticalmente dispuestos y el peso y la tensión son colineales y se anulan momentáneamente.
Otro enfoque, quizá más intuitivo para resolver este problema, pudo haber sido el análisis energético.
Pr
Para ello sabemos que, por ser un sistema conservativo, la energı́a total viene definida por
1 1 θ
Etotal = mL2 θ̇2 + mgL (1 − cos (θ)) ≡ mL2 θ̇2 + 2mgL sen2
2 | {z } 2 2
Energı́a Potencial
| {z }
Energı́a Cinética
por consiguiente
or
s s
2Etotal 4g θ g θmáx θ
θ̇ (t) = ± 2
− sen2 ≡±2 sen 2 − sen 2 (7.45)
mL L 2 L 2 2
por cuanto en ese punto la energı́á total es puramente potencial. Nótese que ese ángulo no necesariamente
es el ángulo inicial, debido a que la velocidad inicial puede ser distinta de cero.
La ecuación (7.45) es claramente integrable por separación de variables y conduce a encontrar una ex-
presión para el perı́odo:
rr
s Z
1 L θ(t) dθ
t= r con: − π ≤ θ (t) ≤ π y θ0 = θ (0) .
2 g θ0 g 2 θmáx 2 θ
sen 2 − sen 2
L
Bo
La integral anterior, puede ser transformada en otra que aparece en las tablas integrales, si hacemos
sen θ2
sen(β) = ,
sen θmáx
2
290
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.18: Digrama de Fase para el Oscilador Armónico Simple. Nótese que el punto de equilibrio es el
origen de coordenadas.
eli
con lo cual: s Z
L ζ(t) dβ
t= q ,
g ζ(0) 1 − sen2 θmáx sen2 (β)
2
donde
θ
Pr
"
θ
#
sen 2 sen 2
sen(β) = θmáx
, y ζ (t) = arcsin θmáx
.
sen 2 sen 2
π
Es claro que el recorrido entre ζ (0) = 0 ⇒ θ = 0 a θ = θmáx ⇒ ζ (t) = 2, representa un cuarto del
perı́odo, por consiguiente el perı́odo total del Péndulo Fı́sico será:
s Z π
L 2 dβ
or
T =4 q
g 0 1 − sen2 θmáx sen2 (β)
2
En este punto haremos una digresión respecto a las integrales elı́pticas, su clasificación y algunas de sus
propiedades. En general encontrarán en la bibliografı́a que las integrales elı́pticas se dividen en
Integrales elı́pticas de primera especie
Z ϕ Z x
rr
dβ dt
F (ϕ\α) = p ⇔ F (x|m) = p , con: 0 ≤ m ≤ 1 ,
1 − sen 2 (α)sen2 (β) (1 − t 2 ) (1 − mt2 )
0 0
π
las cuales, para el caso particular ϕ = o x = 1, se puede reacomodar como una Integral elı́ptica
Bo
2
de primera especie completa
Z π2 Z 1
dβ dt
K (m) = p ≡ p con: 0 ≤ m ≤ 1 . (7.46)
2
1 − msen (β) (1 − t ) (1 − mt2 )
2
0 0
291
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
g
m
Figura 7.19: Evolución θ (t) vs t del Péndulo Simple, Subamortiguado ( = 4; µ = 0, 5) libre,para distintos
√ L
valores de la velocidad inicial V0 = 3, 5, 40, 7, 8.
eli
Integrales elı́pticas de segunda especie
ϕ x
r
1 − mt2
Z p Z
E (ϕ\α) = 1 − sen2 (α)sen2 (β)dβ ⇔ E (x|m) = dt , con: 0 ≤ m ≤ 1
1 − t2
0
Pr 0
π
y si ϕ = o x = 1, entonces se obtiene una Integral elı́ptica de segunda especie completa
2
s
Z π2 p Z 1
1 − mt2
E (m) = 1 − m sen2 (β)dβ ≡ dt , con: 0 ≤ m ≤ 1
0 0 1 − t2
or
2 4 2 2 6 3 3
p = 1 + sen (β)m + sen (β ) m + sen (β ) m + sen (β ) m4 + · · ·
8 4
1 − m sen2 (β) 2 8 16 128
1 1 1·3 1·3·5
= π 1+ sen2 (β) m + sen4 (β) m2 + sen6 (β) m3 + · · ·
2 2 2·4 2·4·6
rr
por lo tanto:
∞
1 X (2n − 1)! n
p = m sen2n (β) ,
1 − m sen2 (β) n=0
(2n)!!
Bo
292
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
g
m
Figura 7.20: Evolución θ̇ (t) vs θ (t) del Péndulo Fı́sico Subamortiguado libre ( = 4; µ = 0, 5) en el Espacio
√ L
de Fases para distintos valores de la velocidad inicial V0 = 3, 5, 40, 7, 8. Nótese que la disipación lleva
irremediablemente al sistema al punto de equilibrio, vale decir al origen de coordenadas del espacio de fases.
eli
y siendo una serie uniformemente convergente puede ser integrada término a término como
π π ∞ ∞ Z π
(2n − 1)!! n 2n (2n − 1)!! n 2
Z Z
2 dβ 2 X X
K (m) =
0
p
1 − m sen2 (β)
=
0
dβ
Pr (2n)!!
m sen (β) =
(2n)!!
m
0
sen2n (β) dβ
n=0 n=0
∞ ∞ 2
X (2n − 1)!! n (2n − 1)!! π π X (2n − 1)!!
= m · = mn .
n=0
(2n)!! (2n)!! 2 2 n=0
(2n)!!
or
Del mismo modo se obtiene para las integrales elı́pticas completas de segunda especie que
∞
Z π2 p " 2 #
2
π X (2n − 1)!! mn
E (m) = 1 − m sen (β)dβ = 1− .
0 2 n=1
(2n)!! 2n − 1
ad
Finalmente podemos mencionar la relación de “recurrencia” de Legendre para las Integrales Elı́pticas
completas. Ella es
π
E (m) K (1 − m) + E (1 − m) K (m) − K (m) K (1 − m) =
2
Las integrales elı́pticas de primera y segunda especie, incompletas y completa deben resolverse numéri-
rr
5 Abramowitz, M. y Stegun I.A (1964) Handbook of Mathematical Functions Dover, New York
6 En el caso de MAPLEV se puede proceder directamente evaluando numéricamente las integrales a través del comando
evalf(int(...)) o mediante la función de biblioteca EllipticF(z,k) donde z= β es al argumento del seno y k= sen θ20 el
parámetro (consulte la ayuda de MAPLE para más detalles).
293
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
g
m
Figura 7.21: Evolución θ (t) vs t del Péndulo Fı́sico Sobreamortiguado ( = 4; µ = 3, 5) libre,para distintos
√ L
valores de la velocidad inicial V0 = 3, 5, 40, 7, 8.
eli
7.6.9. ¿Cuán buena es la aproximación lineal?
Utilizando la expansión en serie de la Integral Elı́ptica completa de primera especie (??) del péndulo
fı́sico, tendremos que se cumple
s Z π
Pr s
L 2 dβ L π 2 θmáx
T = 4 q =4 F \sen
g 0 1 − sen2 θmáx sen2 (β)
g 2 2
2
s
∞ 2 2n
L X (2n − 1)!! θmáx
= 2π sen .
g n=0 (2n)!! 2
or
2 2 48 3840
y que s
2π L
T0 = = 2π
ω0 g
rr
tendremos
s
∞ 2
2n
L X (2n − 1)!! 1 1 3 1 5 7
T = 2π θmáx − θmáx + θmáx + O θmáx
g n=0 (2n)!! 2 48 3840
Bo
1 2 11 4
≈ T0 1 + θmáx + θ .
16 3072 máx
294
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
g
m
Figura 7.22: Fı́sico Sobreamortiguado libre ( = 4; µ = 3, 5) en el Espacio de Fases para distintos valores de
√ L
la velocidad inicial V0 = 3, 5, 40, 7, 8. Nótese que la disipación lleva irremediablemente al sistema al punto
de equilibrio, vale decir al origen de coordenadas del espacio de fases.
eli
Si realizamos un estimado de las correcciones al problema lineal que conlleva esta expansión veremos
que aún para ángulos θmáx = π/4 las correcciones son del orden de un pı́rrico 4 con lo cual la aproximación
lineal resulta bien razonable. Para ángulos θmáx & 1 las correcciones comienzan a ser significativas y todo
Pr
este esfuerzo de integración empieza a tener sentido.
La siguiente tabla da una idea más clara de este cambio en el perı́odo del péndulo y los errores relativos
porcentuales respecto al perı́odo del péndulo fı́sico linealizado T0 = 2π/ω0 , cuando se consideran distintos
valores del ángulo máximo θmáx .
2π π π π π π 2π
T0 = = 2,83845 θmáx = θmáx = θmáx = θmáx = θmáx = θmáx =
ω0
or
12 6 4 3 2 3
T 2,85066 2,88786 2,95191 3,04617 3,35034 3,89685
|T − T0 |
= 100 0,42821 1,71109 3,84368 6,81916 15,2786 37,1283
T
ad
θ̈ (t) = −ω0 sen (θ) =⇒ dt
dϕ(t) = −ω0 sen (θ(t))
dt
Bo
con lo cual podemos adimensionalizar de varias formas, dependiendo de las condiciones iniciales del movi-
miento. Podemos hacer:
t t
t̃ = =
tfinal tf
295
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.23: Diagrama de Fase para el Péndulo Fı́sico.
eli
con lo que 0 ≤ t̃ ≤ 1. Entonces:
1 d (·) d (·)
= ,
tf dt̃ dt
y adicionalmente:
ϕ dθ
ϕ̃ =
ϕ0
Pr
, con: ϕ0 =
dt t=0
6= 0.
dθ(t̃) dθ(t̃)
θ̇ = ϕ(t) ⇒ = ϕ0 tf ϕ̃(t̃) ⇒ = Λ ϕ̃(t̃)
dt̃ dt̃
dϕ̃(t̃) ω 2 tf dϕ̃(t̃)
or
= − 0 sen θ(t̃)
ϕ̇ = −ω0 sen (θ(t)) ⇒ ⇒ = −Γ sen θ(t̃)
dt̃ ϕ0 dt̃
Nótese que las cantidades ϕ̃(t̃), θ(t̃), t̃, Γ y Λ son adimensionales. Acto seguido procedemos a integrar
numéricamente el sistema de ecuaciones7 .
ad
La figura 7.24 ilustra la evolución del ángulo θ (t) vs t, con 0 ≤ t ≤ 10 del Péndulo Fı́sico, para distintos
valores de la velocidad angular inicial:
dθ(t)
= θ̇(t) = ϕ(t) = 3.5, 3.9, 4.0, 4.1, 4.5.
dt
rr
Mientras que la figura 7.25 (y también la figura 7.23) representan la evolución del sistema en el espacio
de fases θ (t) vs dθ(t)
dt = ϕ(t), las curvas cerradas en ésta gráfica corresponden a las curvas oscilantes de la
figura 7.24. Dado que el sistema parte de θ0 = θ (t = 0) y seleccionamos el nivel de energı́a potencial igual a
Bo
cero allı́, cada una de estas curvas representan un valor de la energı́a cinética inicial.
7 En MAPLEV podemos integrar el sistema de dos maneras distintas. La primera haciendo uso del comando
dsolve({sysED,CI}, numeric, vars, options) donde sysED es el sistema de ecuaciones diferenciales, CI sus condiciones ini-
ciales. Si necesitáramos un análisis gráfico es mucho más útil el paquete DEtools.
296
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
a r
in
m
Figura 7.24: Integración numérica (θ t̃ vs t̃, con 0 ≤ t̃ ≤ 10) del Péndulo Fı́sico, para distintos valores de
dθ(t)
la velocidad angular inicial: = ϕ(t) = 3,5, 3,9, 4, 4,1, 4,5.
dt
eli
El caso
1
Ec = mL2 θ̇02 = mg2L ,
2
Pr
corresponde a la “separatrı́z”, vale decir, la órbita que separa las curvas cerradas de las abierta. Es claro que
en este caso le móvil “subirá” y alcanzará un equilibrio inestable en la posición vertical.
En la figura 7.24 este caso viene ilustrado por la curva que se convierte en horizontal 0, 25 ≤ t̃ ≤ 0, 5,
luego a partir de t̃ ≈ 0, 5, la inexactitud del cálculo numérico genera perturbaciones que en teorı́a no debieran
existir.
7.6.11. Ejemplos
or
297
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
ra
in
m
eli
Pr
or
298
Capı́tulo 8
ar
Sistemas de ecuaciones diferenciales
in
m
eli
Pr
or
ad
rr
Bo
299
8.1. ALGUNOS COMENTARIOS INICIALES
d2 r1 (t)
dr1 (t) dr2 (t) drn (t)
F1 r1 (t) , r2 (t) , · · · , rn (t) , , ,··· , ,t =
r
dt dt dt dt2
d2 r2 (t)
dr1 (t) dr2 (t) drn (t)
a
F2 r1 (t) , r2 (t) , · · · , rn (t) , , ,··· , ,t =
dt dt dt dt2
.. ..
in
. .
d2 rn (t)
dr1 (t) dr2 (t) drn (t)
Fn r1 (t) , r2 (t) , · · · , rn (t) , , ,··· , ,t =
dt dt dt dt2
m
Por otro lado, es importante acotar de que existe la posibilidad de convertir una ecuación diferencial
ordinaria de orden superior es un sistema equivalente de ecuaciones diferenciales. Es decir, dada una ecuación
diferencial de la forma
y (n) (x) = F y (n−1) (x) , y (n−2) (x) , , · · · y 000 (x) , y 00 (x) , y 0 (x) , y (x) , x
eli
si hacemos el siguiente cambio variable
un = y (n−1) (x) ; un−1 = y (n−2) (x) ; ··· u4 = y 000 (x) ; u3 = y 00 (x) ; u2 = y 0 (x) ; u1 = y (x)
Pr
entonces construir el siguiente sistema de ecuaciones diferenciales
.. ..
. .
u02 (x) = F2 (un , un−1 , · · · , u4 , u3 , u2 , u1 , x)
u01 (x) = F1 (un , un−1 , · · · , u4 , u3 , u2 , u1 , x)
Bo
Para garantizar que existe solución al problema de valores iniciales se debe imponer algunas restricciones
sobre las funciones Fi (un , · · · , u3 , u2 , u1 , t) para ello existen un par de teoremas que garantice esa solución
300
8.1. ALGUNOS COMENTARIOS INICIALES
∂1 F1 , ∂1 F2 , · · · ∂1 Fn , · · · ∂i F1 , ∂i F2 , · · · ∂j Fn · · · ∂n F1 , ∂n F2 , · · · ∂n Fn
continuas en una región R del espacio (x, u1 , u2 , · · · , un ), que contiene al punto x0 , u01 , u02 , · · · , u0n que
caracteriza las condiciones iniciales. Entonces existe un intervalo |x − x0 | < h en el cual existe una única
solución: u1 = φ1 (x) , u2 = φ2 (x) , · · · , un = φn (x).
∂Fi
r
Hemos denotado ∂j Fi = y u0m = um (x0 ) las condiciones iniciales.
∂uj
a
Teorema: Sea el siguiente sistema lineal de ecuaciones diferenciales
u01
in
= p11 (x) u1 + p12 (x) u2 + · · · + p1n (x) un + g1 (x)
u02 = p21 (x) u1 + p22 (x) u2 + · · · + p2n (x) un + g2 (x)
.. ..
. .
m
u0n = pn1 (x) u1 + pn2 (x) u2 + · · · + pnn (x) un + gn (x) (8.1)
Si p11 (x) , p12 (x) , · · · p1n (x) · · · pij (x) · · · pnn (x) y g1 (x) · · · gn (x) son funciones continua en el intervalo
α < x < β que contiene al punto x = x0 entonces existe una única solución que satisface las condiciones
eli
iniciales u0m = um (x0 ).
000
y (x) = u000 00 0
1 (x) = u2 (x) = u3 (x)
ahora, el sistema de ecuaciones de primer orden equivalente a la ecuación diferencial problema es:
u01 (x) = u2 (x)
u02 (x) = u3 (x)
rr
por lo tanto, la función u1 (x) que satisface éste último sistema será la solución de la ecuación diferencial de
nuestro problema. Es necesario entonces tener la capacidad de resolver sistemas de ecuaciones diferenciales
de primer orden y a este cometido nos dedicaremos a continuación.
301
8.1. ALGUNOS COMENTARIOS INICIALES
r
u0 = ; P = ; u = ; g =
.. .. .. .. .. .. ..
. . . . . . .
a
u0n (x) pn1 (x) pn2 (x) · · · pnn (x) un (x) gn (x)
in
El sistema (8.2) será homogéneo si g (x) = 0, en caso contrario será un sistema no homogéneo.
m
y0 (x) = Ay(x) , (8.3)
procedemos de manera análoga al caso de una sola ecuación con coeficientes constantes.
eli
Se considera una solución de prueba de la forma: y = ξerx , donde r y el vector constante ξ son elementos
a determinar. Al sustituir esta solución en (8.3), obtenemos: ξrerx = Aξerx , con lo cual, el problema se
reduce a la búsqueda de los autovalores y autovectores del sistema Aξ = rξ.
En forma de matrices, la ecuación (8.3) es:
0
y1 a11 a12 · · · a1n
Pr
y1
y1 (x)
ξ1
y20 a21 a22 · · · a2n y2 y2 (x) ξ2
.. = .. ⇒ = erx .
.. . . .
. .
. .
. .
. . . . . . . .
0
yn an1 an2 · · · ann yn yn (x) ξn
Por lo tanto:
Aξ = rξ ⇒ (A − rI) ξ = 0 ,
en forma de matrices, esto es:
ad
a11 − r a12 ··· a1n ξ1 0
a21 a22 − r ··· a2n ξ2 0
= (8.4)
.. .. .. .. .. ..
. . . . . .
an1 an2 ··· ann − r ξn 0
rr
Es decir, para resolver el sistema de ecuaciones diferenciales lineales con coeficientes constantes, es nece-
sario resolver el sistema de ecuaciones algebraico.
Por ejemplo, resolvamos el siguiente sistema de ecuaciones
Bo
302
8.1. ALGUNOS COMENTARIOS INICIALES
r
r2 = −1
a
!
(1)
(1) (1) (1) ξ1 1
in
−2 ξ1 + ξ2 =0 ⇒ ξ = (1) =
2ξ1 2
m
!
(2)
(2) ξ1 1
ξ = (2) =
−2ξ1 −2
eli
y1 1 1
y = C1 y (1)
(x) + C2 y (2)
(x) ⇐⇒ = C1 e 3x
+ C2 e−x
y2 2 −2
Para el caso particular de matrices simétricas (hermı́ticas reales) los autovalores r1 , r2 , · · · , rn y los
ad
r2 = λ − iµ
∗
esto significa que r1 = r2∗ y que ξ (1) = ξ (2) , por lo cual ξ (1) = a + ib con a y b vectores reales, entonces:
Bo
303
8.1. ALGUNOS COMENTARIOS INICIALES
Es posible que se nos presente la siguiente situación: por un lado, algunos de los autovalores de la matriz
real, A, son números complejos, r1 = λ + iµ y r2 = λ − iµ, pero el resto de las raı́ces resultan ser números
reales: r3 , r4 , · · · , rn . Por el otro lado, algunos de los autovectores son complejos: ξ (1) = a + ib, ξ (2) = a − ib,
pero el resto de autovectores no lo son: ξ (3) , ξ (4) , · · · , ξ (n) .
En este caso, la solución general sera
y (x) = C1 u (x) + iC2 v (x) + C3 ξ (3) er3 x + C4 ξ (4) er4 x + · · · + Cn ξ (n) ern x .
r
y10 (x) = y1 (x) − y2 (x)
a
y20 (x) = 5y1 (x) − 3y2 (x)
in
En forma de matrices lo que tenemos es
0 0 1 −1
y = Ay ⇒ y = y
5 −3
m
Si utilizamos la siguiente solución de prueba y = ξerx , entonces:
1−r −1 ξ1 0
=
5 −3 − r ξ2 0
eli
Se calculan los autovalores
(1) 1
ξ =
r1 = −1 + i 2−i
1−r −1
= r2 + 2r + 2 = 0 ⇒ ⇒
5 −3 − r
Pr
r2 = −1 − i
(2)
1
ξ =
2+i
En el caso que los autovalores de la matriz real, A, estén repetidos k veces, es decir: r1 = r2 = · · · = rk = ρ,
y para los restantes rk+1 , . . . , rn distintos, se debe considerar algunos puntos. Lo primero es notar que
puede suceder que existan ξ (1) , ξ (2) , . . . , ξ (k) autovectores linealmente independientes asociados al autovalor
ad
por lo tanto
1 −1
y0 = Ay ⇒ y0 = y.
1 3
304
8.1. ALGUNOS COMENTARIOS INICIALES
r
r2 = 2
a
y podemos ver que la multiplicidad es 2 y sólo podemos obtener un único autovector asociado al autovalor
ρ = r1 = r2 = 2. Con este autovector podemos construir una solución linealmente independiente:
in
1
y(1) (x) = e2x .
−1
Resulta natural intentar buscar una segunda solución que contenga los términos xe2x y e2x .
m
Propongamos entonces la siguiente solución de prueba
eli
donde ζ (1) y ζ (2) son vectores constantes a determinar.
Al sustituir esta solución de prueba en nuestra ecuación problema, resulta:
2ζ (1) xe2x + ζ (1) + 2ζ (2) e2x = A ζ (1) xe2x + ζ (2) e2x ,
Pr
(2I − A) ζ (1) xe2x + ζ (1) + 2ζ (2) − Aζ (2) e2x = 0 .
Al igualar los coeficientes de los términos xe2x y e2x en ésta última expresión tenemos el siguiente par
de ecuaciones de autovalores:
(A − 2I)ζ (1) = 0
or
(2)
(A − 2I)ζ = ζ (1)
La primera ecuación es satisfecha si hacemos coincidir ζ (1) = ξ (1) , es decir, con el autovector correspon-
diente a ρ = 2 que calculamos anteriormente. Por otro lado, se tiene que
ad
−1 −1
|A − 2I| =
= 0,
1 1
!
(2)
−1 −1 ζ1 1
(2) = .
1 1 ζ2 −1
Bo
305
8.1. ALGUNOS COMENTARIOS INICIALES
notemos que el último término de la ecuación anterior es un múltiplo del único término de y(1) (x), por lo
tanto debe ser ignorado.
En resumen, las dos soluciones linealmente independientes son:
1
r
(1) 2x
y (x) = e ,
−1
a
(2) 1 2x 0
y (x) = xe + e2x ,
−1 −1
in
Se deja como ejercicio demostrar que W y(1) (x), y(2) (x) 6= 0.
La solución general, será entonces
1 2x 1 2x 0 2x
m
y(x) = C1 e + C2 xe + e .
−1 −1 −1
eli
Todo operador lineal hermı́tico A (A : V → V ), con n autovectores distintos tiene una representación
matricial diagonal Âij =λi δij . Mediante una transformación de similidaridad: TAT−1 = Â, donde T es una
matriz unitaria: T−1 = T† , se trasforma la base de A a la base donde  es diagonal.
Este teorema es claro: a partir de que sı́ A tiene n autovalores distintos, tiene n autovectores linealmente
independientes los cuales forman una base de V y en la cual la representación matricial de A es diagonal.
Pr
Pero como siempre es posible pasar de A no diagonal a  diagonal con los mismos autovalores mediante
una transformación de similidaridad TAT−1 = Â, esto queda demostrado. Lo anterior puede formalizarse
de la siguiente manera:
† † † †
hvi | T | {zT} |vj i = hv
| {zT}AT i | T TAT T |vj i = hui | Â |uj i = λj hui |uj i = λj δij .
| {z }| {z }| {z }
1 1 hui | Â |uj i
or
Nos queda determinar la forma de la matriz unitaria de transformación T. Para ello seleccionamos la
base canónica {|e1 i , |e2 i , . . . , |ei i , . . . , |en i} como base de partida de A:
1 0 0 0
ad
0 1 0 0
.. .. .. ..
.
, |e2 i = , . . . , |ei i = , . . . , |en i = .
. .
|e1 i = 0 0 1 0
,
. . . .
.. .. .. ..
rr
0 0 0 1
y {|u1 i , |u2 i , . . . , |ui i , . . . , |un i} la base de autovectores en la cual  es diagonal. Por lo tanto T es la matriz
de transformación de una base a la otra. Identificando columna a columna nos damos cuenta que las columnas
Bo
306
8.1. ALGUNOS COMENTARIOS INICIALES
esto es:
(1) (1) (1)
(1) (2) (n)
u1 u2 ··· un u1 u1 ··· u1
(2) (2) (2) (1) (2) (n)
u1 u2 un u u2 u2
⇔ T† = 2. = T−1 ,
hej |ui i = Tij = .. .. . ..
. .
. .
(n) (n) (n) (1) (1) (n)
u1 u2 un un un un
(m)
donde hemos denotado ui la componente m del vector j-esimo en la base |ei i, con i = 1, . . . , n.
r
Por lo tanto, si los n autovalores y autovectores de A son distintos y conocidos, A se dice diagonalizable.
Si A es hermı́tica, T−1 = T† es muy fácil construir la inversa de la matriz de transformación T. Si los
a
autovalores de A con degenerados, vale decir si el número de autovectores linealmente independientes es
menor que n, entonces A no es diagonalizable y no existe una matriz de transformacion T (T no tiene
in
inversa) tal que TAT−1 = Â.
Ocupemonos ahora del problema de la solución de un sistema de ecuaciones diferenciales no homogéneo
de la forma:
y0 (x) = Ay (x) + g (x) ,
m
con:
y (1) (x) g (1) (x)
a11 a12 ··· a1n
a21 a22 a2n y (2) (x) g (2) (x)
A = , y(x) = , g (x) =
.. .. .. ..
eli
. . . .
an1 an2 ··· ann y (n) (x) g (n) (x)
donde A es una matriz constante y diagonalizable, g (x) contı́nua en el intervalo α ≤ x ≤ β.
La solución de este problema pasa por encontrar los autovalores {λi } y autovectores {|ui i} de A, construir
a partir de ellos la matriz T y su hermı́tica conjugada T−1 = T† , y a partir de ella hacer el siguiente cambio
de variable:
Pr
y (x) = Tz (x) ⇒ Tz0 = ATz + g ⇒ z0 = T −1 −1
| {zAT} z + T g ,
Â
por lo tanto
z0 = Âz + h ,
or
donde
λ1 0 ··· 0
0 λ2 0
 = y h = T−1 g .
.. ..
. .
ad
0 0 ··· λn
Entonces, lo que tenemos ahora es un sistema de ecuaciones diferenciales desacoplado:
zi0 (x) = λi zi (x) + hi (x) .
rr
En notación matricial:
2e−x
−2 1
y0 = y+ ⇒ y0 = Ay + g(x) .
1 −2 3x
307
8.1. ALGUNOS COMENTARIOS INICIALES
r
2 2
Ahora cambiando variables y = Tz tendremos el siguiente sistema de ecuaciones
a
0 −x
z1 −3 0 z1 1 2e − 3x
z0 = Âz + h ⇒ = + √ ,
z20 0 −1 z2 2 2e−x + 3x
in
con lo cual podemos escribir el sistema desacoplado de ecuaciones lineales de primer orden
√ 3 √ 3
z10 + 3z1 = 2e−x − √ x y z20 + 3z2 = 2e−x + √ x .
2 2
m
Como ya sabemos, la solución es inmediata
√
√
2 −x 3 x 1 3
z1 (x) = e −√ − + C1 e−3x y z2 (x) = 2xe−x + √ (x − 1) + C2 e−x
2 2 3 9 2
eli
y devolviendo el cambio de variables tenemos que
1 z1 + z2
y = Tz ⇒ y = √ .
2 −z1 + z2
Vemos que
Pr
1 C C 1 −x 4
√ (z1 + z2 ) = √1 e−3x + √2 + e + x − + xe−x
2 2 2 2 3
1 C1 C2 1 −x 5
√ (−z1 + z2 ) = − √ e−3x + √ − e + 2x − + xe−x .
2 2 2 2 3
or
C1 C2
Si utilizamos unas nuevas constantes: C1 = √ 2
y C2 = √ 2
, resulta que podemos escribir la solución de la
forma:
1 −3x 1 −x 1 1 −x 1 −x 1 1 4
y = C1 e + C2 e + e + xe + x− .
−1 1 2 −1 1 2 3 5
ad
De esta solución es fácil reconocer que los primeros dos términos se corresponden a la solución del sistema
homogéneo y los restantes términos tienen que ver con una solución particular del sistema inhomogéneo.
8.1.4. Ejemplos
rr
1. Encuentre un sistema de ecuaciones diferenciales de primer orden equivalente para las siguientes ecua-
ciones
a) y 00 − 3x2 yy 0 = 0 b) y 000 − 2x(y 0 )2 + 3xy 00 − xy = 0
308
8.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES
r
3. Encuentre la solución general de los siguientes sistemas de tres ecuaciones diferenciales
a) y10 = y1 + y2 + 2y3 , y20 = y1 + 2y2 + y3 , y30 = 2y1 + y2 + y3
a
b) y10 = 3y1 + 2y2 + 4y3 , y20 = 2y1 + 2y3 , y30 = 4y1 + 2y2 + 3y3
in
c) y10 = y1 + y2 + y3 , y20 = 2y1 + y2 − y3 , y30 = −8y1 − 5y2 − 3y3
m
4. Encuentre la solución general de los siguientes sistemas de ecuaciones diferenciales
a) y10 = 2y1 − y2 + ex , y20 = 3y1 − 2y2 + x
eli
√ √ √
b) y10 = y1 + 3y2 + ex , y20 = 3y1 − y2 + 3ex
t
Rápidamente nos damos cuenta que la primera ecuación puede ser integrada de manera directa:
dx
= 2e2t ⇒ x(t) = e2t + C1
dt
rr
309
8.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES
Anteriormente vimos algunas ventajas que aparecen por el hecho de utilizar la notación de operadores
para encontrar una solución de una ecuación diferencial lineal de orden n. Recordemos que una ecuación
diferencial lineal de orden n con coeficientes constantes se podı́a escribir de la siguiente manera:
donde
P (D) = a0 + a1 D + a2 D2 + · · · + an Dn , an 6= 0 .
r
con: a2 , a1 , a2 , . . . , an constantes.
En el caso de sistemas lineales de ecuaciones diferenciales podemos también hacer uso de esta notación:
a
P11 (D)y1 + P12 (D)y2 + P13 (D)y3 + · · · + P1n (D)yn = Q1 (x)
in
P21 (D)y1 + P22 (D)y2 + P23 (D)y3 + · · · + P2n (D)yn = Q2 (x)
.. ..
. .
Pn1 (D)y1 + Pn2 (D)y2 + Pn3 (D)y3 + · · · + Pnn (D)yn = Qn (x) . (8.6)
m
La solución del sistema (8.6) es el conjunto de funciones: {yn (x)}, cada una de ellas definidas en un
intervalo común I.
Por ejemplo, para el siguiente sistema se tiene
eli
2y10 (x) + 3y1 (x) + 5y20 (x) − y2 (x) = ex (2D + 3)y1 + (5D − 1)y2 = ex
⇒
y10 (x) − y1 (x) + 3y20 (x) + y2 (x) = sen(x) (D − 3)y1 + (3D + 1)y2 = sen(x)
Pr
Notemos también que el sistema (8.6) es un caso más general a los estudiados anteriormente, que eran
de la forma:
y0 (x) = P (x) y(x) + g (x) .
Por cuestiones netamente didácticas nos detendremos en el caso n = 2, entendiendo que los resultados
aquı́ obtenidos pueden extrapolarse para cualquier valor de n.
Cuando n = 2, tenemos entonces:
or
Estos sistemas al resolverse para las funciones incógnitas deben contener un número apropiado de cons-
ad
tantes y para tal fin existe un teorema que garantiza el número correcto de constantes que deben aparecer.
Teorema: El número de constantes arbitrarias que deben aparecer en la solución del sistema (8.7) debe
ser igual al orden de la siguiente expresión:
rr
con: ∆ 6= 0.
Bo
Si se da el caso que ∆ = 0, se dice que el sistema es degenerado. Notemos además que (8.8) tiene la forma
de un determinante.
310
8.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES
Caso no degenerado: ∆ 6= 0
El sistema (8.7) puede ser tratado como un sistema de ecuaciones algebraico. Esto significa que podemos
manipular las filas a nuestra conveniencia para obtener su solución o utilizar cualquier técnica para la
resolución de sistemas de ecuaciones algebraicas desarrollado en cursos anteriores.
Veamos un ejemplo:
2ẋ − x + ẏ + 4y = 1
ẋ − ẏ = t − 1.
r
Tal vez sea conveniente adaptar el problema a nuestra notación, es decir, hacemos los siguientes cambios:
a
x(t) = y1 (x) y y(t) = y2 (x). Por lo tanto:
in
2y10 (x) − y1 (x) + y20 (x) + 4y1 (x) = 1
y10 (x) − y20 (x) = x − 1.
m
(2D − 1)y1 + (D + 4)y2 = 1
Dy1 − Dy2 = x − 1.
eli
Multipliquemos la primera ecuación por D y la segunda por D + 4:
3y100 + 3y10 = 4x − 3 ,
or
con la ayuda de algunos de los métodos anteriormente vistos se obtiene la respectiva solución:
2 7
y1 (x) = C1 + C2 e−x + x2 − x .
ad
3 3
4 7
−C2 e−x + x − − Dy2 = x−1
3 3
1 4
−C2 e−x + x − − Dy2 = 0,
Bo
3 3
por lo tanto:
1 4 1 4
y20 = −C2 e−x + x − ⇒ y2 (x) = C2 e−x + x2 − x + C3 .
3 3 6 3
311
8.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES
Ahora podemos estudiar el tema del número de constantes que deben aparecer. Del teorema anterior
vemos que el determinate
es de orden 2. Por lo tanto, según el teorema antes mencionado deben existir únicamente dos constantes.
Esto significa que tenemos una constante demás. Podemos hallar una relación entre las constantes
sustituyendo las dos soluciones encontradas en la primera ecuación del sistema, recordemos la la segunda
ecuación ya fue utilizada para encontrar y2 (x). Esto es:
r
−x 2 2 7 −x 1 2 4
a
(2D − 1) C1 + C2 e + x − x + (D + 4) C2 e + x − x + C3 = 1
3 3 6 3
C1 + 7
in
−6 − C1 + 4C3 = 1 ⇒ C3 = .
4
m
2 7
y1 (x) = C1 + C2 e−x + x2 − x
3 3
−x 1 2 4 C1 + 7
y2 (x) = C2 e + x − x + .
6 3 4
eli
Caso degenerado: ∆ = 0
Como puede suceder para los sistemas algebraicos el sistema de ecuaciones puede ser degenerado, es
decir, podrá tener infinitas soluciones o no tener solución, por ejemplo, el sistema:
Pr 2x + 3y = 5
2x + 3y = 7,
2x + 3y = 0
or
4x + 6y = 0,
tiene infinitas soluciones. En ambos casos, el determinante conformado por los coeficientes de x y de y
es cero. Notemos también que para el primer sistema, si despejamos y de la segunda ecuación
ad
7 − 2x
y= ,
3
y la sustituimos en la primera resulta:
7 − 2x
rr
2x + 3 =5 ⇒ 7 = 5,
3
312
8.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES
y la sustituimos en la otra
2x
2x + 3 − = 0 ⇒ 0 = 0.
3
Existen infinitas soluciones si el sistema se reduce a una igualdad del tipo 0 = 0.
Con los sistemas de ecuaciones diferenciales pasa lo mismo. Veamos un par de ejemplos.
El sistema
Dy1 − Dy2 = x
r
Dy1 − Dy2 = x2 .
a
es degenerado porque −D2 − (−D2 ) = 0. Si despejamos Dy1 de la segunda ecuación
in
Dy1 = Dy2 + x2 ,
y sustituimos en la primera:
m
Dy2 + x2 − Dy2 = x ⇒ x2 = x .
eli
Volvamos al caso no degenerado. Como hemos mencionado el hecho de usar los operadores hace que el
sistema puede ser tratado de manera similar al de un sistema algebraico, y por lo tanto, podemos utilizar
cualquiera de los métodos para la resolución de sistemas algebraicos.
Consideremos el siguiente sistema de ecuaciones lineales:
Pr
P11 (D)y1 + P12 (D)y2 + P13 (D)y3 = Q1 (x)
P21 (D)y1 + P22 (D)y2 + P23 (D)y3 = Q2 (x)
P31 (D)y1 + P32 (D)y2 + P33 (D)y3 = Q3 (x) . (8.9)
∆ = P11 (D)P22 (D)P33 (D) + P21 (D)P32 (D)P13 (D) + P12 (D)P23 (D)P13 (D)
or
− P31 (D)P22 (D)P13 (D) − P32 (D)P23 (D)P11 (D) − P21 (D)P12 (D)P33 (D)
La manera usual de resolver este sistema es eliminar algunas de las variables, digamos y3 , de manera que
nos queda un sistema reducido a dos ecuaciones, digamos:
ad
la cual podemos resolver para y1 . Al sustituir este valor en cualquiera de las ecuaciones (8.10) se obtiene y2 .
Bo
313
8.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES
Otra manera de proceder es manipular el sistema (8.9) de manera tal que se obtenga un sistema equiva-
lente triangular, es decir, de la forma:
Aquı́, las soluciones se van obteniendo desde la primera ecuación hasta la última. Es bueno resaltar
r
el hecho de que las soluciones obtenidas utilizando un sistema equivalente triangular contienen el número
correcto de constantes requerido por el sistema. Entonces, para obtener un sistema equivalente triangular
a
procedemos de la siguiente manera: decidimos dejar una de las ecuaciones sin intervenir y manipulamos las
otras dos, repetimos este procedimiento las veces que sean necesarias hasta obtener el sistema deseado.
Por ejemplo, resolvamos el sistema
in
ẋ − 2x + y − z = t (D − 2)y1 + y2 − y3 = x
−x + 2ẏ + y + 2z = 1 ⇒ −y1 + (2D + 1)y2 + 2y3 = 1
m
2x + 6y + ż = 0 2y1 + 6y2 + Dy3 = 0 .
eli
de esta manera eliminar y3 . Con el mismo fin, multiplicamos la primera por D y la sumamos con la
tercera. Con esto obtenemos:
(D − 2)y1 + y2 − y3 = x
Pr
(D − 5)y1 + (2D + 3)y2 = 2x + 1
(D2 − 2D + 2)y1 + (D + 6)y2 = 1
(D − 2)y1 + y2 − y3
or
= x
2
(−2D + 6D − 9)y1 − 9y2 = 2x − 1
2
(D − 2D + 2)y1 + (D + 6)y2 = 1
ad
(D − 2)y1 + y2 − y3 = x
(−2D2 + 6D − 9)y1 − 9y2 = 2x − 1
rr
3 2
(−D + 3D + 9D − 36)y1 = 12x + 5
C1 3 x 2C2 − 3 x 2 2 37
y1 (x) = e − e 2 + x + x + C3 .
3 3 3 9
314
8.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES
Al sustituir y1 (x) en la segunda ecuación resulta que simplemente queda despejar y2 (x)
2 C1 3 x 2C2 − 3 x 2 2 37
(−2D + 6D − 9) e − e 2 + x + x + C3 − 9y2 = 2x − 1
3 3 3 9
3
−3C1 e3 x + 15C2 e− 2 x − 6 x2 − 29x + 22 − 9C3 − 9y2 = 2x − 1 ,
es decir:
C1 3x 5C2 − 3 x 2 2 31 23
y2 (x) = − e + e 2 − x − x+ − C3 .
3 3 3 9 9
r
Queda por último sustituir y1 (x) y y2 (x) en la primera ecuación y despejar y3 (x):
a
C1 3 x 2C2 − 3 x 2 2 37
(D − 2) e − e 2 + x + x + C3 +
3 3 3 9
in
C1 5C2 − 3 x 2 2 31 23
− e3x + e 2 − x − x+ − C3 − y3 = x
3 3 3 9 9
3 31 20
4C2 e− 2 x − 2 x2 − x+ − 3C3 − y3 = x ,
m
3 3
por lo tanto:
3 34 20
y3 (x) = 4C2 e− 2 x − 2 x2 − x+ − 3C3 .
3 3
eli
No es necesario investigar sobre el número de constantes, en todo caso, y solo por curiosidad se puede
ver que el determinante del sistema, al igual que para el sistema triangular, es de orden 3:
D−2 1 −1
Pr 3 2
∆= −1 2D + 1 2 = 2 D − 3 D − 9D + 36 .
2 6 D
8.2.1. Ejemplos
8.2.2. Practicando con Maxima
or
8.2.3. Ejercicios
1. Resuelva el sistema
ad
(D + 3)y1 + (D + 1)y2 = ex
(D + 1)y1 + (D − 1)y2 = x.
Dy1 − Dy2 = x
4Dy1 − 4Dy2 = 4x .
Bo
315
8.3. SISTEMAS Y LA TRANSFORMADA DE LAPLACE
r
Veamos el ejemplo de resolver el sistema
a
ẍ − 4x + ẏ = 0
−4ẋ + ÿ + 2y = 0 con: x(0) = 0 , ẋ(0) = 1 , y(0) = −1 , ẏ(0) = 2 .
in
En este caso el sistema consiste de dos ecuaciones con dos incógnitas, pero debe quedar claro que el método
se puede extender para sistemas con un número mayor de ecuaciones.
Como vimos anteriormente, utilizando la notación de las transformadas de Laplace el sistema se puede
m
escribir de la siguiente manera.
eli
Donde también, hemos rebautizado las funciones de la siguiente manera: y1 (x) = x(t) y y2 (x) = y(t).
Revisando las notas de las clases correspondientes a las transformadas de Laplace, podemos ver que el
sistema anterior queda de la siguiente forma:
Pr
s2 L [y1 ] − y10 (0) − sy1 (0) − 4L [y1 ] + sL [y2 ] − y2 (0) = 0
2
−4sL [y1 ] + 4y1 (0) + s L [y2 ] − y20 (0) − sy2 (0) + 2L [y2 ] = 0
al sustituir los respectivos valores para las condiciones iniciales y factorizando, resulta:
Este último sistema puede ser tratado como un sistema algebraico para L [y1 ] y L [y2 ]. Si multiplicamos
la primera por 4s, la segunda por s2 − 4 y luego las sumamos eliminamos L [y1 ], resulta:
ad
despejando L [y2 ]:
" √ √ #
−s3 + 2s2 + 4s − 8 −s3 + 2s2 + 4s − 8 1 1 + 2 1 − 2 8(s − 2)
rr
L [y2 ] = = = √ + √ − 2 .
s4 + 2s2 − 8 (s2 + 4)(s2 − 2) 6 s+ 2 s− 2 s +4
Ahora debemos buscar en nuestra tablita de transformadas de Laplace, para hallar las transformadas
Bo
316
8.3. SISTEMAS Y LA TRANSFORMADA DE LAPLACE
inversas:
√
h √ √ i 1+ 2
L (1 + 2)e− 2x = √
s+ 2
√
h √ √2x i 1− 2
L (1 − 2)e = √
s− 2
s
L [−8 cos(2x)] = −8 2
s + 22
r
2
L [8 sen(2x)] = 8 2
s + 22
a
por lo tanto:
√ √ √
in
1h √ i
y2 (x) = (1 + 2)e− 2x + (1 − 2)e 2x − 8 cos(2x) + 8 sen(2x) .
6
Para calcular y1 (x), podemos sustituir L [y2 ] en cualquiera de las ecuaciones (8.13) - (8.13) y resolver
para L [y1 ]:
m
3
−s + 2s2 + 4s − 8
2 2
(s − 4)L [y1 ] + sL [y2 ] = 0 ⇒ (s − 4)L [y1 ] + s = 0,
(s2 + 4)(s2 − 2)
eli
esto es: " √ √ #
s(s − 2) 1 2− 2 2+ 2 s+2
L [y1 ] = 2 =− √ + √ −4 2 .
(s + 4)(s2 − 2) 12 s − 2 s + 2 s +4
Nuevamente buscando en las tablas de transformadas de Laplace, término por término, se llega finalmente
al siguiente resulado:
Pr
1 h √ √ √ √ i
y1 (x) = − (2 − 2)e 2x + (2 + 2)e− 2x − 4 cos(2x) − 4 sen(2x) .
12
Ejercicios
or
a) ẋ = −x2 , ẏ = −y
b) ẋ = 3e−t , ẏ = x + y
ad
c) ẋ = 2t , ẏ = 3x + 2t , ż = x + 4y + t
d) ẋ = 3x + 2e3t , ẋ + ẏ − 3y = sen(2t)
rr
e) ẍ + 4x = 3 sen(t) , ẋ − ÿ + y = 2 cos(t)
f ) ẍ − 4x − 2ẏ + y = t , 2ẋ + x + ÿ + y = 0
Bo
2. Verifique que los siguientes sistemas son degenerados. Encuentre las soluciones si existen
317
8.3. SISTEMAS Y LA TRANSFORMADA DE LAPLACE
a) Dx + 2Dy = et , Dx + 2Dy = t
r
a) (D − 1)x = 0 , −x + (D − 3)y = 0 , −x + y + (D − 2)z = 0
a
b) (D − 1)x = 0 , 3x + 2(D + 1)y = 0 , 2y + (2D − 3)z = 0
in
c) (D − 2)x = 0 , −3x + (D + 2)y = 0 , −2y + (D − 3)z = 0
d) Dx − y + z = 0 , −x + (D − 1)y = 0 , −x + (D − 1)z = 0
m
4. Resuelva los siguientes sistemas utilizando transformadas de Laplace
a) ẋ − y = t , x − ẏ = 1 , x(0) = 2 , y(0) = 2
eli
c) ẋ + ẏ − 4y = 1 , x + ẏ − 3y = t2 , x(0) = 2 , y(0) = −2
318
Capı́tulo 9
ra
Métodos de soluciones por series
in
m
eli
Pr
or
ad
rr
Bo
319
9.1. OTRA VEZ LAS SERIES
a0 + a1 (x − x0 ) + a2 (x − x0 )2 + a3 (x − x0 )3 + · · · (9.1)
donde a0 , a1 , a2 , . . . , x0 son constantes y x una variable se denomina una serie de potencias. También vimos
que una serie de potencias puede
r
converger sólo para un valor de x = x0
converger absolutamente para valores de x en una vecindad de x0 , es decir: |x − x0 | < ρ.
a
converger absolutamente para todos los valores de x.
in
Si la serie de potencias (9.1) converge en un intervalo I : |x − x0 | < ρ, donde ρ es una constante positiva,
entonces (9.1) define una función f (x) contı́nua para todo x de I. Lo inverso de esta última afirmación es
una cuestión que tendrı́amos que preguntarnos, es decir: dada una función, definida en un intervalo I ¿existe
m
una serie de potencias que la defina? En clases anteriores, vimos que si f (x) es definida por una serie de
potencias, entonces:
eli
f (n) (x0 )
··· + (x − x0 )n + · · · (9.2)
n!
con |x − x0 | < ρ. La serie (9.2) se conoce como la expansión de f (x) en serie de Taylor. Si x0 = 0, la serie
se denomina de Maclaurin.
Pr
Estudiemos ahora la relación que existe entre series y las ecuaciones diferenciales.
y 00 + y = 0 ,
or
se propone encontrar una solución entorno a x = 0, por lo tanto, si consideramos la siguiente función de
prueba
∞
X
y(x) = an xn ,
n=0
ad
entonces, al derivar:
∞
X ∞
X
y 0 (x) = nan xn−1 , y 00 (x) = n (n − 1) an xn−2 ,
n=1 n=2
∞
X ∞
X ∞
X ∞
X
y 00 + y = n (n − 1) an xn−2 + an xn = (k + 2) (k + 1) ak+2 xk + an xn = 0
n=2 n=0 k=0 n=0
Bo
X∞
= [(k + 2) (k + 1) ak+2 + ak ] xk = 0 .
k=0
320
9.1. OTRA VEZ LAS SERIES
Por lo tanto
−ak
(k + 2) (k + 1) ak+2 + ak = 0 ⇒ ak+2 = con k = 0, 1, 2, . . .
(k + 2) (k + 1)
se puede ver que:
a0 a2 −1 (−a0 ) a0 a0 a4 a0 a0
a2 = − ; a4 = − = · = = ; a6 = − =− =− .
2·1 4·3 4·3 2 4·3·2·1 4! 6·5 6·5·4·3·2·1 6!
Y en general
k
r
(−1)
a2k = a0 .
(2k)!
a
Similarmente, para los coeficientes impares se obtiene
a1 a3 −1 (−a1 ) a1 a1 a5 a1 a1
a3 = − ; a5 = − = · = = ; a7 = − =− =− ,
in
3·2 5·4 5·4 3·2 5·4·3·2·1 5! 7·6 7·6·5·4·3·2·1 7!
de donde
k
(−1)
a2k+1 = a1 .
(2k + 1)!
m
De este modo, la solución deseada queda como
∞
X (−a0 ) 2 (−a1 ) 3 a0 4 a1 5 (−a0 ) 6 (−a1 ) 7
y(x) = an xn = a0 + a1 x + x + x + x + x + x + x + ···
2! 3! 4! 5! 6! 7!
eli
n=0
x2 x4 x6 x3 x5 x7
= a0 1 − + − + · · · + a1 x − + − + ···
2! 4! 6! 3! 5! 7!
∞
X (−1) k ∞
X (−1) k
= a0 x2k + a1 x2k+1 = a0 cos(x) + a1 sen(x) .
(2k)!
k=0
Pr (2k + 1)!
k=0
Otro ejemplo, menos conocido pero importante: Considere la ecuación de Hermite1 la cual aparece
en la solución del oscilador armónico cuántico
y 00 − 2xy 0 + λy = 0 .
Para resolver esta ecuación alrededor del punto x0 = 0, proponemos la siguiente expansión en series de
or
n=0
∞
X X∞ X∞
(k + 2) (k + 1)ak+2 xk − 2 nan xn + λ an xn = 0
k=0 n=1 n=0
∞
Bo
X
(2a2 + λa0 ) + [(n + 2) (n + 1)an+2 − 2nan + λan ] xn = 0 ,
n=1
1 Charles Hermite, (1822-1901). Matemático francés, especializado en el estudio de teorı́a de funciones, ofreció importantes
321
9.1. OTRA VEZ LAS SERIES
igualando términos se puede encontrar una relación de recurrencia para los coeficientes:
2a2 2n − λ
a0 = − y an+2 = an , n ≥ 1.
λ (n + 2) (n + 1)
La solución tendrá entonces la siguiente forma:
λ (4 − λ) λ 4 (8 − λ) (4 − λ) λ 6
y (x) = a0 1 − x2 − x − x − ···
2! 4! 6!
(2 − λ) 3 (6 − λ) (2 − λ) 5 (10 − λ) (6 − λ) (2 − λ) 7
r
+ a1 x + x + x + x + ···
3! 5! 7!
a
= a0 y0 (x) + a1 y1 (x)
Nótese que para valores pares de λ una u otra serie se corta y genera polinomios de la forma:
in
λ Ecuación de Hermite Polinomio asociado
0 y 00 − 2xy 0 = 0 y0 (x) = 1
2 y 00 − 2xy 0 + 2y = 0 y1 (x) = x
m
4 y 00 − 2xy 0 + 4y = 0 y0 (x) = 1 − 2x2
6 y 00 − 2xy 0 + 6y = 0 y1 (x) = x − 32 x3
8 y 00 − 2xy 0 + 8y = 0 y0 (x) = 1 − 4x2 + 43 x4
Los polinomios de Hermite también pueden ser obtenidos a partir de la fórmula de Rodrigues:
eli
2 dn −x2
Hn (x) = (−1)n ex e , n = 0, 1, 2, . . . (9.3)
dxn
o a través de una relación de recurrencia
Pr
Hn+1 (x) − 2xHn (x) + 2nHn−1 (x) = 0 .
Podemos ver la relación entre los polinomios de Hermite y las soluciones
λ=0 ⇒ y0 (x) = 1 = H0 (x)
1
λ=2 ⇒ y1 (x) = x = H1 (x)
2
1
or
y luego se propone una solución particular, en forma de serie de potencias, la cual se iguala con la expansión,
también en series de potencias, del término inhomogéneo.
Como ejemplo, antes de proceder a casos más generales resolvamos la ecuación de Airy2 , pero inhomogéna,
los cálculos se dejan como ejercicio para el estudiante. A pesar de su simplicidad, esta ecuación admite sólo
Bo
ecuaciones diferenciales y su utilización en Astronomı́a. Mejoró significativamente las estimaciones teóricas de la órbita de
Venus y la Luna. Realizó estudios matemáticos de la formación del arcoiris y la densidad de la tierra.
322
9.1. OTRA VEZ LAS SERIES
y 00 − xy = 0
Compruebe, siguiendo el procedimiento arriba expuesto, que para una posible ecuación inhomogénea de Airy
y 00 − xy = ex
r
1 3 1 6 0 1 4 1 7 1 1 1
y (x) = y(0) 1 + x + x + · · · + y (0) x + x + x + · · · + x2 + x3 + x4 + · · ·
a
6 180 12 504 2 6 24
Nótese que los dos primeros términos corresponden a la solución de la ecuación homogénea y el último
in
representa la serie que anula el término inhomogéneo. Hemos hecho patente la dependencia de las constantes
de integracón de las condiciones iniciales.
m
En general, dada la ecuación diferencial no homogénea
n
X
a0 (x)y + a1 (x)y 0 + · · · + an−1 (x)y (n−1) + an (x)y (n) (x) = ai (x) y (i) = F(x) . (9.4)
eli
i=0
Si los coeficientes a0 (x) · · · an (x) son funciones analı́ticas en x = x0 (se pueden expresar como una serie
de Taylor de (x − x0 ) que converge al valor de la función con un radio de convergencia de |x − x0 | < ρ),
entonces, la ecuación diferencial (9.4) tendrá como solución única, y = y(x), de la ecuación homogéna, una
Pr
serie de potencias que satisface las n condiciones iniciales:
∞
X
yih (x) = aj xj .
j=0
x2 x3
yh (x) = y(0) + y 0 (0)x + y 00 (0) + y 000 (0) + · · ·
Bo
2! 3!
Por ejemplo, resolver por series la siguiente ecuación diferencial
323
9.1. OTRA VEZ LAS SERIES
Los coeficientes de la expansión se obtienen de los valores de las derivadas en x0 = 0, los cuales salen de
las condiciones iniciales y de la ecuación diferencial, esto es
y(0) = 1; y 0 (0) = 1; y 00 (0) = (0) + (0 + 1) y 0 (0) − 02 y(0) = 1
y de las derivadas de la ecuación diferencial hasta el orden que consideremos conveniente
y 000 (x) = y 0 (x) + (x + 1) y 00 (x) − 2x y(x) − x2 y 0 (x) + 1
y 000 (0) = y 0 (0) + (0 + 1) y 00 (0) − 2(0) y(0) − 02 y 0 (0) + 1
r
y 000 (0) = 1 + 1 + 1 = 3
a
finalmente, la solución es entonces:
x2 x3
in
y(x) = 1 + x + + + ··· .
2 2
Esta solución contiene las dos soluciones (la homogénea y la particular de la inhomogénea) sumadas.
m
9.1.2. Métodos de los Coeficientes Indeterminados
En general, para encontrar la solución a la ecuación antes mencionada:
n
eli
X
ai (x) y (i) (x) = F(x) ,
i=0
se expanden por series de potencias cada uno de los coeficientes a0 (x), . . . , an (x), la función F(x) y se propone
la siguiente solución de prueba
∞
y(x) =
X
Pr
cn (x − x0 )
n
n=0
luego de bastante transpiración se despejan los coeficientes: c0 · · · cn · · · .
Consideremos a misma ecuación del ejemplo anterior.
y 00 − (x + 1) y 0 + x2 y = x ; con y(0) = 1 y y 0 (0) = 1.
or
n=0
∞
X ∞
X X∞ ∞
X
n(n − 1)cn xn−2 − ncn xn − ncn xn−1 + cn xn+2 = x
n=2 n=1 n=1 n=0
Bo
324
9.1. OTRA VEZ LAS SERIES
nótese que en el segundo término se puede comenzar la serie en cero y no pasa nada. Al renombrar nuevamente
los ı́ndices y factorizar se tiene:
∞
X ∞
X
[(n + 2) (n + 1) cn+2 − ncn − (n + 1) cn+1 ] xn + cn−2 xn = x
n=0 n=2
por lo tanto
n=0 ⇒ 2c2 − c1 = 0
r
n=1 ⇒ 3 · 2 c3 − c1 − 2 c2 = 1
a
y la relación de recurrencia para n ≥ 2 es la siguiente
(n + 2) (n + 1) cn+2 − ncn − (n + 1) cn+1 − cn−2 = 0
in
con la cual se obtienen todos los demás coeficientes.
9.1.3. Ejemplos
m
1. Si la ecuación a resolver es ahora
y 00 + sen(x)y 0 + ex y = 0
se expanden los coeficientes
eli
1 1 5 1 1 1 1 5
y 00 + x − x3 + x + · · · y 0 + 1 + x + x2 + x3 + x4 + x + ··· y = 0
6 120 2 6 24 120
se propone una solución en términos de series de potencias
0 P∞
y (x) = n=1 ncn xn−1
X∞
Pr
y(x) = cn x n ⇒ P∞
00
n=0 y (x) = n=2 n(n − 1)cn xn−2
por lo cual, al sustituir en la ecuación diferencial
∞ X ∞ X∞
X
n−2 1 3 n−1 1 2
n(n − 1)cn x + x − x + ··· ncn x + 1 + x + x + ··· cn x n = 0
6 2
or
325
9.2. LOS PUNTOS Y LAS ESTRATEGIAS
r
1 2 1 4 1 6 1 1 1
y(x) = y(0) 1 + x + x + x + · · · + y 0 (0)x + x2 + x3 + x4 + · · ·
2 24 80 2 3 8
a
y al incorporar los valores de las condiciones iniciales se obtiene
in
1 1 1 1 6 4 7 79
y (x) = 1 + x + x2 + x3 + x4 + x5 + x − x − x8 + · · ·
3 6 30 180 315 10 080
2. Utilice el método de los coeficientes indeterminados para resolver
m
x 1
y 00 + 2
y0 − y = e2x ; con y(0) = 1; y y 0 (0) = 1.
1−x 1 − x2
3. Encuentre los términos hasta orden k de la solución particular de cada uno de las siguientes ecuaciones
diferenciales. Utilice ambos métodos: diferenciaciones sucesivas y coeficientes indeterminados.
eli
a) y 0 − xy + x3 = 0 , y(0) = 2 , k = 5
c) xy 00 + x2 y 0 − 2y = 0 ,
Pr
y(1) = 0 , y 0 (0) = −1 , k=4
P (x) P (x)
entonces debemos aclarar algunos aspectos:
Q(x) R(x)
Puntos ordinarios Un punto ordinario x = x0 será aquel alrededor del cual p(x) = P (x) y q (x) = P (x)
sean analı́ticas en ese punto, o lo que es igual a
rr
Q (x)
lı́m p(x) ≡ lı́m = L1 , con L1 finito
x→x0 P (x)
x→x0
R (x)
Bo
O también, lo que es lo mismo, que p(x) y q(x) tengan una expansión en Taylor alrededor de ese punto
x = x0 , es decir, que sean analı́ticas.
326
9.2. LOS PUNTOS Y LAS ESTRATEGIAS
r
Puntos singulares irregulares Ninguna de las anteriores.
a
Por ejemplo, Dada la siguiente ecuación:
in
1 0
(x − 1)y 00 + y − 2y = 0 (a)
x
Si dividimos por (x − 1), resulta:
m
1 2y
y 00 + y0 − =0 (b)
x(x − 1) x−1
entonces:
1 2
eli
p(x) = y q(x) = −
x(x − 1) x−1
los puntos x = 0 y x = 1 son puntos singulares de (b). Investiguemos si son puntos singulares regulares:
Para el punto x = 0:
Pr
lı́m (x − 0) p(x) = lı́m
x
= −1
x→0 x→0 x(x − 1)
2x2
2
lı́m (x − 0) q (x) = lı́m − =0
x→0 x→0 x−1
por lo tanto, p(x) y q(x) tienen una espansión en Taylor alrededor de x = 0 y el punto representa una
singularidad regular.
or
Para el punto x = 1:
x−1
lı́m (x − 1) p(x) = lı́m =1
ad
2(x − 1)2
2
lı́m (x − 1) q (x) = lı́m − =0
x→1 x→1 x−1
Por la misma razón del caso anterior, el punto x = 1 también resulta ser una singularidad regular.
rr
(1 − x2 ) y 00 − 2x y 0 + λ(λ + 1) y = 0
3 Adrien Marie Legendre (1752-1833). Matemático francés, encuadrado en la escuela de Parı́s, que surgió luego de la
revolución de 1789. Realizó una teorı́a general de las funciones elı́pticas y divulgó numerosos trabajos de investigadores jóvenes
en el campo del análisis matemático.
327
9.2. LOS PUNTOS Y LAS ESTRATEGIAS
tiene puntos regulares en x 6= ±1 y puntos singulares regulares en x = ±1. Pero es analı́tica en x ∈ (−1, 1),
por lo tanto, todos los x son ordinarios si x ∈ (−1, 1). En ese intervalo se propone una solución de la forma
∞
X
y(x) = an xn
n=0
r
n=2 n=1 n=0
a
multiplicando y acomodando
∞
X ∞
X ∞
X ∞
X
(k + 2)(k + 1)ak+2 xk − n(n − 1)an xn − 2 n an xn + λ(λ + 1) an xn = 0
in
k=0 n=2 n=1 n=0
expandiendo
∞
m
X
2a2 + λ(λ + 1)a0 [(λ + 2)(λ − 1)a1 + (3 · 2)a3 ] x + [(n + 2)(n + 1)an+2 + (λ + n + 1)(λ − n)an ] xn = 0
n=2
eli
por lo tanto
(λ + 1)λ
a2 = − a0
2
(λ + 3)(λ + 1)λ(λ − 2)
a4 = a0
Pr
4!
(λ + 2n − 1)(λ + 2n − 3) · · · (λ + 1)λ(λ − 2) · · · (λ − 2n + 2)
a2n = (−1)n a0
(2n)!
y las potencias impares serán
(λ + 2)(λ − 1)
or
a3 = − a1
3!
(λ + 4)(λ + 2)(λ − 1)(λ − 3)
a5 = a1
5!
(λ + 2n)(λ + 2n − 2) · · · (λ + 2)(λ − 1) · · · (λ − 2n + 1)
(−1)n
ad
a2n+1 = a1
(2n + 1)!
La solución general se puede escribir de la siguiente manera
y(x) = a0 y0 (x) + a1 y1 (x)
rr
con
(λ + 1)λ 2 (λ + 3)(λ + 1)λ(λ − 2) 4
y0 (x) = 1− x + x + ···
2 4!
(λ + 2)(λ − 1) 3 (λ + 4)(λ + 2)(λ − 1)(λ − 3) 5
Bo
y1 (x) = x − x + x + ···
3! 5!
si λ = 2n una de las series se corta y la solución es un polinomio de potencias pares, si λ = 2n + 1 la otra se
corta en uno de potencias impares.
328
9.2. LOS PUNTOS Y LAS ESTRATEGIAS
Los polinomios de Legendre son funciones que surgen en problemas de electrostática como solución de la
r
ecuación de Legendre y son efectivamente polinomios para λ entero. Los Polinomios de Legendre también
pueden ser generados a partir de la Fórmula de Rodrı́gues
a
1 dn 2
Pn (x) = (x − 1)n , n = 0, 1, 2, .....
n!2n dxn
in
con P0 (x) = 1. También se dispone de una relación de recurrencia
m
Podemos ver la relación entre los polinomios de Legendre y las soluciones
eli
λ=1 ⇒ y1 (x) = x = P1 (x)
λ=2 ⇒ y0 (x) 1 − 3x2 = −2P2 (x)
=
5 2
λ=3 ⇒ y1 (x) = x − x3 = − P3 (x)
3 3
35 4 8
λ=4 ⇒
Pr 2
y0 (x) = 1 − 10x + x = P4 (x) .
3 3
9.2.2. Ejemplos
9.2.3. Practicando con Maxima
9.2.4. Ejercicios
or
1. Muestre que los puntos x = 0 y x = 1 son puntos singulares irregulares de la siguiente ecuación:
1 0
(x − 1)2 y 00 + y + 2y = 0 .
x2
ad
2. Obtenga los términos hasta orden k en potencias de (x − x0 ) de la solución general de cada una de las
siguientes ecuaciones diferenciales
a) y 00 − xy 0 + 2y = 0 , x0 = 0 , k=7
rr
c) xy 00 + x2 y 0 − 2y = 0 , x0 = 1 , k=4
Bo
d) y 00 − xy 0 − y = sen(x) , x0 = 0 , k=5
329
9.3. EL MÉTODO DE FROBENIUS
r
∞
a
m
X n
y(x) = (x − x0 ) an (x − x0 ) , (9.6)
n=0
in
donde n es entero positivo, pero m puede ser entero positivo (entonces la serie de Frobenius es una serie de
Taylor) o entero negativo (entonces la serie de Frobenius es una serie de Laurent), o un racional. Por lo cual
una serie de Frobenius incluye a las serie de Taylor y Laurent. Para hacer las cosas más simples supongamos,
sin perder generalidad, x0 = 0. Además, como f1 (x) y f2 (x) son analı́ticas entonces
m
∞
X ∞
X
f1 (x) = bn x n y f2 (x) = cn x n (9.7)
n=0 n=0
eli
por lo tanto, la ecuación (9.5) queda
f1 (x) 0 f2 (x)
y 00 + y + y = 0 ⇒ x2 y 00 + x f1 (x) y 0 + f2 (x) y = 0 (9.8)
x x2
o también:
∞ ∞
2 00
x y +x
Pr
X
n
bn x y + 0
X
cn xn y = 0 .
n=0 n=0
Propondremos entonces la serie de Frobenius como solución de prueba:
∞
X
y(x) = xm a n xn ,
n=0
or
por lo tanto:
∞
X ∞
X
y 0 (x) = mxm−1 an xn + xm nan xn−1
n=0 n=1
ad
∞
X ∞
X ∞
X
y 00 (x) = m (m − 1) xm−2 an xn + 2mxm−1 nan xn−1 + xm n (n − 1) an xn−2 ,
n=0 n=1 n=2
∞ ∞ ∞
" #
X X X
x2 m (m − 1) xm−2 an xn + 2mxm−1 nan xn−1 + xm n (n − 1) an xn−2 +
n=0 n=1 n=2
∞ ∞ ∞ ∞ ∞
" #
X X X X X
Bo
x bn xn mxm−1 an xn + x m
nan xn−1 + cn xn xm an xn = 0 ,
n=0 n=0 n=1 n=0 n=0
4 Ferdinand Georg Frobenius (1849-1917) Matemático Alemán famoso por sus contribuciones en Teorı́a de Grupos y
métodos para resolver ecuaciones diferenciales.
330
9.3. EL MÉTODO DE FROBENIUS
r
∞ ∞ ∞ ∞
" " ∞ ∞
#
a
X X X X X X
xm m (m − 1) an xn + 2m nan xn + n (n − 1) an xn + bn xn m an xn + nan xn +
n=0 n=1 n=2 n=0 n=0 n=1
in
∞ ∞
#
X X
n n
cn x an x = 0.
n=0 n=0
m
Expandiendo estas series y factorizando para los términos de igual potencia:
{a0 [m (m − 1) + b0 m + c0 ]} xm +
{a1 [m (m + 1) + b0 (m + 1) + c0 ] + a0 [b1 m + c1 ]} xm+1 +
eli
{a2 [(m + 2) (m + 1) + b0 (m + 2) + c0 ] + a1 [b1 (m + 1) + c1 ] + a0 [b2 m + c2 ]} xm+2 +
{a3 [(m + 3) (m + 2) + b0 (m + 3) + c0 ] + a2 [b1 (m + 2) + c1 ] + a1 [b2 (m + 1) + c2 ] + a0 [b3 m + c3 ]} xm+3 +
.. ..
. .
Pr
+ · · · + {an [(m + n) (m + n − 1) + b0 (m + n) + c0 ] + an−1 [b1 (m + n − 1) + c1 ] +
an−2 [b2 (m + n − 2) + c2 ] +
an−3 [b3 (m + n − 3) + c3 ] +
+ · · · + a1 [bn−1 (m + 1) + cn−1 ] +
a0 [bn m + cn ]} xm+n = 0
or
(9.9)
µ(m) = m (m − 1) + b0 m + c0 ,
µ(m + 1) = m (m + 1) + b0 (m + 1) + c0 ,
rr
de manera que:
para: a2 ⇒ µ(m + 2) = (m + 2) (m + 1) + b0 (m + 2) + c0
Bo
para: a3 ⇒ µ(m + 3) = (m + 3) (m + 2) + b0 (m + 3) + c0
.. .. .. ..
. . . .
para: an ⇒ µ(m + n) = (m + n) (m + n − 1) + b0 (m + n) + c0 .
331
9.3. EL MÉTODO DE FROBENIUS
Como es de esperarse, este polinomio se anula si los coeficientes de xm , . . . , xm+i se anulan. La primera
de las ecuaciones que surge es lo que llamaremos la ecuación indicadora o ı́ndice
a0 6= 0 ⇒ µ(m) = m (m − 1) + b0 m + c0 = 0 , (9.11)
r
que no es otra cosa que un polinomio de segundo grado en m.
a
Al anular el coeficiente de xm+n
n−1
in
X
an µ(m + n) + ak [(m + k) bn−k + cn−k ] = 0 , (9.12)
k=0
obtendremos la relación de recurrencia para la serie de Frobenius, correspondientes a cada raı́z de la ecuación
indicadora (9.11), es decir, los coeficientes an dependerán de m y de los coeficientes que le preceden: {an−1 }.
m
Dado que la ecuación indicadora es un polinomio de segundo grado para m, entonces de allı́ se deri-
van dos raı́ces: m1 y m2 (consideraremos siempre que m1 ≥ m2 ). Dependiendo de como sean estas raı́ces
distinguiremos tres casos:
eli
1. m1 6= m2 ∧ m1 − m2 6= N , con N entero.
2. m1 = m2 = m.
3. m1 6= m2 ∧ m1 − m2 = N , con N entero positivo.
Pr
Como veremos a continuación, las raı́ces determinan fuertemente el comportamiento de las soluciones en
la vecindad de la singularidad. También podemos ver que los dos términos que aparecen en (9.12) no tienen
por qué ser necesariamente diferentes a cero simultáneamente.
Estudiemos estos casos con un poco más de detalle:
Caso 1: m1 6= m2 ∧ m1 − m2 6= N , con N entero.
En ese caso es claro que al resolver la ecuación indicadora y sustituir m1 en (9.12), se van despejando
or
todos los coeficientes a1 , . . . , an en términos de a0 . Notemos que siempre se cumplirá, en (9.12), que
µ(m1 + n) 6= 0. Igualmente al sustituir m2 encontramos la otra solución y ambas son linealmente
independientes. La solución general será
ad
∞
X ∞
X
y(x) = C1 xm1 an xn + C2 xm2 an xn , x > 0,
n=0 n=0
para x < 0, debemos reemplazar xm1 por |x|m1 y xm2 por |x|m2 en la solución anterior.
Por ejemplo, encontremos la solución en términos de series de Frobenius de la siguiente ecuación
rr
1 1
x2 y 00 + x x + y 0 − x2 + y = 0.
2 2
Bo
332
9.3. EL MÉTODO DE FROBENIUS
P∞
Proponemos por lo tanto una serie de Frobenius: y(x) = xm n=0 an xn . Necesitamos ahora hacer
algunas identificaciones fundamentales de esta última ecuación
1 1 b0 = 12 , b1 = 1
2
f1 (x) = + x , f2 (x) = − − x ⇒
2 2
c0 = − 21 , c1 = 0 , c2 = −1 ,
r
En cuanto a la ecuación indicadora tenemos lo siguiente:
a
1 1 m1 = 1
µ(m) = m (m − 1) + b0 m + c0 = 0 ⇒ m (m − 1) + m − = 0 ⇒
in
2 2
m2 = − 21
m
coeficientes {bi } y {ci }. Por lo tanto:
1 1
an (m + n) (m + n − 1) + (m + n) − + an−1 (m + n − 1) − an−2 = 0
eli
2 2
1 1 1
an m2 + 2mn − m + n2 − n − + an−1 (m + n − 1) − an−2 = 0
2 2
Pr 2
an−2 − an−1 (m + n − 1)
an = , para n ≥ 2 ,
m2 + 2mn − 12 m + n2 − 21 n − 1
2
Note que podemos encontrar a1 a partir del coeficiente de xm+1 en la ecuación (9.9):
1 1 2
a1 1 (1 + 1) + (1 + 1) − + a0 [1 + 0] = 0 ⇒ a1 = − a0
2 2 5
rr
con lo cual
1 1
a0 + 45 a0 = 9 9
n=2 ⇒ a2 = 7 (a0 − 2a1 ) = 7 35 a0 ⇒ a2 = 35 a0
2 2
− 52 a0 − 27 82 82
n=3 ⇒ a3 = (a1 − 3a2 ) = 35 a0 = − 945 a0 ⇒ a3 = − 945 a0
Bo
27 27
333
9.3. EL MÉTODO DE FROBENIUS
2 an−2 − n − 23 an−1
an = para n ≥ 2 ,
2n2 − 3n
r
nuevamente, a1 se obtiene del coeficiente de xm+1 en la ecuación (9.9):
a
1 1 1 1 1 1
a1 − + − + a0 − = 0 ⇒ a1 = −a0 ,
2 2 2 2 2 2
in
por lo tanto:
n = 2 ⇒ a2 = a0 − 12 a1 = a0 + 21 a0 = 32 a0 ⇒ a2 = 23 a0
m
2
a1 − 23 a2 = 2
−a0 − 49 a0 = − 13 13
n = 3 ⇒ a3 = 9 9 18 a0 ⇒ a3 = − 18 a0
1
a2 − 52 a3 = 1 3 65 119 119
n = 4 ⇒ a4 = 10 10 2 a0 + 36 a0 = 360 a0 ⇒ a4 = 360 a0
eli
.. ..
. .
Nótese que esta solución vale para 0 < x < ∞. Por cuanto para x < 0, la segunda solución se hace
imaginaria pero se puede resolver haciendo C2 = i C3 .
Caso 2: m1 = m2
or
x2 y 00 + x f1 (x) y 0 + f2 (x) y = 0 ,
donde f1 (x) y f2 (x) son analı́ticas en x = 0. Reacomodemos esta última ecuación de la forma
ad
2
2 00 0 2 d d
x y + x f1 (x) y + f2 (x) y = x + x f1 (x) + f2 (x) y ≡ L [y] = 0 ,
dx2 dx
P∞
donde L {•} está concebido como un operador lineal. Recordamos que si y(x) = xm n=0 an xn , en-
rr
tonces
∞
" n−1
#
X X
m
L [y] ≡ a0 µ (m) x + an µ (m + n) + ak [(m + k) bn−k + cn−k ] xm+n ,
n=1 k=0
Bo
m+n
si anulamos los coeficientes de x entonces
n−1 Pn−1
X
k=0 ak [(m + k) bn−k + cn−k ]
an µ (m + n) + ak [(m + k) bn−k + cn−k ] = 0 ⇔ an = − ,
µ (m + n)
k=0
334
9.3. EL MÉTODO DE FROBENIUS
considerando que µ (m + n) 6= 0.
Por lo tanto, para los an seleccionados (que anulen el coeficiente xm+n ) y tomando el caso cuando las
raı́ces están repetidas, es decir, m1 = m2 = m se tiene lo siguiente:
2
L [y] (m, x) = a0 µ (m) xm = a0 (m − m1 ) xm .
Nótese que estamos considerando L [y] (m, x) como una función de m y x. Por lo cual, al evaluar para
la raı́z m = m1 resulta
r
2
L [y] (m, x)|m=m1 = a0 (m − m1 ) xm = 0.
m=m1
a
Veamos algo más interesante, intentemos derivar respecto a la constante m
d2 d2
d d
in
∂m [L [y]] = ∂m x2 2 + x f1 (x) + f2 (x) y = x2 + x f 1 (x) + f 2 (x) ∂m y
dx dx dx2 dx
h i h i
2 2
L [∂m y] = ∂m a0 (m − m1 ) xm = a0 (m − m1 ) xm ln(x) + 2 (m − m1 ) xm ,
m
comprobamos que también se anula cuando evaluamos en m = m1
h i
2
L [∂m y]m=m1 = a0 (m − m1 ) xm ln x + 2 (m − m1 ) xm = 0,
m=m1
eli
por lo tanto también es solución. Con lo cual una segunda solución puede construirse de la siguiente
manera
∞
" " ##
X
m n
y2 (x) = ∂m y|m=m1 = ∂m x a0 + an (m) x
n=1 m=m1
Pr
" ∞
X
# ∞
X
= xm1 ln(x) a0 + an (m1 ) xn + xm1 ∂m [an (m1 )] xn
n=1 n=1
∞
X
m1
= y1 (x) ln(x) + x Bn (m1 ) xn ,
n=1
x2 y 00 + x y 0 + x2 + ν 2 y = 0 .
5 Fredrich Wilhel Bessel (1784-1846). Astrónomo y matemático alemán. Aportó notables contribuciones a la astronomı́a
Bo
posicional, la geodesia y la mecánica celeste. Particularmente, se dedicó a aumentar la exactitud de las mediciones de la
posición y el movimiento de los astros. La precisión de sus mediciones hizo posible que determinara pequeñas irregularidades
en los movimientos de Urano lo condujo a predecir la existencia de Neptuno. Análogos razonamientos lo llevaron a especular
sobre la presencia de estrellas compañeras en Sirio y Procyon. A partir de datos registrados en el siglo XVII, calculó la órbita
del cometa Halley
335
9.3. EL MÉTODO DE FROBENIUS
La ecuación viene parametrizada por ν y dependiendo de su valor tendremos una familia de soluciones.
Consideremos el caso ν = 0:
1 0 x2
x2 y 00 + x y 0 + x2 y = 0 ⇒ y 00 + y + 2y = 0.
x x
Podemos ver que:
b0 = 1
f1 (x) = 1 , f2 (x) = x2 ⇒
r
c0 = 0 , c1 = 0 , c2 = 1
a
m1 = 0
µ(m) = m (m − 1) + b0 m + c0 = 0 ⇒ m (m − 1) + m = m2 = 0 ⇒
in
m2 = 0
m
an−2
an [(m + n) (m + n − 1) + (m + n)] + an−2 = 0 ⇒ an (m) = −
(m + n) (m + n − 1) + (m + n)
tomando m = 0, se tiene:
an−2
eli
an (0) = − para n ≥ 2 .
n2
Otra vez, al anular el coeficiente para xm+1 (ecuación (9.9)) se obtiene:
a1 [0 (0 + 1) + (0 + 1) + 0] + a0 [0 + 0] = 0 ⇒ a1 = 0 .
Pr
Con lo cual, es claro que se anulan todos los coeficientes impares, y ası́
a2n−2
a2n = − 2 para n = 1, 2, 3, . . .
(2n)
tenemos entonces lo siguiente:
or
1
n=1 ⇒ a2 = − a0 ⇒ a2 = − 41 a0
4
1 1 1
n=2 ⇒ a4 = − 2 a2 =
2 a0 ⇒ a4 = 2 a0
(2 · 2) (2 · 2) 22 (2 · 2) 22
ad
" #
1 1 1 −1
n=3 ⇒ a6 = − 2 a4 = − 2 2 a0 ⇒ a6 = 2 a0
(2 · 3) (2 · 3) (2 · 2) 22 (2 · 3) 23
.. ..
. .
rr
n n
a2n−2 (−1) (−1)
n=n ⇒ a2n = − 2 = 2 a0 ⇒ a2n = 2 a0
(2n) 22n (n!) 22n (n!)
Bo
336
9.3. EL MÉTODO DE FROBENIUS
Donde J0 (x) se conoce como la función de Bessel de primera especie de orden cero. Para calcular la
segunda solución de la ecuación de Bessel se sustituye
∞
X
y2 (x) = J0 (x) ln(x) + Bn xn en la ecuación: x2 y 00 + xy 0 + x2 y = 0 ,
n=0
r
x n=1
x x n=2
a
entonces, al sustituir en la ecuación diferencial:
∞ ∞
" # " #
J00 J0 X J0 X
in
2 00 n−2 0 n−1
x J0 ln(x) + 2 − 2 + Bn n (n − 1) x + x J0 ln(x) + + Bn nx +
x x n=2
x n=1
∞
" #
X
2 n
x J0 ln(x) + Bn x = 0
m
n=0
X∞ X∞ X∞
x2 J000 + xJ00 + x2 J0 ln(x) + 2xJ00 + Bn n (n − 1) xn + Bn nxn + Bn xn+2 = 0
| {z } n=2 n=1 n=0
=0
eli
por lo tanto:
∞ ∞ n
X X (−1) 2n 2n
B1 x + 22 B2 x2 + Bn n2 + Bn−2 xn = −2
x .
2n (n!)2
n=3 n=1 2
Pr
Es claro que para los coeficientes impares se obtiene B1 = B3 = B5 = · · · = B2n+1 · · · = 0, ya que
∞ n
X (−1) 2n 2n
B1 x + 22 B2 x2 + 32 B3 + B1 x3 + 42 B4 + B2 x4 + 52 B5 + B3 x5 + · · · = −2
x ,
2n (n!)2
n=1 2
1 (−1) n
B2n = 2 2 − B2n−2 ,
(2n) 22(n−1) (n!)
como se puede ver:
ad
1
B2 = 2 2
22 (1!)
" #
1 4 1 1 1
B4 = 2 2 − 2 −2 1 + =−
(2 · 2) 22 (2!) 22 (1!) 42 22 2
rr
" # " #
1 3 1 3 1 1 1 1 1
B6 = 2 2 − B4 = 62 2 + 42 22 1 + 2 = 2 2 2 1+ +
6 4 2 2 3
(6) 24 (3!) 24 (3!)
.. ..
Bo
. .
k+1 k+1
(−1) 1 1 1 1 1 (−1)
B2k = 2 + + + ··· + + + 1 = 2 Sk .
22k (k!) k k−1 k−2 3 2 22k (k!)
337
9.3. EL MÉTODO DE FROBENIUS
a r
in
m
Figura 9.1: Comportamiento de las funciones de Bessel de orden cero. De primera especie J0 (x) y de segunda
especie Y0 (x)
eli
Ası́ la segunda solución puede tomar la forma de
Pr
y2 (x) = J0 (x) ln(x) +
∞
X (−1)
n+1
x2n .
2n (n!) 2 Sn
n=1 2
n+1
2 h x i X (−1) 2n
y2 (x) ≡ Y0 (x) = γ + ln J0 (x) + Sn x ,
π 2 2n (n!)2
n=1 2
1 1 1 1 1
γ = lı́m + + + · · · + + + 1 − ln (n) ∼ = 0,5772 ,
n→∞ n n−1 n−2 3 2
de manera que finalmente:
Bo
en la Universidad de Pavia y luego rector de la misma. Además de poeta, se destacó por sus contribuciones al cálculo y a la
mecánica.
338
9.3. EL MÉTODO DE FROBENIUS
Nótese que tanto la función de Bessel de orden cero, de primera especie, J0 (x), como la función de
Bessel de orden cero, de segunda especie, Y0 (x), tienen un comportamiento oscilatorio cuando x → ∞.
Además J0 (0) = 1, mientras que Y0 (x) se comporta como π2 ln(x) cuando x → 0.
Caso 3: m1 6= m2 ∧ m1 − m2 = N , con N entero.
En general, para este caso: m1 − m2 = N ⇒ m1 = N + m2 , con m1 > m2 . Notemos que podemos
escribir las dos raı́ces como: m y m + N . Entonces, como m + N es una raı́z satisface también la
ecuación indicadora:
r
µ (m + N ) = (m + N ) (m + N − 1) + b0 (m + N ) + c0 = 0 ,
a
esto significa que µ (m + N ) = 0 anula al coeficiente del término an para n = N del coeficiente xm+n ,
ecuación (9.9), como se puede ver a continuación
in
an [(m + n) (m + n − 1) + b0 (m + n) + c0 ] + an−1 [b1 (m + n − 1) + c1 ] +
an−2 [b2 (m + n − 2) + c2 ] +
an−3 [b3 (m + n − 3) + c3 ] +
m
+ · · · + a1 [bn−1 (m + 1) + cn−1 ] +
a0 [bn m + cn ] = 0
eli
cuando n = N , se tiene
n−1
X
an [(m + N ) (m + N − 1) + b0 (m + N ) + c0 ] + ak [(m + N − k) bn−k + cn−k ] = 0 .
Pr k=0
la raı́z menor, por consiguiente la solución proveniente de esta raı́z menor, m, será la solución
general:
∞ ∞
" #
X X
m n m
y(x) = a0 |x| 1+ an (m) x + aN |x| an (m + N ) xn . (9.13)
ad
n=1 n=0
Un ejemplo: la ecuación de Bessel, de orden fraccionario, puede ilustrar este caso, resolvámosla
2 00 0 2 1
x y + xy + x − y = 0.
4
rr
1
f1 (x) = 1 , f2 (x) = − + x2 ⇒
4
c0 = − 41 , c1 = 0 , c2 = 1
339
9.3. EL MÉTODO DE FROBENIUS
el resto de los coeficientes son iguales a cero. En cuanto a la ecuación indicadora tenemos lo
siguiente:
1 1 m1 = 12
2
µ(m) = m (m − 1) + b0 m + c0 = 0 ⇒ m (m − 1) + m − = m − = 0 ⇒
4 4
m2 = − 21
Las dos raı́ces son diferentes y su diferencia es un entero: N = 1/2 − (−1/2) = 1. La raı́z más
pequeña es m = −1/2
r
Vayamos al coeficiente de xm+1 en (9.9):
a
a1 [m (m + 1) + b0 (m + 1) + c0 ] + a0 [b1 m + c1 ] = 0
1
a1 m (m + 1) + (m + 1) − + a0 [0m + 0] = 0
in
4
3
a1 m2 + 2m + + a0 [0] = 0 .
4
m
Para la raı́z más pequeña, que es m = −1/2, tendremos
1 3
a1 −1+ + a0 [0] = 0
4 4
eli
a1 [0] + a0 [0] = 0 ,
el coeficiente de a1 es cero y el del otro coeficiente también es cero. Con lo cual cualquier valor de
a1 y a0 estarán permitidos.
La relación de recurrencia proviene de anular el coeficiente de xm+n , para m = −1/2. Vale decir
Pr
1 1 1 1 1
an − + n − +n−1 + − +n − + an−1 0 − + n − 1 + 0 +
2 2 2 4 2
1
an−2 0 − + n − 2 + 1 = 0
2
1 3 1 1
an − + n − +n + − +n − + an−1 [0] + an−2 [1] = 0
or
2 2 2 4
an n2 − n + an−2 = 0 .
an−2
an = − con n ≥ 2 .
n2 − n
Los coeficientes serán
1 1
n = 2 ⇒ a2 = − a0 n = 3 ⇒ a3 = − a1
rr
2 6
1 1 1 1
n = 4 ⇒ a4 = − a2 = a0 n = 5 ⇒ a5 = − a3 = a1
12 24 20 120
Bo
1 1 1 1
n = 6 ⇒ a4 = − a4 = − a0 n = 7 ⇒ a7 = − a5 = − a1
30 720 42 5040
.. ..
. .
340
9.3. EL MÉTODO DE FROBENIUS
r
PN −1
2.- µ (m + N ) = 0 ∧ k=0 ak [(m + N − k) bn−k + cn−k ] 6= 0.
En este caso la raı́z mayor de la ecuación indicadora m1 = m+N determinará una de las soluciones.
a
Veamos el siguiente ejemplo: analicemos la siguiente ecuación diferencial
in
x2 y 00 − x (2 − x) y 0 + 2 + x2 y = 0 .
Ahora
b0 = −2 , b1 = 1
f1 (x) = −2 + x , f2 (x) = 2 + x2 ⇒
m
c0 = 2 , c1 = 0 , c2 = 1 ,
eli
debemos resolver
m1 = 2
µ(m) = m (m − 1) + b0 m + c0 = 0 ⇒ m (m − 1) − 2m + 2 = m2 − 3m + 2 = 0 ⇒
m2 = 1
Por lo tanto N = 1.
Pr
Veamos nuevamente al coeficiente de xm+1 en (9.9)
a1 [m (m + 1) + b0 (m + 1) + c0 ] + a0 [b1 m + c1 ] = 0
a1 [m (m + 1) − 2 (m + 1) + 2] + a0 [m + 0] = 0
a1 m2 − m + a0 [m] = 0 .
or
por lo tanto:
an n2 + n = −an−1 [1 + n] − an−2 ,
para n ≥ 2 ,
los coeficientes serán
341
9.3. EL MÉTODO DE FROBENIUS
1
n = 2 ⇒ 6a2 = −3a1 − a0 = 3a0 − a0 ⇒ a2 = a0
3
4 1
n = 3 ⇒ 12a3 = −4a2 − a1 = − a0 + a0 ⇒ a3 = − a0
3 36
.. ..
. .
Por lo cual:
1 1
y1 (x) = a0 x2 1 − x + x2 − x3 + · · · ,
r
3 36
y la segunda solución linealmente independiente (se deja como ejercicio) será
a
y2 (x) = u (x) − bN y1 (x) ln(x) , (9.14)
in
donde N es la diferencia entre las raı́ces. y1 (x) es la solución en series obtenida a partir de la raı́z
mayor: n + N y u(x) es la serie de Frobenius:
∞
m
X
m
u (x) = x bi x i . (9.15)
i=0
9.3.1. Ejemplos
eli
9.3.2. Practicando con Maxima
9.3.3. Ejercicios
1. Resuelva la siguiente ecuación diferencial
Pr
2x2 y 00 − x y 0 − (x + 1) y = 0 .
2. Verifique que el origen es una singularidad regular y encuentre la solución de la siguiente ecuación
diferencial
x2 y 00 + x y 0 + x2 − 1 y = 0 .
or
3. Verifique que el origen es una singularidad regular de cada una de las ecuaciones siguientes. Como las
raı́ces de la ecuación indicadora no difieren por un entero y encuentre las dos soluciones linealmente
independientes
ad
a) x2 y 00 + x(x + 21 )y 0 + xy = 0
b) 2x2 y 00 + 3xy 0 + (2x − 1)y = 0
c) 2xy 00 + (x + 1)y 0 + 3y = 0
d ) 2x2 y 00 − xy 0 + (1 − x2 )y = 0
rr
4. Verifique que el origen es una singularidad regular de cada una de las ecuaciones siguientes. Como
las raı́ces de la ecuación indicadora difieren por un entero encuentre las dos soluciones linealmente
independientes
Bo
a) x2 y 00 − x2 y 0 + (x2 − 2)y = 0
b) x2 y 00 + (1 + x3 )xy 0 − y = 0
342
9.4. REVISITANDO A BESSEL
c) x2 y 00 + xy 0 + (x2 − 19 )y = 0
5. Verifique que el origen es una singularidad regular de cada una de las ecuaciones siguientes. Como las
raı́ces de la ecuación indicadora se repiten encuentre al menos una de las soluciones
a) x2 y 00 − 3y 0 + 4(x + 1)y = 0
b) xy 00 + (1 − x)y 0 + 21 y = 0
a r
La Ecuación de Bessel es
x2 y 00 + xy 0 + x2 − k 2 y = 0;
k ∈ <, (9.16)
in
obviamente x = 0 es una singularidad regular, por lo tanto el método de Frobenius nos permite afirmar que
si x = x0 corresponde a un polo regular de la ecuación
x2 y 00 + xf1 (x) y 0 + f2 (x) y = 0 ,
m
la solución vendrá expresada de la forma
∞
X
m n
y(x) = (x − x0 ) an (x − x0 ) ,
n=0
eli
con m real y determinado a través de las raı́ces de la ecuación indicadora
m2 + (f1 (x0 ) − 1) m + f2 (x0 ) = 0 ,
y donde f1 (x) y f2 (x) son funciones analı́ticas en el entorno de x = x0 y por lo tanto
∞
X
Pr ∞
X
n n
f1 (x0 ) = bn (x − x0 ) ∧ f2 (x0 ) = cn (x − x0 ) .
n=0 n=0
los demás coeficientes b’s y c’s se anulan. La ecuación indicadora y sus raı́ces quedan como
m (m − 1) + m − k 2 = 0 ⇒ m2 = k 2 ⇒ m1,2 = ±k .
Donde, para m = k proponemos
ad
∞
X
y1 (x) = xm an xn .
n=0
Al hacer las cuentas para cada término por separado se tiene
∞ ∞
rr
X X
x2 − k 2 y1 (x) xk an−2 xn − xk k 2 a n xn
=
n=2 n=0
X∞
xy10 (x) = xk (k + n) an xn
Bo
n=0
X∞
x2 y100 (x) = xk (k + n) (k + n − 1) an xn ,
n=0
343
9.4. REVISITANDO A BESSEL
r
an−2
an = − para n ≥ 2 ,
a
n (2k + n)
in
1
a0 = ,
2k Γ (k + 1)
m
tendremos
a1 = a3 = a5 = · · · = 0
a0
a2 = −
eli
2 (2k + 2)
a0
a4 =
2 · 4 (2k + 2) (2k + 4)
..
.
n
Pr a0
a2n = (−1) 2n .
2 n! (k + 1) (k + 2) · · · (k + n)
n=0
J0 (x) = 2 .
n=0 (n!)
2
Para el caso particular de k = N entero positivo la función de Bessel de primera especie toma la forma
de
∞ n
x 2n+N
X (−1)
JN (x) = .
rr
n=0
n! (n + N )! 2
Para encontrar la segunda solución linealmente independiente de la ecuación de Bessel el método de
Frobenius propone tres casos dependiendo el valor de k
Bo
m1 − m2 6= entero ⇒ k 6= entero
m1 = m2 = m ⇒ k = 0
m1 − m2 = entero ⇒ k = entero
344
9.4. REVISITANDO A BESSEL
a r
in
m
eli
Caso 1: m1 − m2 6= entero ⇒ k 6= entero.
La solución general será de la forma
Pr
y(x) = C1 Jk (x) + C2 J−k (x) ,
donde
∞ n x 2n−k
X (−1)
J−k (x) = x>0
n=0
Γ (n + 1) Γ (n − k + 1) 2
or
345
9.4. REVISITANDO A BESSEL
De donde se obtiene
∞
X ∞
X
xK0 (x) = ãn xn+1 + xJ0 (x) ln(x) = ãn−2 xn−1 + xJ0 (x) ln(x)
n=0 n=3
∞ ∞
X 0
X J0 (x)
K00 (x) = nãn xn−1 + (J0 (x) ln(x)) = nãn xn−1 + J00 (x) ln(x) +
n=0 n=1
x
∞
X J0 (x)
xK000 (x) = n (n − 1) ãn xn−1 + xJ000 (x) ln(x) + 2J00 (x) − ,
r
n=2
x
a
y por lo tanto
∞
in
X
+ xJ000 + J00 + xJ0 ln(x) + 2J00 (x) = 0 .
2 n−1
ã1 + 4ã2 x + n ãn + ãn−2 x
n=3
| {z }
= 0
m
∞ ∞ n+1
X X 2n (−1)
n2 ãn + ãn−2 xn−1 = −2J00 (x) = 2 x2n−1 .
ã1 + 4ã2 x + 2
n=3 n=1
22n−1 (n!)
eli
Ahora multiplicando la expresión por x y separando las sumatorias en sus términos pares e impares,
tendremos
∞ h
X i
2
ã1 x + (2n + 1) ã2n+1 + ã2n−1 x2n+1 = 0
n=1
X∞ h i
Pr ∞
X 2n
2 n+1
(2n) ã2n + ã2n−2 x2n + 4ã2 x2 = x2 + (−1) 2x
2n
.
n=2 n=1 22n (n!)
2
22n (n!)
22
1 1 1 1
ã4 = − 2 2 1+ =− 2 1+
2 ·4 2 24 · (2!) 2
..
.
rr
n+1
(−1) 1 1 1 1
ã2n = 2 1+ + + + ··· + .
22n (n!) 2 3 4 k
Bo
346
9.4. REVISITANDO A BESSEL
En Fı́sica, es costumbre expresar esta solución de una forma equivalente pero ligeramente diferente:
∞ n
2 X (−1) 1 1 1 x 2n 2 h x i
Y0 (x) = − 1 + + + · · · + + J 0 (x) ln + γ ,
π n=0 (n!)2 2 3 k 2 π 2
r
∞
a
X
Kk (x) = ãn xk+n + CJn (x) ln(x) .
n=0
in
Procediendo de forma equivalente a la situación anterior tenemos que la solución general podrá expre-
sarse (luego de una laboriosa faena) como
m
k−1 ∞ n
1 X (k − n − 1)! x 2n−k Hk x k 1 X (−1) [Hn + Hn+k ] x 2n+k
Kk (x) = − − − +Jk (x) ln(x) .
2 n=0 n! 2 2k! 2 2 n=1 n! (k + n)! 2
eli
k−1 ∞ n
1 X (k − n − 1)! x 2n−k Hk x k 1 X (−1) [Hn + Hn+k ] x 2n+k
Yk (x) = − 2 − −
π n=0 (n!) 2 πk! 2 π n=1 n! (k + n)! 2
2 h x i
Pr +
π
Jk (x) ln
2
+γ .
En ambos casos
1 1 1
Hn = 1 + + + ··· +
2 3 n
Más aún
or
k−1
2 x 1 X (k − n − 1)! x 2n−k
Yk (x) = Jk (x) ln − 2
π 2 π n=0 (n!) 2
∞ n x 2n+k
1 X (−1)
ad
Γ0 (n)
donde ψ(n) = es la función Digamma con
Γ(n)
rr
1 1 1
ψ(n + 1) = −γ + 1 + + + ··· + , ψ(1) = −γ .
2 3 n
También es costumbre definir la función de Bessel de segunda especie en términos de las de primera
Bo
especie
Jk (x) cos(kπ) − J−k (x)
Nk (x) = Yk (x) = .
sen(kπ)
347
9.4. REVISITANDO A BESSEL
a r
in
m
eli
Nótese que para k = N entero, aparentemente no esta definida. Pero, aplicando la regla de L’Hospital
d
[Jk (x) cos(kπ) − J−k (x)]
NN (x) = dk
Pr
d
[sen(kπ)]
dk k=N
d d
−πJn (x)sen(nπ) + cos(nπ) Jk (x) −
J−k (x)
dk dk
=
π cos(nπ)
or
k=N
1 d n d
= Jk (x) − (−1) J−k (x) .
π dk dk k=N
ad
De este modo, la soluciones generales para la ecuación de Bessel, se expresan según el caso en
Zk (x) = C1 Jk (x) + C2 J−k (x); k 6= entero
Z̃k (x) = C1 Jk (x) + C2 Yk (x); k=0 ∨ entero
348
9.4. REVISITANDO A BESSEL
donde
u(x) = xα Zk (βxν ) ,
o también
u00 (x) + αxν u(x) = 0 ,
con √
√
2 α 1+ ν
u(x) = xZ 1 x 2 .
ν+2 ν+2
r
9.4.2. Relaciones de recurrencia:
a
Las funciones de Bessel tienen las siguientes relaciones de recurrencia
in
xJk+1 (x) − 2k Jk (x) + xJk−1 (x) = 0
Jk+1 (x) + 2Jk0 (x) − Jk−1 (x) = 0
m
0 −k 0
x Jk (x) = −x−k Jk+1 (x) .
k
x Jk (x) = xk Jk−1 (x) ∧
eli
" ∞
#0 ∞
n n
X (−1) x 2n+2k X (−1) 2 (n + k) x2n+2k−1
= 2n+k
n=0
Γ (n + 1) Γ (n + k + 1) 2 n=0
2 Γ (n + 1) Γ (n + k + 1)
∞ n
X (−1) x2n+(k−1)
= xk
Pr n=0
22n+(k−1) Γ (n + 1) Γ (n + k)
= xk Jk−1 (x) .
Unos cambios apropiados nos llevan a demostrar las segunda de las relaciones y al desarrollar las derivadas
0
xk Jk (x) = kxk−1 Jk (x) + xk Jk0 (x) = xk Jk−1 (x)
or
−k 0
x Jk (x) = −kx−k−1 Jk (x) + x−k Jk0 (x) = −x−k Jk+1 (x)
Por lo cual
ad
Al sumar y restar miembro a miembro obtenemos las relaciones de recurrencia. Es obvia la importancia
que adquieren J1 (x) y J0 (x) para generar el resto de las funciones de Bessel.
rr
2
r ∞ n x 2n
xX (−1)
J1/2 (x) = ,
2 n=0 Γ (n + 1) Γ n + 23
2
349
9.4. REVISITANDO A BESSEL
pero como
3 3 5 2n + 1 3 1 · 3 · 5 · · · (2n + 1)
Γ n+ = · · ··· =Γ ,
2 2 2 2 2 2n
se encuentra que
r ∞ n
xX (−1)
J1/2 (x) = 3
x2n
2 n=0 2n n!Γ 2 1 · 3 · 5 · · · (2n + 1)
x2 x4 x6
x
r
=√ 1− + − + ···
2xΓ 32 2·3 2·4·3·5 2·4·6·3·5·7
a
x3 x5 x7
1 1
= √ 1− + − + ··· = √ sen(x) .
2xΓ 32 2xΓ 23
3! 5! 7!
in
√
Finalmente, y otra vez invocando a las propiedades de la función Gamma: Γ 23 = 2π
r
2
J1/2 (x) = sen(x) .
m
πx
Equivalentemente se puede demostrar que
r
2
J−1/2 (x) = cos(x) ,
eli
πx
y ahora utilizando las relaciones de recurrencia tendremos que
r
1 2 sen(x)
J3/2 (x) = −J−1/2 (x) + J1/2 (x) = − cos(x) .
x πx x
Pr
Ası́ mismo r
3 2 3sen(x) 3 cos(x)
J5/2 (x) = −J1/2 (x) + J3/2 (x) = − − sen(x) .
x πx x2 x
En general
r
2 n+ 1 dn
sen(x)
or
n
Jn+ 21 (x) = (−1) x 2 n n = 1, 2, 3, · · ·
π (xdx) x
r
2 n+ 1 dn
cos(x)
Jn+ 21 (x) = x 2 n n = −1, −2, −3, · · ·
π (xdx) x
ad
Las funciones de Bessel de orden semientero son las únicas funciones de Bessel que pueden ser expresadas
en términos de funciones elementales.
9.4.4. Reflexión
rr
Para el caso k = N entero positivo la Función de Bessel de primera especie toma la forma de
∞ n
x 2n+N
X (−1)
JN (x) =
n=0
n! (n + N )! 2
350
9.4. REVISITANDO A BESSEL
Si k = −N , un entero negativo, los primeros N términos de la serie anterior se anulan ya que Γ(n) → ∞
para n = −1, −2, −3, · · · y la serie se arma como
∞ n x 2n+N X (−1) ∞ l+N
x 2l+N
X (−1)
J−N (x) = =
n! (n − N )! 2 (l + N )! l! 2
n=N l=0
N
J−N (x) = (−1) JN (x) .
r
La función generatriz para las Funciones de Bessel es
a
B(x, t) = e 2 (t− t ) ,
x 1
in
desarrollando las dos series para las exponenciales
xt x x xn
e 2 =1+ t + 2 t2 + · · · + n tn + · · ·
m
2 2 2! 2 n!
n
x x −1 x −2 (−1) xn −n
e 2t = 1 − t + 2 t + ··· + t + ···
2 2 2! 2n n!
Por lo tanto multiplicando ambas series
eli
∞ ∞ n ∞
xn n X (−1) xn −n
B(x, t) = e 2 (t− t ) =
x 1 X X
n n!
t n n!
t = Jn (x) tn
n=0
2 n=0
2 n=−∞
9.4.6.
Pr
Representación integral para las funciones de Bessel
En la expresión anterior para la función generatriz se realiza el siguiente cambio de variable t = eiθ de
este modo
e 2 (t− t ) = eixsen(θ) = cos (xsen(θ)) + isen (xsen(θ)) ,
x 1
y por lo tanto
∞
or
X
cos (xsen(θ)) + isen (xsen(θ)) = Jn (x) [cos (nθ) + isen (nθ)] ,
n=−∞
m
igualando partes reales e imaginarias y recordando que J−m (x) = (−1) Jm (x), para anular los términos
impares en la serie de la parte real y los pares en la de la parte imaginaria, podemos escribir
ad
∞
X
cos (xsen(θ)) = J0 (x) + 2 J2n (x) cos (2nθ)
n=1
∞
X
rr
Multiplicando miembro a miembro en la primera de ellas por cos (2kθ) (y por cos ([2k + 1] θ) ) y la
Bo
segunda por sen ([2k + 1] θ) (y por sen (2kθ)). Integrando (en 0 ≤ θ ≤ π), también miembro a miembro y
351
9.4. REVISITANDO A BESSEL
1 π
Z
J2n (x) = cos (xsen(θ)) cos (2nθ) dθ
π 0
1 π
Z
0= cos (xsen(θ)) cos ([2n + 1] θ) dθ
π 0
1 π
Z
J2n+1 (x) = sen (xsen(θ)) sen ([2n + 1] θ) dθ
π 0
r
Z π
1
0= sen (xsen(θ)) sen (2nθ) dθ .
π 0
a
Sumando miembro a miembro primera con cuarta y segunda con tercera tendremos la expresión integral
in
para las funciones de Bessel
1 π
Z
Jn (x) = cos (cos (nθ) − xsen(θ)) dθ ,
π 0
ya que todos sabemos que
m
cos (nθ − xsen(θ)) = cos (2nθ) cos (xsen(θ)) + sen (2nθ) sen (xsen(θ)) .
eli
Haciendo el caso particular de α = 0 y ν = 1 en la primera de las expresiones equivalentes para la
ecuación de Bessel, tendremos
k2
1
u00 (x) + u0 (x) + β 2 − 2 u(x) = 0 , donde u(x) = Jk (βx) ,
x
Prx
k2
0
[xJk0 (βx)] + β 2 x − Jk (βx) = 0 ,
x
or
suponiendo k real y positivo, planteamos la ecuación para dos ı́ndices diferentes β1 y β2 por lo tanto quedan
como
k2
0
[xJk0 (β1 x)] + β12 x − Jk (β1 x) = 0
x
ad
k2
0
[xJk0 (β2 x)] + β22 x − Jk (β2 x) = 0 .
x
Multiplicando apropiadamente por Jk (β1 x) y Jk (β2 x), Integrando y restando miembro a miembro ten-
dremos que
rr
1
Z Z 1n o
0 0
β22 − β12 xJk (β1 x)Jk (β2 x)dx = Jk (β2 x) [xJk0 (β1 x)] − Jk (β1 x) [xJk0 (β2 x)] dx
0 0
Bo
Z 1
0
= [Jk (β2 x)xJk0 (β1 x) − Jk (β1 x)xJk0 (β2 x)] dx
0
x=1
= Jk (β2 x)xJk0 (β1 x) − Jk (β1 x)xJk0 (β2 x)|x=0
352
9.4. REVISITANDO A BESSEL
ν rJ 0 ν rJ 1 ν rJ 3 ν rY 0 ν rY 1 ν rY 2 ν
1 2.404825558 3.831705970 5.135622302 0.8935769663 2.197141326 3.384241767
2 5.520078110 7.015586670 8.417244140 3.957678419 5.429681041 6.793807513
3 8.653727913 10.17346814 11.61984117 7.086051060 8.596005868 10.02347798
4 11.79153444 13.32369194 14.79595178 10.22234504 11.74915483 13.20998671
5 14.93091771 16.47063005 17.95981949 13.36109747 14.89744213 16.37896656
6 18.07106397 19.61585851 21.11699705 16.50092244 18.04340228 19.53903999
7 21.21163663 22.76008438 24.27011231 19.64130970 21.18806893 22.69395594
r
8 24.35247153 25.90367209 27.42057355 22.78202805 24.33194257 25.84561372
9 27.49347913 29.04682854 30.56920450 25.92295765 27.47529498 28.99508040
a
10 30.63460647 32.18967991 33.71651951 29.06403025 30.61828649 32.14300226
in
Cuadro 9.1: Los ceros de las funciones de Bessel Jn (x) y de la función de Newmann Yn (x).
para βi las raı́ces de los polinomios de Bessel, i.e. Jk (βi ) = 0 podemos deducir que las funciones de Bessel
m
son ortogonales
1
Z
2 2
βi − β j xJk (βi x)Jk (βj x)dx ∝ δij .
0
Más aún, partiendo de la ecuación de Bessel original se puede llegar a
eli
1 0 2 β 2 − k2 2
|Jk (βx)|2 = [Jk (β)] + [Jk (β)] .
Pr 2 2β 2
9.4.8. Ejemplos
9.4.9. Practicando con Maxima
9.4.10. Ejercicios
or
ad
rr
Bo
353
Capı́tulo 10
ar
Funciones Especiales
in
m
eli
Pr
or
ad
rr
Bo
354
10.1. FUNCIÓN GAMMA
r
Γ (z) = lı́m nz
z (z + 1) (z + 2) · · · (z + n)
n→∞
a
∞
1 Y z −z
= zeγz 1+ e n,
Γ (z) n=1
n
in
donde n es un entero positivo y
γ = 0,577215664901 · · ·
se conoce como la constante de Euler-Mascheroni:
m
También es frecuente encontrar Γ (z) con algunas variantes cosméticas:
Z ∞ Z 1 z−1 Z ∞
−t2 2z−1 1
Γ (z) = 2 e t dt = ln dt = k z
e−kt tz−1 dt .
t
eli
0 0 0
Para probar la equivalencia de las dos primeras definiciones inventamos las siguiente función de dos
variables Z n n
t
F (z, n) = 1− tz−1 dt , Re z > 0 ,
n
0
Pr
y como es conocido que n
t
lı́m 1− ≡ e−t ,
n→∞ n
entonces Z ∞
lı́m F (z, n) = F (z, ∞) = e−t tz−1 dt ≡ Γ (z) .
n→∞
or
0
Con lo cual queda demostrada la primera de propuestas de Euler.
Para construir la segunda partimos de la misma función F (z, n) y un cambio estratégico de variable
u = nt .
n
ad
Z
n
F (z, n) = nz (1 − u) uz−1 du Re z > 0 .
0
Un par de integraciones por partes nos llevan a comprobar
( )
z 1
n 1
Z
z n u n−1 z
rr
F (z, n) = n (1 − u) + (1 − u) u du
z 0 z 0
( 1 )
n−2 z+1 n(n − 1) n(n − 1) 1
Z
z n−2 z+1
=n (1 − u) u + (1 − u) u du ,
z(z + 1) 0 z(z + 1) 0
Bo
355
10.1. FUNCIÓN GAMMA
r
lı́m F (z, n) = F (z, ∞) = lı́m nz ≡ Γ (z) .
n→∞ n→∞ z(z + 1)(z + 2)(z + 3) · · · (z + n)
a
Se completa la equivalencia para la primera y segunda definiciones de Euler.
En particular, de la primera de las definiciones se tiene por integración directa
in
Z ∞
Γ (1) = e−t dt = 1
0
Z ∞ Z ∞
1 −t −1/2 2 √
Γ = e t dt = e−u du = π ,
2
m
0 0
eli
1
Γ n+ = π.
2 2n
Finalmente la tercera de las definiciones de la función Γ (z) viene expresada en término de un producto
infinito (Weierstrass). Este puede demostrarse partiendo de la segunda definición de Euler
Γ (z) = lı́m
Pr
1 · 2 · 3 · ··· · n
nz
n→∞ z (z + 1) (z + 2) · · · (z + n)
n n
1 Y m 1 Y z −1 z
= lı́m nz = lı́m 1+ n ,
n→∞ z m+z n→∞ z m
m=1 m=1
por lo tanto
n
or
1 Y z −z ln n
= z lı́m 1+ e .
Γ (z) n→∞
m=1
m
Ahora bien, multiplicando y dividiendo por
n
ad
Pn
ez/m = ez( ),
Y 1
m=1 m
m=1
nos queda ( )
n
1 n Pn o z −z/m
= z lı́m ez(( m=1 )−ln n)
1 Y
m lı́m 1+ e .
rr
( n ! )
1 1 1 1 X 1
γ = lı́m 1 + + + + · · · − ln n = lı́m − ln n
n→∞ 2 3 4 n n→∞
m=1
m
γ = 0,5772156649015328606065112 · · ·
356
10.1. FUNCIÓN GAMMA
Con lo cual queda demostrada la tercera de las propuestas para expresar la Función Gamma
∞ z
1 γz
Y z −
= ze 1+ e n .
Γ (z) n=1
n
Γ (z + 1) = z Γ (z)
r
Z ∞ z−1
x dx π
Γ (z) Γ (1 − z) = =
(1 + x) sen(πz)
a
0
√
2z−1 1
2 Γ (z) Γ z + = π Γ (2z) .
2
in
La primera de ellas (la relación de recurrencia) es trivial y se obtiene integrando por partes la definición
integral de Euler.
Z ∞ Z ∞
m
∞
Γ (z + 1) = e−t tz dt = ze−t tz−1 0 + z e−t tz−1 dt = zΓ (z) .
0 0
El primer sumando de la integración por partes se anula siempre. Esta propiedad es válida ∀z con
z 6= 0, −1, −2, · · · .
eli
La segunda de las propiedades (fórmula de reflexión) se comprueba también partiendo de definición
integral de Euler con el siguiente cambio de variable t = u2 .
Z ∞ Z ∞
2 2
Γ (z) Γ (1 − z) = 2 e−u u2z−1 du 2 e−v v 1−2z dv
Pr
Z0Z ∞ 0
2z−1
−(u2 +v 2 ) u
=4 e dudv ,
0 v
0 0 2 0
Finalmente, si
√ −dx
ϕ = arccot( x); dϕ = √ ,
ad
2 x (1 + x)
nos queda
∞
xz−1 dx
Z
π
Γ (z) Γ (1 − z) = = .
0 (1 + x) sen(πz)
Es inmediato volver a comprobar
rr
√
1
Γ = π.
2
Del mismo modo, si utilizamos además la relación de recurrencia encontramos
Bo
π
Γ (z) Γ (−z) = ,
−zsen(πz)
357
10.1. FUNCIÓN GAMMA
La fórmula de duplicación, y puede comprobarse partiendo de la definición del lı́mite de Euler, ası́
22z−1 Γ (z) Γ z + 21
√
= π.
Γ (2z)
Hay que hacer notar que en el numerador sustituimos directamente las expresiones para del lı́mite de
Euler y en la del denominador, adicionalmente sustituimos n por 2n
1 · 2 · 3 · ··· · n 1 · 2 · 3 · · · · · 2n 2z
Γ (2z) = lı́m n2z = lı́m (2n) ,
r
n→∞ 2z (2z + 1) · · · (2z + n) n→∞ 2z (2z + 1) · · · (2z + 2n)
a
por lo cual se tiene la siguiente expresión dentro del argumento del lı́mite
!
1 · 2 · 3 · ··· · n 1 · 2 · 3 · ··· · n
in
z+ 12
22z−1 n z n
z + 12 z + 23 · · · z + 1
z (z + 1) (z + 2) · · · (z + n) 2 +n
,
1 · 2 · 3 · · · · · 2n 2z
(2n)
2z (2z + 1) (2z + 2) · · · (2z + 2n)
m
la cual se reacomoda como
2 1
22z−1 (n!) 2z (2z + 1) (2z + 2) · · · (2z + 2n) n2z+ 2
lı́m · 2z ,
eli
1 3 1
2 (z + 1) z + 2 (z + 2) · · · z + 2 + n (z + n) (2n)
n→∞ (2n)! z z +
y
2 1
z z + 12 (z + 1) z + 32 (z + 2) · · · z + n2 2n−1
22z−1 (n!) nz+ 2
lı́m · · .
n→∞ z z + 1 (z + 1) z + 3 (z + 2) · · · z + 1 + n (z + n)
2 2 2
(2n)! 22z n2z
Entonces
Pr
1
2√
22z−1 Γ (z) Γ z + 2 2n−2 (n!) n
= lı́m ,
Γ (2z) n→∞ (2n)!
por lo cual se deduce que el valor de lado izquierdo de la ecuación es independiente del valor de z por lo
tanto es el mismo valor para cualquier z y lo evaluamos para z = 12
or
22z−1 Γ (z) Γ z + 21
√
1
=Γ = π,
Γ (2z) 2
Otras propiedades que van quedar como curiosidad y sin demostración son:
n−1
Y
(1−n)/2 1 k
Γ (nz) = (2π) nnz− 2 z+ ,
n
k=0
rr
z z! Γ (z + 1)
= = .
w w!(z − w)! Γ (w + 1) Γ (z − w + 1)
358
10.2. LA FUNCIONES DIGAMMA Y POLIGAMMA
r
= lı́m [ln (n!) + z ln(n) − ln (z + 1) − ln (z + 2) − · · · − ln (z + n)] ,
n→∞
a
ahora derivando
d 1 1 1
in
ln (z!) ≡ F(z) = lı́m ln(n) − − − ··· − ,
dz n→∞ (z + 1) (z + 2) (z + n)
y finalmente acomodando, para llegar a la definición más conocida
m
∞
X 1 1
F(z) = −γ − − .
n=1
(z + n) n
eli
Γ0 (z) d d
ψ(z) = = ln (Γ (z)) ≡ F(z − 1) = ln ((z − 1)!) ,
Γ (z) dz dz
con las siguientes propiedades
Pr 1
ψ(z + 1) =
+ ψ(z) ,
z
ψ(z − 1) − ψ(z) = π cot(πz) ,
1
ψ(z) + ψ z + + 2 ln(2) = 2ψ(2z) ,
2
.
or
0
Γ (z) = e−t tz−1 ln(t) dt ,
0
0 x
tendremos
∞ Z ∞ −x Z ∞
e − e−xt dx ∞ −x
Z Z
Bo
359
10.3. LA APROXIMACIÓN DE STIRLING
R∞
ya que Γ (z) = k z 0
e−kt tz−1 dt y por lo tanto
Z ∞
dx h −x −z
i
ψ(z) = e − (x + 1) .
0 x
r
Z 1
1 − xz−1
ψ(z) = −γ + dx .
a
0 1−x
in
∞
dm X 1
ψ (m) (z + 1) = F(m) (z) = m
F(z) = (−1) m+1
m! m+1 m = 1, 2, 3 · · ·
dz n=1 (z + n)
m
y cuya serie puede ser expresada en términos de la función Zeta de Riemman
∞
X 1
ζ(m) ≡ ,
nm
eli
n=1
como
F(m) (0) = (−1)m+1 m!ζ(m + 1) ,
de esta forma es posible desarrollar en serie de Maclaurin
z2
Pr z3 n
n z
ln(n!) = −γ + ζ(2) − ζ(3) + · · · + (−1) ζ(n) + · · · .
2 3 n
x x 0 x 0
haciendo t = xu tenemos que Z ∞
Γ (x) = x x
e−x(u−ln(u)) du .
0
Ahora bien, el integrando tendrá su máximo en u = 1 donde la exponencial tiene su mı́nimo y es entorno
rr
2 3 4
por lo cual Z ∞ Z ∞
2
− 13 (u−1)3 +··· )
du e−x(1+ 2 (u−1)
1
Γ (x) = xx e−x(u−ln(u)) du ≈ xx du .
0 0
360
10.4. LA FUNCIÓN BETA
√
Otro cambio de variable v = x (u − 1) nos lleva
xx e−x ∞
Z
− 21 v 2 1 3 1 4 1 5
Γ (x) ≈ √ dve exp √ v − v + 3 v − · · · .
x −√x 3 x 4x 5x 2
Para valores x 1 se expande, en series de Taylor los exponenciales que contengan términos √1
x
xx e−x ∞
Z
1 2 1 1 4 1 5
Γ (x) ≈ √ dve− 2 v 1 + √ v3 − v + 3 v − · · · +
x −∞ 3 x 4x 5x 2
r
2
1 1 3 1 4 1 5
+ √ v − v + 3 v − ··· +
a
2! 3 x 4x 5x 2
3 )
1 1 3 1 4 1 5
in
+ √ v − v + 3 v − ··· + ··· .
3! 3 x 4x 5x 2
m
Z ∞ √2π n=0
− 12 v 2
dve vn = 2π · 1 · 3 · 5 · · · · (n − 1) n = 2k
−∞
0 n = 2k − 1
eli
e integrando término a término, tendremos que
r
2π x −x 1 1
Γ (x) ≈ x e 1+ + + · · · .
x 12x 288 x2
Γ (x) Γ (y)
B(x, y) =
Γ (x + y)
erf(z) = e dt = Φ(z) ,
0 2
Z z √
2 π
erfc(z) = e−t dt = [1 − Φ(z) .]
z 2
361
10.5. LA FUNCIÓN INTEGRAL DE PROBABILIDAD
r
y en resumen
a
γ (z + 1, α) = zγ (z, α) − αz e−α
in
Γ (z + 1, α) = zΓ (z, α) + αz e−α .
10.5.1. Ejemplos
m
10.5.2. Practicando con Maxima
10.5.3. Ejercicios
eli
Pr
or
ad
rr
Bo
362
Capı́tulo 11
ra
El problema de Sturm-Liuoville
in
m
eli
Pr
or
ad
rr
Bo
363
11.1. EL PROBLEMA DE STURM-LIUOVILLE
r
D (Axn + Bxm ) = AD (xn ) + BD (xm ) = nAxn−1 + mBxm−1 , (11.2)
a
y en muchos aspectos ese operador diferencial D (•) puede ser tratado como un número más.
in
De esta forma una ecuación diferencial homogénea puede ser descrita en forma de operadores cómo
a y 00 + b y 0 + c y = 0 ⇒ O |yi = 0 ⇔ a D2 + b D + c |yi = 0 ,
(11.3)
m
y consecuentemente
eli
r1 = r2 = r reales ⇒ y(x) = (A + Bx) er x
r1 6= r2 reales ⇒ y(x) = A er1 x + B er2 x (11.5)
r1 = r2∗ complejas r1 = α + i β ⇒ y(x) = eα x (A cos(β x) + B sen(β x))
Pr
Esta notación también se presta para algunas curiosidades. Para una ecuación diferencial genérica con
coeficientes constantes se tiene
y 00 − 3 y 0 + 2 y = x2 ⇒ D2 − 3D + 2 y = x2 ⇒ (D − 1) (D − 2) y = x2 .
(11.6)
más aún
x2 x2 x2
or
y= ⇒ y= − , (11.7)
(D − 1) (D − 2) (D − 2) (D − 1)
por lo cual expandiendo
1 −1
= = −1 − D − D2 − D3 − D4 − · · · (11.8)
D−1 1−D
ad
1 −1 1 1 D D2 D3
= =− − − − − ··· (11.9)
D−2 2 1− D
2
2 4 8 16
de donde
1 D D2 D3
rr
x2 − −1 − D − D2 − D3 − D4 − · · · x2 ,
y= − − − − − ··· (11.10)
2 4 8 16
por lo tanto tendremos la solución particular de la ecuación y 00 − 3 y 0 + 2 y = x2
Bo
2
x2
x x 1 3 7
y= − − − − −x2 − 2x − 2 = + x+ . (11.11)
2 2 4 2 2 4
364
11.1. EL PROBLEMA DE STURM-LIUOVILLE
Las operaciones que se usaron arriba están relacionadas muy estrechamente con las propiedades de la
integral Z ∞
e−st f (t)dt . (11.12)
0
En el mismo espı́ritu anterior podemos asociar una ecuación diferencial de segundo orden a un operador
diferencial
d2
d
+ R(x) u(x) = 0 ⇒ P (x)D2 + Q(x)D + R(x) |ui = 0 ⇔ L |ui = 0 . (11.13)
P (x) 2 + Q(x)
r
dx dx
| {z }
L
a
Donde las funciones P (x), Q(x) y R(x) son funciones reales, definidas en el intervalo [a, b] y que cumplen
con las siguientes exigencias
in
P 00 (x), Q0 (x) y R(x) existen y son contı́nuas en [a, b], y
P (x) no contiene ceros en (a, b).
m
11.1.2. Operadores diferenciales de segundo orden
Consideremos el espacio de Hilbert de funciones continuas en [a, b], en el cual representaremos a esas
eli
funciones como |ui y los operadores lineales actúan en ese espacio de Hilbert de la forma acostumbrada
L |ui = |ũi. Entonces, a través de la definición del producto interno podemos construir
∗ ∗
hv |ũi = hũ |vi ⇔ hv| L |ui = hu| L† |vi . (11.14)
Pr
Sabemos que, los operadores hermı́ticos (o autoadjuntos: L = L† ) tendrán autovalores {λ
1 , λ2 , λ3 , · · · , λn }
reales y los correspondientes autovectores {|w1 i , |w2 i , |w3 i , · · · , |wn i} serán ortogonales, wi |wj i ∝ δ ij .
El hecho que construyamos una ecuación de autovalores con L de la forma expresada en (11.13) implica
una ecuación de la forma
Con lo cual estarı́amos resolviendo una familia de ecuaciones diferenciales homogéneas del tipo
parametrizadas por el parámetro λi . Más aún, con esta estrategia podremos integrar ecuaciones diferenciales
de la forma
d2 yi (x) dyi (x)
P (x) 2
+ Q(x) + (R(x) − λi w(x)) yi (x) = 0 , (11.17)
dx dx
si consideramos productos internos generalizados con funciones peso w(x) de la forma
rr
Z b
hg |f i = dx w(x) g ∗ (x)f (x) . (11.18)
a
Bo
Varios son los ejemplos de esta forma general de abordar las ecuaciones diferenciales como un problema
de autovalores. Entre ellos podemos mencionar:
365
11.1. EL PROBLEMA DE STURM-LIUOVILLE
El oscilador armónico:
d2
y(x) = −ω 2 y(x) . (11.19)
dx2
| {z }
L
La ecuación de Legendre:
d2
2 d
(1 − x ) − 2x Pn (x) = −n(n + 1) Pn (x) . (11.20)
dx2 dx
r
| {z }
L
a
En general toda las familias de polinomios ortogonales, pn (x) con producto interno definido como
in
Z b
m
hp |pn i = w(x)pm (x)pn (x)dx = hn δm n ,
a
m
Esto es:
d2
d
P (x) + Q(x) pn (x) = −αn pn (x) = 0 . (11.21)
dx2 dx
| {z }
eli
L
Donde las expresiones para P (x), Q(x) y αn se encuentran especificadas en la Tabla (11.1)
Cuadro 11.1: Funciones para determinar la ecuación diferencial para la cual son solución los polinomios
ortogonales. Con Pn Legendre, Tn Tchebychev 1E; Un Tchebychev 2E; Hn Hermite; Ln Laguerre; Lα n (x)
Laguerre G; Pnαβ (x) Jacobi
ad
La ecuación de Bessel
d2
d
x2 + x + x 2
Jk (x) = k 2 Jk (x); k ∈ R. (11.22)
dx2 dx
rr
| {z }
L
Es claro que las funciones P (x), Q(x) y R(x) tendrán algunas restricciones adicionales a las expresadas
arriba, de tal forma que se garantice que el operador L sea autoadjunto (hermı́tico).
366
11.1. EL PROBLEMA DE STURM-LIUOVILLE
Para encontrar esas restricciones a los coeficientes, partimos de la definición de producto interno en
un espacio de funciones. En general, vimos que, para un espacio de funciones continuas y continuamente
diferenciales en [a, b] una posible definición de producto interno es
Z b Z b
∗
hg |f i = dx g (x)f (x) ⇒ hg| L |f i = dx g ∗ (x) Lf (x) , (11.23)
a a
es decir
r
b b b
d2 f (x)
Z Z Z
df (x)
hg| L |f i = dx g ∗ (x) P (x) + dx g ∗ (x) Q(x) + dx g ∗ (x) R(x)f (x) . (11.24)
a dx2 a dx a
a
Integrando por partes la primera y segunda integral tendremos
in
b b Z b
d2 f (x) d(P (x) g ∗ (x)) d2 (P (x) g ∗ (x))
Z
∗ df (x)
∗
dx g (x) P (x) = P (x) g (x) − f (x) + dx f (x) ,
a dx2 dx dx
a a dx2
(11.25)
y
m
b b
d(Q(x) g ∗ (x))
Z Z
df (x) b
dx g ∗ (x) Q(x) = f (x) Q(x) g ∗ (x)|a − dx f (x) . (11.26)
a dx a dx
Con lo cual podremos escribir:
eli
Z b
d2 dQ(x) d2 P (x)
dP (x) d
hg| L |f i = dxf (x) P (x) 2 + 2 − Q(x) + R(x) − + g ∗ (x)
a dx dx dx dx dx2
| {z }
L†
+ f (x) Q(x) −
dP (x)
g ∗ (x) + P (x)
Pr
df (x) ∗
g (x) −
dg ∗ (x)
b
f (x) , (11.27)
dx dx dx a
donde hemos identificado por L† al operador adjunto de L. Ahora bien, si queremos que L sea autoadjunto
(o hermı́tico ) L = L† , entonces se debe cumplir que
Estas restricciones sobre P (x) y Q(x) son aparentes, porque siempre podremos construir un operador
diferencial autoadjunto a partir de cualquier operador diferencial de segundo orden. En efecto, como P (x)
únicamente puede tener raı́ces en los extremos del intervalo [a, b], siempre podremos definir
P̄ (x) = h(x)P (x)
rr
Z b !
1 Q(x)
h(x) = exp dx ⇒ (11.30)
P (x) a P (x)
Q̄(x) = h(x)Q(x)
Bo
367
11.1. EL PROBLEMA DE STURM-LIUOVILLE
r
dx dx
|a {z } a
hf |L† |gi∗
a
Claramente, si L es autoadjunto y f (x) y g(x) son soluciones de una ecuación diferencial autoadjunta,
in
el segundo término se debe anular, y allı́ habrán de incidir las condiciones de borde que se impongan al
problema.
m
Evidentemente, si consideramos que f (x) y g(x) son soluciones de una ecuación diferencial autoadjunta
(que puede ser representada por un operador lineal de segundo orden autoadjunto L), entonces la ecuación
de autovalores
eli
d d
L |ui i = −λi |ui i ⇔ P (x) + R(x) ui (x) = −λi w(x)ui (x) , (11.34)
dx dx
donde, λi son los autovalores, ui (x) las autofunciones soluciones y w(x) > 0 es la función peso descrita en
Pr
(11.18). Claramente esta ecuación (11.34) debe ser complementada con las condiciones de frontera
b
dui (x)
P (x)u∗j (x) = 0 ∀ i, j . (11.35)
dx a
Las ecuaciones (11.34) y (11.35) constituyen el Sistema Sturm-Liouville y también se le refiere como el
problema de Sturm-Liouville.
or
1. Condiciones Regulares: Para este caso se especifican los valores de una combinación de las funciones
y las derivadas:
dui (x) dui (x)
ad
β1 ui (x) + γ1 = C1 y β2 ui (x) + γ2 = C2 ,
dx dx
en los extremos x = a y x = b.
Estos valores son finitos en todo el intervalo de validez de las funciones. Claramente de ésta pueden
derivarse cuatro tipos de condiciones de frontera
rr
a) Condiciones Regulares Puras: Para este caso se especifican los valores para la combinación
lineal completa, con β1 6= 0, β2 6= 0, γ1 6= 0 y γ2 6= 0.
b) Condiciones de Dirichlet: Para este caso se especifican los valores de la función ui (x) en los
Bo
368
11.1. EL PROBLEMA DE STURM-LIUOVILLE
r
Veamos algunos ejemplos ilustrativos. Vamos a analizar el caso muy simple de la ecuación diferencial tipo
a
oscilador armónico libre. Esto es:
d2 y(x)
+ λy(x) = 0 , (11.36)
dx2
in
y veremos como cambia cuando se tienen en cuenta distintos tipos de condiciones de frontera.
Condición Regular con
dy(x)
y(0) = 0 ∧ = 0.
m
dx x=π
Este caso corresponde una condición de frontera regular con γ1 = β2 = 0 y, en principio, tendrá
soluciones distintas para λ > 0, λ = 0, y λ < 0
eli
λ = 0 La solución
será de la forma y(x) = C1 x + C2 como y(0) = 0 tendremos que C2 = 0 y como
dy(x)
dx = 0 necesariamente C1 = 0. Con lo cual la única solución es y(x) = 0 y λ no será un
x=π
autovalor de la ecuación (11.36).
λ < 0 Podemos re-escribirla con λ = −µ2 . Entonces la solución general para (11.36) tendrá la forma
y(x) = C1 eµ x + C2 e−µ x .
Pr
Las condiciones de frontera imponen
0 = µ C1 eµ π + −C2 e−µ π ,
0 = C1 + C2 ∧
y otra vez, tendremos como única solución 0 = C1 = C2 y λ no será un autovalor de la ecuación
(11.36).
or
λ > 0 Para éste caso usamos λ = µ2 y la solución será del tipo y(x) = C1 cos(µ x) + C2 sen(µ x). Las
condiciones de frontera imponen: y(0) = 0 ⇒ C1 = 0 y
(2n + 1)2
dy(x) 2n + 1
= C2 µ cos(µπ) = 0 ⇒ µn = ± ⇒ λn = para n = 0, 1, 2, 3, · · ·
ad
dx x=π
2 4
Es decir, tendremos infinitos auto valores asociados con infinitas autofunciones yi (x) = sen 2n+1
2 x
para n = 0, 1, 2, 3, · · · .
En primer lugar, es importante señalar que, por ser L un operador hermı́tico sus autovalores son
rr
reales y cumplen λ0 < λ1 < λ2 < λ3 · · · , es decir, son crecientes para ı́ndices crecientes de las
autofunciones. En segundo lugar que las infinitas autofunciones forman una base ortogonal y, por
lo tanto la suma de todas esas soluciones, también será solución de (11.36), con las condiciones
de frontera: y(0) = 0 ∧ dy(x) = 0 y λ > 0 puede ser escrita como
Bo
dx
x=π
∞
X 2n + 1
y(x) = sen x . (11.37)
n=0
2
369
11.1. EL PROBLEMA DE STURM-LIUOVILLE
y1 = µ
y3 = tanh(µ)
r
µ ⇡ 0.9962
a
y2 = µ
in
Figura 11.1: Las posibles soluciones µ = − tanh(µ π), tanto para µ > 0 como para µ > 0 para el intervalo
[0, 2] se muestra claramente en la figura. Para µ > 0 no existe solución, pero para µ < 0, se encuentra
numéricamente que µ ≈ −0,9962
m
Esta hecho nos permitirá resolver el problema inhomogéneo, L |ui = |f i, y será analizado en
detalle más adelante.
eli
Condición Regular con
dy(x)
y(0) = 0 ∧ y(π) + = 0.
dx x=π
Para este caso tendremos una condición de frontera regular con γ1 = 0 y, en principio, tendrá soluciones
distintas para λ > 0, λ = 0, y λ < 0.
Pr
λ = 0 Se cumplen las mismas situaciones que el caso anterior y se demuestra que sólo es posible la
solución trivial y(x) = 0.
λ < 0 Una vez más hacemos λ = −µ2 y la solución general tendrá la forma y(x) = C1 eµ x + C2 e−µ x .
Las condiciones de frontera imponen:
or
0 = C1 eµ π + C2 e−µ π + µ C1 eµ π − C2 e−µ π ,
C1 = −C2 ∧
con lo cual
(eµ π − e−µ π )
µ=− ≡ − tanh(µ π) .
(eµ π + e−µ π )
ad
Esta ecuación trascendente se tiene que resolver numéricamente. Si µ > 0 no existirá solución para
µ = − tanh(µ π). Esto se ilustra claramente en la figura 11.1. No hay punto de corte entre las dos
funciones. Por lo tanto volvemos al caso de la solución trivial y(x) = 0. Si µ < 0 entonces, al resol-
ver numéricamente, encontramos que µ ≈ −0,9962, con lo cual λ ≈ −0,9924 y consecuentemente
rr
370
11.1. EL PROBLEMA DE STURM-LIUOVILLE
y1 = µ
y3 = tan(µ ⇡)
a r
y2 = µ
in
Figura 11.2: Las posibles soluciones de µ = − tan(µ π), tanto para µ > 0 como para µ > 0 para el intervalo
[0, 4] se muestra claramente en la figura. Tanto para µ > 0 como para µ < 0 existen infinitas soluciones.
m
11.2. Claramente, tanto para µ > 0 como para µ < 0 existen infinitas soluciones. Si resolvemos
numéricamente para el caso µ > 0 encontramos que:
µ1 ≈ 0,7876, µ2 ≈ 1,6716, µ3 ≈ 2,6162 · · · ⇒ λ1 ≈ 0,6204, λ2 ≈ 2,7943, λ3 ≈ 6,8446 · · ·
eli
Del mimo modo, para µ < 0 se obtiene:
µ̃1 ≈ −1,2901, µ̃2 ≈ −2,3731, µ̃3 ≈ −3,4092 · · · ⇒ λ̃1 ≈ 1,6644, λ̃2 ≈ 5,6314, λ̃3 ≈ 11,6225 · · ·
Condiciones Periódicas
dy(x) dy(x)
Paras las condiciones de frontera periódicas tendremos: y(0) = y(L) y = .
or
dx dx
x=0 x=L
Una vez más se distinguen tres escenarios.
λ = 0 En este caso, la solución vuelve a ser y(x) = C1 x + C2 y las condiciones de frontera imponen
ad
dy(x) dy(x)
y(0) = y(L) ⇒ C2 = C1 L + C2 ⇒ C1 = 0 = ⇒ C2 = C2 .
dx x=0 dx x=L
Por lo tanto, para λ = 0, la solución (11.36) con condiciones de borde periódicas, será y(x) = C2
λ < 0 Una vez más, λ = −µ2 y la solución general tendrá la forma y(x) = C1 eµ x + C2 e−µ x . Las
rr
y
Bo
dy(x) dy(x)
⇒ C1 1 − eµ L = −C2 e−µ L − 1 .
=
dx x=0 dx x=L
371
11.1. EL PROBLEMA DE STURM-LIUOVILLE
λ > 0 Al igual que en lo casos anteriores hacemos λ = µ2 y la solución será del tipo y(x) = C1 cos(µ x) +
C2 sen(µ x). Las condiciones de frontera imponen:
y
dy(x) dy(x)
= ⇒ C2 (1 − cos(µ L)) = −C1 sen(µ L) ,
dx x=0 dx x=L
r
con lo cual, al resolver para C2 se obtiene
2
a
2nπ 2nπ
2C1 (1 − cos(µ L)) = 0 ⇒ cos(µ L) = 1 ⇒ µn = ± ⇒ λn = para n = 0, 1, 2, 3 · · ·
L L
in
2nπ
por lo cual, para cada autovalor λn tendremos asociadas dos autofunciones: y1 (x) = cos L x y
y2 (x) = sen( 2nπ
L x).
Condiciones Singular
m
Aquı́ se presentan uno o más infinitos en el intervalo de validez x ∈ [a, b]. En esta sección analizaremos
únicamente el caso para el cual los puntos singulares estén en los extremos x = a y x = b. En este caso,
la ecuación (11.34), vale decir
eli
d dui (x)
L |ui i = −λi w(x) |ui i ⇔ P (x) + (R(x) + λi w(x)) ui (x) = 0 , (11.39)
dx dx
n2
2 00 0 2 2 2
d dy(x) 2
x y + xy + k x − n y = 0 ⇔ x + k x− y(x) = 0 , (11.40)
or
dx dx x
2
identificamos: P (x) = x, R(x) = − nx , λ = k 2 y finalmente w(x) = x. Tal y como mostramos en (9.4)
la solución general de esta ecuación es:
ad
donde rJ n ν con ν = 1, 2, 3, · · · son las raı́ces de las función de Bessel Jn (x), tal y como se expresan en
la Tabla 9.1. Entonces, al igual que en los casos anteriores tendremos
rJ n ν r2 r
J nν
kn = ⇒ λn = J 2n ν ⇒ yν (x) = C1 Jn x . (11.42)
Bo
a a a
De esta forma se tendrán las funciones asociadas con los autovalores y los ceros de la función de Bessel
reescalarán el argumento de la función.
372
11.1. EL PROBLEMA DE STURM-LIUOVILLE
r
i=0
donde {|ui i} son las autofunciones de L. Por lo tanto podemos expresar (11.43) de la forma
a
∞ ∞ ∞
!
X X X
i
|f i = L |yi ⇒ |f i = L C |ui i = C i L |ui i = − C i λi |ui i , (11.45)
in
i=0 i=0 i=0
para finalmente proyectar (11.43) a lo largo de las mismas autofunciones |ui i y dado que las funciones {|ui i}
son ortogonales, obtenemos los coeficientes C i
m
∞ Rb
dx u∗j (x) w(x)f (x)
j X
i
j j 1 uj |f i j a
u |f i = − C λi u |ui i ⇒ C = ⇔ C = b
. (11.46)
λj huj |uj i dx u∗ (x) w(x)uj (x)
R
i=0 j
| {z }
δi j a
eli
Por lo tanto,
∞
! ∞ Rb !
dξ u∗i (ξ) w(ξ)f (ξ)
X 1 ui |f i X 1 a
|yi = i
|ui i ⇔ y(x) = Rb ui (x) . (11.47)
i=0
λi hu |ui i λ
i=0 i dζ u∗i (ζ) w(ζ)ui (ζ)
a
Pr
Siempre se puede normalizar las autofunciones y con ello se simplifica la expresión anterior
∞
Z b Z b !
i ∗
X 1 ∗
û |ûi i = 1 ⇔ dζ ûi (ζ) w(ζ)ûi (ζ) = 1 ⇒ y(x) = dξ ûi (ξ) w(ξ)f (ξ) ûi (x) , (11.48)
a λ
i=0 i a
donde
|ui i ui
or
∞ ∞
! !
Z b Z b
X 1 X 1 ∗
y(x) = dξ û∗i (ξ) w(ξ)f (ξ) ûi (x) = dξ û (ξ)ûi (x) w(ξ)f (ξ) . (11.50)
λ
i=0 i a a λ i
i=0 i
| {z }
G(x,ξ)
Green como Z b ∞
X 1 ∗
y(x) = dξ G(ξ, x)w(ξ)f (ξ) , con: G(ξ, x) = ûi (ξ)ûi (x) . (11.51)
a λ
i=0 i
Bo
Para ejemplificar esta técnica, consideremos la ecuación diferencial del oscilador armónico forzado
d2 x(t)
ẍ(t) + ω 2 x(t) = cos(ω̄ t) , con: x(0) = x(π) = 0 donde ẍ ≡ . (11.52)
dt2
373
11.1. EL PROBLEMA DE STURM-LIUOVILLE
r
1/2
2
xn (t) = sen(nt) .
a
π
De este modo la función de Green y la solución quedan como:
in
∞ ∞
!
2 π
Z
2 X sen(nτ ) sen(nt) X sen(nτ ) sen(nt)
G(τ, t) = ⇒ x(t) = dτ cos(ω̄ τ ) , (11.55)
π n=0 ω 2 − n2 π 0 n=0
ω 2 − n2
con lo cual
m
∞ ∞
2 X sen(nt) π
2 ω̄ (1 ± cos(ω̄π)) X sen(nt)
Z
x(t) = dτ sen(nτ ) cos(ω̄ τ ) ⇒ x(t) = , (11.56)
π n=0 ω 2 − n2 0 π ω̄ 2 − ω 2 + λ n=0
ω 2 − n2
la cual constituye la solución más general para la ecuación del oscilador armónico forzado (11.52).
eli
Inspirados en el nuestra motivación inicial, (11.43), podemos extenderla para considerar las siguientes
ecuaciones diferenciales
d dy(x)
(L + λ) |yi = |f i ⇔ P (x) + (R(x) + λ w(x)) y(x) = f (x) , (11.57)
dx dx
Pr
donde y(x) estará sometida a algunas de las condiciones de frontera expresadas en 11.1.4. Una vez más
resolvemos el problema de autovalores para encontrar las autofunciones en las cuales expandiremos todas las
funciones involucradas en el problema. Esto es, en general y siguiendo el esquema presentado en (11.44)
∞
X ∞
X
F i |ûi i ≡ ûi |f i |ûi i ,
donde hemos supuesto que las autofunciones fueron normalizadas, ûj |ûi i = δij . Con lo cual
∞ ∞
!
X X
C i |ûi i =
i
û |f i |ûi i ⇒ C i (λi + λ) − ûi |f i = 0 ,
(L + λ) |yi = |f i ⇒ (L + λ) (11.59)
ad
i=0 i=0
y se sigue que
∞
! ∞ Rb !
dξ û∗i (ξ) w(ξ)f (ξ)
i
i
i û |f i X û |f i X
a
C = ⇒ |yi = |ûi i ⇔ y(x) = ûi (x) , (11.60)
(λi + λ) i=0
(λi + λ) i=0
λi + λ
rr
a i=0 i=0
Podemos identificar claramente la función de Green. Nótese que para el caso λi + λ = 0, es decir si λ
en (11.57) coincide con alguno de los autovalores del operador L, la función de Green se hace infinita y este
esquema presenta dificultades para su aplicación.
374
11.1. EL PROBLEMA DE STURM-LIUOVILLE
11.1.6. Ejemplos
11.1.7. Practicando con Maxima
11.1.8. Ejercicios
ar
in
m
eli
Pr
or
ad
rr
Bo
375
Capı́tulo 12
ar
Apéndice
in
m
eli
Pr
or
ad
rr
Bo
376
12.1. INTRODUCCIÓN A LOS CAS
r
Números (Enteros, racionales, reales, complejos...)
a
Polinómios, Funciones Racionales, Sistemas de Ecuaciones.
Grupos, Anillos, Algebras . . .
in
A diferencia de los sistemas tradicionales de computación numérica:
FORTRAN, Basic, C, C++, Java => Precisión fija (Punto Flotante)
m
Otra caracterı́stica principal radica en el hecho de que son interactivos (interpretados o ejecutados al momento
de proveer una instrucción), es decir, trabajan de la forma:
Input : solve(problema);
eli
Output : respuesta
Los CAS modernos de propósito general son ambientes completamente integrados de computación para
la investigación y la educación conformados por:
ad
Manuales en lı́nea.
Enlaces a otros programas y bibliotecas
Capacidades para visualización, con salidas gráficas en diferentes formatos: PostScript, GIF,JPG, . . .
Pensado para usuarios no especializados en computación
377
12.1. INTRODUCCIÓN A LOS CAS
a r
in
m
eli
Figura 12.1: Ventana gráfica de vxMaxima
Pr
La principal ventaja de estos programas radica en la enorme capacidad para realizar cálculos algebraicos
largos y tediosos. Por ejemplo, se puede demostrar que la función:
√
nz x2 +y 2 +z 2
sen √ 2 2
y +z
f= p
x + y2 + z2
2
or
y la realización de éste cálculo le puede tomar a un PC estándar un tiempo de CPU relativamente corto:
tiempo de cpu = 1,065 seg
Un ejemplo de un CAS es Maxima que básicamente consta de una hoja de trabajo (worksheet) que es
rr
una interfaz tipo procesador de textos. Las hojas de trabajo constan de dos modos básicos de funcionamiento:
el modo texto y el modo cálculo. Maxima opera en la celda de cálculos de la manera siguiente:
Input (Instrucción de entrada)
Bo
systems
2 [Link]
378
12.2. MAXIMA: SINTAXIS BÁSICA
Existe la posibilidad de introducir textos de la misma manera que en un procesador de textos estándar
y de generar gráficas en 2D y 3D a través de los respectivos comandos.
La interacción con la hoja de trabajo se hace a través de lo que denominamos la celda del Input, que
aparece señalado por un aviso de espera o PROMPT
[ -->
El código fuente de Maxima, código de software libre, puede ser compilado sobre diferentes sistemas ope-
rativos: Windows, Linux, MacOS X y Android, y puede obtenerse en: [Link]
r
wxmaxima o en [Link] con la respectiva documentación.
Utilizaremos la versión gráfica wxMaxima para los fines pedagógicos del desarrollo de estas notas.
a
También existe una versión que funciona sólo en modo texto para ser ejecutada en una consola o terminal.
En la Figura 12.1 se puede apreciar el despliegue de una hoja de cálculo con algunos instrucciones sencillas,
in
notemos que cada instrucción (en azul) termina con un punto y coma, de esta manera se le dice al programa
la finalización del comando a ejecutar. Luego de escribir la instrucción y presionar la tecla Enter el Output
aparecerá a continuación en color negro.
m
12.2. Maxima: Sintaxis básica
Es necesario familiarizarse con los comandos básicos del programa, para ello iremos desarrollando algunos
cálculos sencillos a manera de conocer la filosofı́a de cómo funciona Maxima, y durante el transcurso de
eli
este curso iremos haciendo un despliegue de las aplicaciones del programa para cálculos más especı́ficos.
(%i1) 3!+3^5;
( %o1) 249
Pr
Veamos ahora la diferencia entre el igual = y los dos puntos :
(%i2) a=b+c;
( %o2) c+b
(%i3) a;
or
( %o3) a
(%i4) a:b+c;
ad
( %o4) c+b
(%i5) a;
( %o5) c+b
rr
Al usar “=”no asignamos a la variable lo que está del lado derecho mientras que con “:”si le asignamos
el objeto a la nueva variable.
Los cálculos se pueden hacer tanto con números enteros como en Punto Flotante:
Bo
(%i6) 15+5^(50);
( %o6) 88817841970012523233890533447265640
379
12.2. MAXIMA: SINTAXIS BÁSICA
(%i7) 15.0+5^(50);
r
2 3
( %o8) cos +
12 7
a
y si queremos el valor numérico podemos escribir
(%i9) float(%);
in
( %o9) 1,180812852661949
Aquı́ hemos hecho uso de varios sı́mbolos nuevos. Las constantes matemáticas en Maxima se escriben
m
de la siguiente manera:
La unidad imaginaria i: %i
El número π: %pi.
eli
El sı́mbolo ∞: inf.
El número e: %e.
En cuanto a los logaritmos:
Pr
ex = exp(x).
log(x): la función logaritmo en base e
log(x)/log(b) el logaritmo de x en base b.
Para las funciones trigonométricas es lo estándar: sin(x), asin(x), cos(x), acos(x), tan(x), atan(x), csc(x),
or
sec(x), cot(x).
También hemos utilizado % para introducir la última salida en la siguiente instrucción, veamos nueva-
mente como funciona, pero ahora pondremos al final del comando el sı́mbolo $ en lugar de ; para decirle al
programa que ejecute la instrucción sin escribir la salida.
ad
(%i10)3^12$
(%i11)%;
( %o11) 531441
rr
( %o12) α
(%i13)%+sqrt(beta);
380
12.2. MAXIMA: SINTAXIS BÁSICA
p
( %o13) β+α
(%i14)%o12+2*gamma^2;
( %o14) 2 γ 2 + α
r
( %o15) 19
a
(%i16)(1+2)*3^2;
( %o16) 27
in
El volumen de un cilindro V = π(radio)2 × altura
(%i17)radio:5$
m
(%i18)altura:50$
(%i19)area:%pi*radio^2;
eli
( %o19) 25 π
(%i20)volumen:area*altura;
( %o20) 1250 π
Pr
Para limpiar la memoria del programa de todas las variables utilizadas se puede usar el comando kill(all)
(Existen otras opciones que veremos más adelante). Esta es una manera de reiniciar la hoja de trabajo.
(%i21)volumen;
( %o21) 1250 π
(%i22)kill(all);
or
( %o22) done
(%i23)volumen;
ad
( %o23) volumen
(%i1) f(x,y):=exp(x^2+y^2)/(x-y);
exp y 2 + x2
( %o1) f (x, y) :=
Bo
x−y
(%i2) f(2,3);
( %o2) − e13
381
12.2. MAXIMA: SINTAXIS BÁSICA
(%i3) %,numer;
( %o3) − 442413,3920089205
(%i4) f(alpha^(1/2),beta^(1/2));
eβ+α
( %o4) √ √
α− β
r
Derivando respecto a x y y;
(%i5) diff(f(x,y),x) + diff(f(x,y),y);
a
2 2 2 2
2 y ey +x 2 x ey +x
in
( %o5) +
x−y x−y
Aquı́ es bueno acotar que una expresión NO es una función:
(%i6) f(x):=3*sin(x+1)+2*sqrt(x);
m
√
( %o6) f (x) := 3 sin (x + 1) + 2 x
(%i7) F:3*sin(x+1)+2*sqrt(x);
eli
√
( %o7) 3 sin (x + 1) + 2 x
(%i8) f(8); F(8);
5
( %o8) 3 sin 9 + 2 2 √
( %o9) 3 sin (x + 1) + 2 x (8)
Pr
Por lo tanto, F es únicamente una expresión que no puede ser evaluada como la función f . Pero se le
puede dar la vuelta para evaluarla con ev()
(%i10)ev(F,x=8);
or
5
( %o10) 3 sin 9 + 2 2
(%i11)kill(all)$
(%i1) sigma(x):=2*x/sqrt(x^2+1);
2x
( %o1) σ (x) := √
x2 + 1
rr
La primera derivada:
(%i2) diff(sigma(x),x);
Bo
2 2 x2
( %o2) √ − 3
x2 + 1 (x2 + 1) 2
La cuarta derivada:
382
12.2. MAXIMA: SINTAXIS BÁSICA
(%i3) diff(sigma(x),x,4);
90 x 300 x3 210 x5
( %o3) 5 − 7 + 9
(x2 + 1) 2
(x2 + 1) 2
(x2 + 1) 2
Si queremos reutilizar la derivada para definir una nueva función, en este caso la función derivada, lo
podemos hacer utilizando dos apóstrofos ” (No es la doble comilla)
(%i4) dsigma(x):=’’ %o2;
r
2 2 x2
a
( %o4) dsigma (x) := √ − 3
x2 + 1 (x2 + 1) 2
(%i5) dsigma(2);
in
2
( %o5) 3
52
(%i6) integrate(sigma(x),x);
m
p
( %o6) 2 x2 + 1
eli
(%i7) integrate(sigma(x),x,0,1);
√
( %o7) 2 2−1
Lı́mites:
Pr
(%i8) limit(sigma(x),x,1/2);
2
( %o8) √
5
(%i9) limit(sigma(x),x,inf);
or
( %o9) 2
Sumatorias:
ad
(%i10)sum(sigma(i),i,0,6);
12 10 8 6 4 √
( %o10) √ + √ + √ + √ + √ + 2
37 26 17 10 5
Podemos calcular series de Taylor, digamos, alrededor de x = 1 y hasta orden 4.
rr
(%i11)taylor(sigma(x),x,1,4);
−1 1 4 1 1 3 −1 1 2 1 1 1
( %o11) 5 2 2 (x − 1) + 3 2 2 (x − 1) + 3 2 2 (x − 1) + 2 2 (x − 1) + 2 2 + · · ·
Bo
128 16 8 2
Al rededor de x = 0 es más simple todo:
383
12.2. MAXIMA: SINTAXIS BÁSICA
(%i12)taylor(sigma(x),x,0,6);
3 5
( %o12) x + (−1) x3 + 2 x + · · ·
4
Y por supuesto, también podemos hacer una gráfica de la función. Para ello utilizaremos el comando
wxplot2d que nos generará un gráfico embebido dentro de la misma hoja de trabajo.
(%i13)wxplot2d(sigma(x),[x,-10,10]);
r
( %o13)
a
in
m
eli
Pr
Los cálculos anteriores se pueden repetir para que queden de una manera más elegante usando una
camilla, esto hará que no se efectúe la evaluación de las operaciones.
or
(%i14)’diff(sigma(x),x)=diff(sigma(x),x);
2 x2
d 2x 2
( %o14) √ =√ − 3
dx x2 + 1 x2 + 1 (x2 + 1) 2
ad
(%i15)’integrate(sigma(x),x,0,1)=integrate(sigma(x),x,0,1);
Z 1
x √
( %o15) 2 √ dx = 2 2−1
0x2 + 1
(%i16)’limit(sigma(x),x,inf)=limit(sigma(x),x,inf);
rr
x
( %o16) 2 lı́m √ =2
x→∞ x2 + 1
Bo
(%i17)’sum(sigma(i),i,0,6)=sum(sigma(i),i,0,6);
6
X i 12 10 8 6 4 √
( %o17) 2 √ =√ +√ +√ +√ +√ + 2
i=0
i2 +1 37 26 17 10 5
384
12.2. MAXIMA: SINTAXIS BÁSICA
Anteriormente mencionamos que uno de las ventajas de los programas de manipulación simbólica es la
gran capacidad de llevar a cabo cálculos largos y tediosos, veamos entonces como se hace para demostrar
que la función antes mencionada:
(%i18)f(x,y,z):=sin(n*z*sqrt(x^2+y^2+z^2)/sqrt(y^2+z^2))/sqrt(x^2+y^2+z^2);
√
n z z 2 +y 2 +x2
sin √ 2 2
z +y
( %o18) f (x, y, z) :=
r
p
z + y 2 + x2
2
a
es solución de la ecuación diferencial
∂4f ∂4f ∂4f
2
∂2f
2 ∂ f
+ 2 2 + 2 2 +n + 2 =0
in
∂x4 ∂y x ∂z x ∂x2 ∂y
(%i19)diff(f(x,y,z),x,4)+diff(diff(f(x,y,z),x,2),y,2)+diff(diff(f(x,y,z),x,2),z,
m
2)+n^2*(diff(f(x,y,z),x,2)+diff(f(x,y,z),y,2));
Aquı́ Maxima no hace un despliegue en la pantalla de los cálculos porque la expresión matemática
eli
es muy larga. Existen opciones para que muestre en pantalla los que nos interese que iremos viendo más
adelante.
Necesitamos entonces decirle al programa que la expresión anterior sea simplificada, es decir, que minimice
la expresión a su valor más simple. Para simplificar expresiones que contienen radicales, exponenciales o
Pr
logaritmos es conveniente utilizar el comando ratsimp. También existe la opción fullratsimp
(%i20)ratsimp(%);
( %o20) 0
En la mayorı́a de los casos Maxima no factoriza ni desarrolla automáticamente las expresiones, por
or
lo tanto, debemos indicarle al programa que haga las respectivas simplificaciones. Veamos un ejemplo con
polinomios:
(%i21)kill(all)$
ad
(%i1) p:(x+2)*(x-1);
( %o1) (x − 1) (x + 2)
(%i2) q:(x-3)^2;
rr
2
( %o2) (x − 3)
(%i3) p-q;
2
( %o3) (x − 1) (x + 2) − (x − 3)
Bo
(%i4) expand(p-q);
( %o4) 7 x − 11
385
12.2. MAXIMA: SINTAXIS BÁSICA
(%i5) expand(p/q);
x2 x 2
( %o5) + −
x2 − 6 x + 9 x2 − 6 x + 9 x2 − 6 x + 9
Si queremos dividir usando fracciones simples podemos hacer lo siguiente:
(%i6) partfrac(p/q,x);
r
7 10
( %o6) + +1
x − 3 (x − 3)2
a
Las funciones logexpand y radexpand permiten controlar si queremos simplificar logaritmos y radicales
cuando contienen productos. Veamos:
in
(%i7) log(x*y);
( %o7) log (x y)
m
(%i8) sqrt(x*y);
√
( %o8) x y
(%i9) sqrt(x^2);
eli
( %o9) |x|
(%i10)radexpand:all$ logexpand:all$
(%i14)factor(200);
( %o14) 23 52
ad
(%i15)factor(x^2+x-2);
( %o15) (x − 1) (x + 2)
(%i16)p:x^3-1;
( %o16) x3 − 1
rr
(%i17)factor(%);
( %o17) (x − 1) x2 + x + 1
Bo
386
12.2. MAXIMA: SINTAXIS BÁSICA
(%i18)ev(p,x=8);
( %o18) 511
O también
(%i19)p,x=%pi;
( %o19) π 3 − 1
r
(%i20)ev(x+(x+y)^2-3*(x+y)^3,x+y=t);
a
( %o20) x − 3 t3 + t2
in
Para finalizar con esta guı́a rápida de Maxima veamos el uso de uno de los comandos más comunes de
estos programas, y que tiene que ver con la solución de ecuaciones.
(%i21)ecu:3*x^2+2*x+x^3-x^2=2*x^2;
m
( %o21) x3 + 2 x2 + 2 x = 2 x2
(%i22)sol:solve(ecu,x);
eli
h √ √ i
( %o22) x = − 2 %i, x = 2 %i, x = 0
(%i25)ecu1:x^2+y^2=1;
( %o25) y 2 + x2 = 1
ad
(%i26)ecu2:(x-2)^2+(y-1)^2=4;
2 2
( %o26) (y − 1) + (x − 2) = 4
(%i27)solve([ecu1,ecu2],[x,y]);
rr
4 3
( %o27) x = , y = − , [x = 0, y = 1]
5 5
Cuando el sistema no tiene solución Maxima responde de la siguiente manera
Bo
(%i28)solve([x+y=0,x+y=1],[x,y]);
387
12.2. MAXIMA: SINTAXIS BÁSICA
( %o28) [ ]
En el caso de un sistema que tiene más incógnitas que ecuaciones el programa utiliza los sı́mbolos
%r1 , %r2 ... para indicar los parámetros arbitrarios
(%i29)solve([x+y+z=9,x-y=2*z],[x,y,z]);
%r1 + 9 3 %r1 − 9
( %o29) x = ,y = − , z = %r1
2 2
r
En lugar de solve se puede recurrir a un comando diferente que hace lo mismo, pero que es más eficiente
a
desde el punto de vista de los recursos usados por el computador, el comando es linsolve para ecuaciones
lineales.
in
(%i30)ecus:[x+y+z+w=1,x-y+z-w=-2,x+y-w=0];
( %o30) [z + y + x + w = 1, z − y + x − w = −2, y + x − w = 0]
(%i31)linsolve(ecus,[x,y,z]);
m
4w − 3 2w − 3
( %o31) x = ,y = − ,z = 1 − 2w
2 2
eli
En el caso de polinómios de orden superior el resultado estará dado de forma aproximada:
(%i32)ec:x^7+x^5-x^3+x-2;
( %o32) x7 + x5 − x3 + x − 2
(%i33)allroots(ec);
Pr
[ x=0.766414088337633 %i+0.5507199727230275 ,
x=0.5507199727230275-0.766414088337633 %i ,
x=0.4922671445862202 %i - 0.9637112977011089 ,
x=-0.4922671445862202 %i -0.9637112977011089 ,
or
x=1.381985877916414 %i -0.08700867502191806 ,
x=-1.381985877916414 %i -0.08700867502191806 ,
x=0.9999999999999988 ]
ad
(%i34)realroots(ec);
( %o34) [x = 1]
Otro tipo de ecuaciones a resolver son las ecuaciones diferenciales. Veamos como funciona con la ecuaciones
rr
diferenciales ordinarias
(%i35)ecd:(2*x+1)*’diff(y,x)+y*(x-1)=0;
Bo
d
( %o35) (2 x + 1) y + (x − 1) y = 0
dx
(%i36)ode2(ecd,y,x);
388
12.2. MAXIMA: SINTAXIS BÁSICA
3 log(2 x+1)
−x
( %o36) y = %c e 4 2
Por ser una ecuación diferencial de primer orden debe aparecer una constante en la solución. La constante
aquı́ es denotada por “ %c”.
(%i37)ecd2:’diff(y,x,2)-3*’diff(y,x)+2*y=x;
d2
d
( %o37) y−3 y + 2y = x
d x2 dx
r
(%i38)ode2(ecd2,y,x);
a
2x + 3
( %o38) y = %k1 e2 x + %k2 ex +
4
in
Para el caso de que se tengan condiciones iniciales utilizamos ic2 para indicar las condiciones
(%i39)ic2(%o38,x=0,y=0,diff(y,x)=1);
5 e2 x
m
2x + 3
( %o39) y = − 2 ex +
4 4
Y para valores de contorno bc2
eli
(%i40)bc2(%o38,x=0,y=0,x=1,y=0);
(3 e − 5) e2 x 3 e2 − 5 ex 2x + 3
( %o40) y = − +
4 e2 − 4 e 4 e2 − 4 e 4
Pr
Existe el comando desolve para resolver también ecuaciones o sistemas de ecuaciones diferenciales or-
dinarias lineales utilizando transformadas de Laplace. Trabaja de manera parecida a ode2 pero se necesita
especificar la dependencia de las funciones con las variables independientes.
(%i41)ecd3:’diff(y(x),x,2)-y(x)=2*x;
d2
( %o41) y (x) − y (x) = 2 x
d x2
or
(%i42)desolve(ecd3,[y(x)]);
ex ddx y (x)x=0 + y (0) + 2 e−x d
dx y (x)x=0 − y (0) + 2
( %o42) y (x) = − − 2x
2 2
ad
( %o43) 1
rr
( %o44) 2
(%i45)desolve(ecd3,[y(x)]);
Bo
5 ex 3 e−x
( %o45) y (x) = − − 2x
2 2
Si desolve no encuentra una solución, entonces devuelve “false”.
389
12.2. MAXIMA: SINTAXIS BÁSICA
d d
( %o46) f (x) = g (x) + sin x
dx dx
(%i47)ecd_2: ’diff(g(x),x,2)=’diff(f(x),x)-cos(x);
d2 d
( %o47) g (x) = f (x) − cos x
r
dx 2 dx
(%i48)atvalue(’diff(g(x),x),x=0,a)$ atvalue(f(x),x=0,b)$ atvalue(g(x),x=0,c)$
a
(%i51)desolve([ecd_1, ecd_2], [f(x),g(x)]);
in
( %o51) [f (x) = a ex + b − a, g (x) = cos x + a ex + c − a − 1]
(%i52)kill(all)$
Operaciones básicas con matrices:
m
(%i1) A:matrix([1,2,3],[4,5,6],[7,8,9]);B:matrix([9,8,7],[6,5,4],[3,2,1]);
1 2 3
eli
( %o1) 4 5 6
7 8 9
9 8 7
( %o2) 6 5 4
3 2 1
(%i3) A+B;
Pr
10 10 10
( %o3) 10 10 10
10 10 10
El producto ordinario de matrices:
or
(%i4) A.B;
30 24 18
( %o4) 84 69 54
ad
138 114 90
El producto elemento a elemento
(%i5) A*B;
9 16 21
rr
(%i6) A/B;
390
12.2. MAXIMA: SINTAXIS BÁSICA
1 1 3
9 4 7
( %o6) 2 1 3
3 2
7
3 4 9
El producto por un escalar:
(%i7) n*A;
n 2n 3n
( %o7) 4 n 5 n 6 n
r
7n 8n 9n
a
Podemos generar matrices de muchas maneras
(%i8) a[i,j]:=i^2 + j^2$
in
(%i9) A:genmatrix(a,4,4);
2 5 10 17
5 8 13 20
m
( %o9) 10 13 18 25
17 20 25 32
También de manera interactiva:
eli
(%i10)n:3$
(%i11)M:entermatrix(n,n)$ Pr
Is the matrix 1. Diagonal 2. Symmetric 3. Antisymmetric 4. General
Answer 1, 2, 3 or 4 : 1;
Row 1 Column 1: (x+y)^n$
Row 2 Column 2: (x-y)^(n+1)$
Row 3 Column 3: (x.y)^(n-1)$
Matrix entered.
or
(%i12)M;
3
(y + x) 0 0
4
( %o12) 0 (x − y) 0
ad
2
0 0 (x · y)
La matriz identidad de tamaño n x n usamos el comando ident(n), como mostramos a continuación
(%i13)ident(4);
rr
1 0 0 0
0 1 0 0
( %o13)
0 0 1
0
0 0 0 1
Bo
391
12.2. MAXIMA: SINTAXIS BÁSICA
12.2.2. Bibliotecas
No todos los comandos están disponibles en la memoria cuando el programa es iniciado. Sólo los coman-
dos estándar son cargados automáticamente. Pero podemos contar con funciones adicionales para trabajar
cargando al programa los diferentes paquetes, módulos o librerı́as que dispone Maxima. Por ejemplo, el
paquete vect nos permite introducir vectores y operar con ellos.
El paquete vect debe entonces ser previamente cargado y se hace de la manera siguiente:
(%i1) load(vect)$
r
Las operaciones básicas de suma, resta, multiplicación y multiplicación por escalares de vectores las
a
podemos ver a continuación, pero primero debemos saber como introducir los vectores al programa.
Por ejemplo, para los vectores a = 2i + 4j + 6k, b = 5i + 7j + 9k y c = i + 3j, tenemos:
in
(%i2) a:[2,4,6];
( %o2) [2, 4, 6]
(%i3) b:[5,7,9];
m
( %o3) [5, 7, 9]
(%i4) c:[1,3,0];
eli
( %o4) [1, 3, 0]
(%i5) a+b+c;
( %o5) [8, 14, 15]
(%i6) 3*a+5*b-c;
Pr
( %o6) [30, 44, 63]
Si queremos calcular el módulo de los vectores podemos hacerlo definiendo una función: la función módulo,
como mostramos a continuación:
or
(%i7) modulo(a):=sqrt(a.a);
√
( %o7) modulo(a) := a.a
(%i8) modulo(a); modulo(b); modulo(c);
ad
√
( %o8) 2√ 14
( %o9) √155
( %10) 10
rr
( %11) 92
Mientras que para el producto vectorial debemos usar la tilde ∼ y escribir lo siguiente
392
12.2. MAXIMA: SINTAXIS BÁSICA
a r
in
m
eli
Figura 12.2: Curvas integrales para y 0 = −x + e−y
(%i12)express(a~b);
Pr
( %o12) [−6, 12, −6]
(%i13)express(b~a);
( %o14) 30
Otra librerı́a que podemos explorar es plotdf que nos permite realizar gráficos del tipo y 0 = f (x, y) y
hacernos una idea de cómo es la solución de ésta ecuación diferencial.
rr
(%i1) load(plotdf)$
La librerı́a plotdf nos permite estudiar los campos de direcciones y las curvas integrales a través del
estudio de las pendientes. Veamos la siguiente ecuación diferencial
Bo
y 0 = −x + e−y
su solución, de manera gráfica, es decir los campos de direcciones lo podemos obtener escribiendo el siguiente
393
12.2. MAXIMA: SINTAXIS BÁSICA
a r
in
m
eli
Figura 12.3: Curva integrales para y 0 = −x + e−y y que pasa por el punto (2, 3)
comando.
Pr
(%i2) plotdf(-x+exp(-y));
La gráfica que resulta puede verse en la Figura 12.2 y cada curva integral (curvas en rojo) se obtiene
haciendo un “click”sobre un punto de la gráfica, esto generará la curva integral que pasa por ese punto.
Por otra parte, existen varias opciones para el comando plotdf. Supongamos que queremos la trayectoria
or
que pase por el punto especı́fico (2, 3). Para tal fin escribimos
(%i3) plotdf(-x+exp(-y),[trajectory_at,2,3]);
También nos podemos encontrar con que la ecuación diferencial depende de algún parámetro, digamos
κ. Por ejemplo
y 0 = −x + κe−y
y nos gustarı́a obtener una gráfica para algún valor del parámetro en partı́cular, digamos κ = −0,5. Entonces
rr
podemos escribir
(%i4) plotdf(-x+exp(-kappa*y),[parameters,"kappa=-0.5"]);
Bo
O, si queremos recorrer, en una misma figura, los diferentes valores del parámetro usamos la opción
sliders, como se muestra a continuación
394
12.2. MAXIMA: SINTAXIS BÁSICA
a r
in
m
eli
Figura 12.4: Curva integrales para y 0 = −x + κe−y y para diferentes valores de κ.
Pr
(%i5) plotdf(-x+exp(-kappa*y),[parameters,"kappa=-0.5"],[sliders,"kappa=-3:3"]);
La gráfica que se obtiene se muestra en la Figura 12.4, y como se puede ver, en la parte inferior aparece un
botón deslizante y el valor del parámetro κ. Al deslizar el botón, estaremos cambiando el valor del parámetro
que en este caso variará entre −3 y 3, podremos apreciar entonces como los campos de direcciones y las curvas
integrales seleccionadas cambian.
or
ad
rr
Bo
395
12.2. MAXIMA: SINTAXIS BÁSICA
r
podemos dejar el proceso en modo “background” y utilizar el computador en otra actividad.
Al entrar en este modo al programa tendremos un mensaje como el que se muestra a continuación y
a
donde aprovecharemos de hacer un par de cálculos a modo de ejemplo.
in
Obatala%maxima
Maxima 5.36.1 [Link]
using Lisp SBCL 1.2.10
Distributed under the GNU Public License. See the file COPYING.
m
Dedicated to the memory of William Schelter.
The function bug_report() provides bug reporting information.
(%i1) integrate( tan(x), x );
(%o1) log(sec(x))
eli
(%i2) float(sqrt(%pi));
(%o2) 1.772453850905516
(%i3) quit();
Sobre UNIX podemos utilizar los archivos de entradas y salidas estándar para leer e imprimir información
en el terminal: <, >, |.
Pr
Obatala% maxima < [Link]
Con esta instrucción Maxima ejecutará todos los comandos que se encuentran en el archivo de texto
[Link] e irá mostrando los resultados en pantalla
En la siguiente instrucción Maxima ejecutará todos los comandos que se encuentran en el archivo de
texto [Link] pero escribirá los resultados en el archivo de salida llamado [Link]
or
Obatala%> bg
[2] maxima < [Link] > [Link] &
Obatala%
396
12.2. MAXIMA: SINTAXIS BÁSICA
O si lo preferimos, y de manera equivalente, podemos escribir la instrucción pero ponemos al final &
r
(%i1) describe(diff);
a
0: diff (Functions and Variables for Differentiation)
in
1: diff <1> (Functions and Variables for Differentiation)
2: diff <2> (Functions and Variables for itensor)
Enter space-separated numbers, ‘all’ or ‘none’:
Al seleccionar una de las opciones, por ejemplo si escribimos 1 después de los dos puntos, aparecerá la
m
descripción completa del comando:
-- Function: diff
diff (<expr>, <x_1>, <n_1>, ..., <x_m>, <n_m>)
eli
diff (<expr>, <x>, <n>)
diff (<expr>, <x>)
diff (<expr>)
Returns the derivative or differential of <expr> with respect to
some or all variables in <expr>.
Pr
’diff (<expr>, <x>, <n>)’ returns the <n>’th derivative of <expr>
with respect to <x>.
’diff (<expr>, <x_1>, <n_1>, ..., <x_m>, <n_m>)’ returns the mixed
partial derivative of <expr> with respect to <x_1>, ..., <x_m>. It
is equivalent to ’diff (... (diff (<expr>, <x_m>, <n_m>) ...),
<x_1>, <n_1>)’.
or
the differentiation.....
397
12.2. MAXIMA: SINTAXIS BÁSICA
[covdiff,diff,maxtaydiff,pdiff_diff_var_names,pdiff_prime_limit...]
O pedirle al programa algunos ejemplos
(%i3) example(diff);
(%i4) kill(f,g,h,x,y)
(%o4) done
(%i5) diff(sin(x)+x^3+2*x^2,x)
r
(%o5) cos(x)+3*x^2+4*x
(%i6) diff(sin(x)*cos(x),x)
a
(%o6) cos(x)^2-sin(x)^2
(%i7) diff(sin(x)*cos(x),x,2)
in
(%o7) -4*cos(x)*sin(x)
.
.
.
m
Las ayudas completas de Maxima se pueden consultar en: [Link]
12.2.5. Ejercicios
eli
1. Calcule:
a) los 70 primeros decimales del número e
b) el arco coseno hiperbólico de 1
c) la expansión de sin(2 arctan(x))
Pr
2. Para la siguiente función
(x + 1)3
f (x) = √
x2 − 1
Calcule
∂f (x) ∂f (x)
or
a) ∂x , ∂x2
b)
Z Z 4
f (x)dx , f (x)dx
2
ad
c)
lı́m f (x) , lı́m f (x) , lı́m f (x)
x→∞ x→−∞ x→0
dy(x)
x = y(x) ln(xy(x)) − y(x);
dx
y haga una gráfica del campo de direcciones que muestre algunas curvas integrales.
398
12.2. MAXIMA: SINTAXIS BÁSICA
r
z_1=1+2%i;
a
z_2=3+4%i;
z_1+z_2;
in
z_1*z_2;
expand(%);
z_1/z_2;
rectform(%);
m
polarform(%);
eli
localhost% maxima < [Link] > [Link] &
399
Bibliografı́a
a r
in
[James Brown, Ruel Churchill 1999] James Brown and Ruel Churchill (1999) Complex Variables and
Applications. (McGraw-Hill Education; 9th Edición)
m
[Konrad Knopp 1996] Konrad Knopp (1996) Theory of Functions. (Dover Publications )
[Aleksandrov Kolmogorov y Lavrentiev 1999] A. D. Aleksandrov, A. N. Kolmogorov y M. A. Lavrentiev
(1999) Mathematics: Its Content, Methods and Meaning. (Dover Publications, New York ) Existe
eli
traducción por Editorial Alianza Universidad.
[Arfken, Weber y Weber 2000] Arfken, G. B., Weber, H., y Weber, H.J. (2000) Mathematical Methods
for Physicists 5ta Edición (Academic Press, Nueva York )
Pr
[1] Byron, F.W. y Fuller W.F. (1970) Mathematics of Classical and Quantum Physics (Dover Pu-
blications, New York )
[Cushing 1975] Cushing, J. (1975) Applied Analytical Mathematics for Physical Sciences (John
Wiley & Sons, New York )
[Hamming 1973] Hamming R.W. (1973) Numerical Methods For Scientist and Engineers, 2nd ed.
or
[Hassani 1991] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International
Edition, London:)
ad
[Lebedev 1972] Lebedev, N.N. (1972) Special Functions & Their Applications (Dover Publications,
New York )
400