0% encontró este documento útil (0 votos)
202 vistas569 páginas

Notas Analitica

Este documento presenta notas de clase sobre mecánica analítica. Incluye secciones sobre elementos básicos de mecánica newtoniana, el principio de D'Alembert y ecuaciones de Lagrange, cálculo variacional y multiplicadores de Lagrange, principio variacional de Hamilton y ecuaciones de Lagrange, y simetrías y cantidades conservadas según el formalismo de Lagrange. El documento provee una introducción completa a la mecánica analítica desde una perspectiva lagrangiana y hamiltoniana.

Cargado por

Luis Miguel
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
202 vistas569 páginas

Notas Analitica

Este documento presenta notas de clase sobre mecánica analítica. Incluye secciones sobre elementos básicos de mecánica newtoniana, el principio de D'Alembert y ecuaciones de Lagrange, cálculo variacional y multiplicadores de Lagrange, principio variacional de Hamilton y ecuaciones de Lagrange, y simetrías y cantidades conservadas según el formalismo de Lagrange. El documento provee una introducción completa a la mecánica analítica desde una perspectiva lagrangiana y hamiltoniana.

Cargado por

Luis Miguel
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Mecánica Analı́tica: Notas de Clase

Rodolfo Alexander Diaz Sanchez


Universidad Nacional de Colombia
Departamento de Fı́sica
Bogotá, Colombia

28 de noviembre de 2011
Índice general

Introduction XIV

1. Elementos básicos de Mecánica Newtoniana 1


1.1. Cinemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Dinámica: Leyes de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Trabajo y energı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4. Torque y momento angular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.5. Dinámica de un sistema de partı́culas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5.1. Definición de centro de masa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5.2. Sistemas de partı́culas no aislados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5.3. Momento angular y torque de un sistema de partı́culas . . . . . . . . . . . . . . . . . . . 7
1.5.4. Trabajo y energı́a de un sistema de partı́culas . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5.5. Conservación de la energı́a de un sistema de partı́culas . . . . . . . . . . . . . . . . . . . 11
1.5.6. Transformación de la energı́a cinética al sistema-C a partir del sistema de laboratorio . 13
1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2. Principio de D’Alembert y ecuaciones de Lagrange 14


2.1. Ligaduras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2. Principio de D’Alembert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3. Coordenadas generalizadas y ecuaciones de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.1. Energı́as cinética y potencial en coordenadas generalizadas . . . . . . . . . . . . . . . . 21
2.3.2. Una simetrı́a gauge o de calibración para el Lagrangiano . . . . . . . . . . . . . . . . . . 21
2.4. Ecuaciones de Lagrange para potenciales generalizados . . . . . . . . . . . . . . . . . . . . . . . 22
2.5. Ecuaciones de Lagrange con fuerzas disipativas . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.6. Algunas caracterı́sticas de las cantidades generalizadas . . . . . . . . . . . . . . . . . . . . . . . 25
2.7. Relación entre sistemas coordenados y sistemas de referencia . . . . . . . . . . . . . . . . . . . 26
2.8. Ejemplos de uso de la formulación Lagrangiana . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.8.1. Partı́cula en el espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.8.2. Máquina de Atwood . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.8.3. Cuenta sobre un alambre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.8.4. Gauge electromagnético en la formulación Lagrangiana . . . . . . . . . . . . . . . . . . . 30
2.8.5. Un sistema ligado de dos masas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.8.6. Aro sobre plano inclinado deslizante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.8.7. Un potencial generalizado para una fuerza central . . . . . . . . . . . . . . . . . . . . . 34
2.8.8. Partı́cula inmersa en un fluı́do . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.9. Ventajas del formalismo Lagrangiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

ii
ÍNDICE GENERAL iii

3. Cálculo variacional y multiplicadores de Lagrange 38


3.1. Algunos problemas prácticos de naturaleza variacional . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.1. Minimización del tiempo de caı́da de una partı́cula . . . . . . . . . . . . . . . . . . . . . 38
3.1.2. Minimización de una superficie de revolución . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2. Aspectos fundamentales del cálculo de variaciones . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.1. Cálculo variacional en una dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.2. Cálculo de variaciones multidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3. Solución de los problemas de aplicación planteados . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3.1. Minimización de la longitud de arco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.2. Minimización del tiempo de caı́da de una partı́cula: la braquistócrona . . . . . . . . . . 44
3.3.3. Minimización de una superficie de revolución . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4. Ligaduras y multiplicadores de Lagrange (opcional) . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.1. Generalización a un conjunto arbitrario de variables y de ligaduras . . . . . . . . . . . . 48
3.5. Problemas variacionales con ligaduras (opcional) . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

4. Principio variacional de Hamilton y ecuaciones de Lagrange 53


4.1. Aplicación del cálculo de variaciones al principio de Hamilton . . . . . . . . . . . . . . . . . . . 54
4.2. Extensión del principio de Hamilton a algunos sistemas no holónomos . . . . . . . . . . . . . . 54
4.2.1. Significado fı́sico de los multiplicadores de Lagrange: fuerzas de ligadura . . . . . . . . . 56
4.2.2. Formalismo de los multiplicadores para ligaduras holónomas . . . . . . . . . . . . . . . . 57
4.3. Relación entre el principio diferencial de D’Alembert y el Principio variacional de Hamilton . . 58
4.4. Aplicación del principio de Hamilton con coordenadas dependientes . . . . . . . . . . . . . . . . 59
4.4.1. Bloque deslizante sobre una semiesfera . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.4.2. Aro sobre plano inclinado con condición de rodadura . . . . . . . . . . . . . . . . . . . . 61
4.4.3. Esfera en un hueco cilı́ndrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.5. Caracterı́sticas básicas de una formulación variacional . . . . . . . . . . . . . . . . . . . . . . . 64
4.6. Principio variacional para Lagrangianos que contienen a q̈ (opcional) . . . . . . . . . . . . . . . 64
4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

5. Simetrı́as y cantidades conservadas (Lagrange) 69


5.1. Teoremas de conservación y propiedades de simetrı́a . . . . . . . . . . . . . . . . . . . . . . . . 69
5.1.1. Momento lineal y coordenadas globales de traslación . . . . . . . . . . . . . . . . . . . . 71
5.1.2. Momento angular y coordenadas globales de rotación . . . . . . . . . . . . . . . . . . . . 73
5.1.3. Consideraciones generales sobre simetrı́as asociadas a coordenadas cı́clicas y cantidades
conservadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.2. Función energı́a y conservación de la energı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.2.1. Relación entre energı́a y función energı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.2.2. Función energı́a con fuerzas disipativas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.3. Teorema de Noether para sistemas discretos (opcional) . . . . . . . . . . . . . . . . . . . . . . . 78
5.3.1. Comentarios sobre el teorema de Noether . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.4. Ejemplos de aplicación del teorema de Noether . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.4.1. Invarianza ante traslación temporal y conservación de la energı́a . . . . . . . . . . . . . 83
5.4.2. Invarianza ante traslación espacial y conservación del momento lineal . . . . . . . . . . . 84
5.4.3. Invarianza ante rotaciones espaciales y la conservación del momento angular . . . . . . . 86
5.4.4. Transformaciones de Galileo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
iv ÍNDICE GENERAL

6. Ecuaciones de Movimiento de Hamilton 92


6.1. Consideraciones generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.2. Transformaciones de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.3. Generación del Hamiltoniano y Ecuaciones de Hamilton . . . . . . . . . . . . . . . . . . . . . . 94
6.4. Algoritmo matricial para la obtención del Hamiltoniano . . . . . . . . . . . . . . . . . . . . . . 95
6.4.1. Hamiltoniano para un cuerpo sometido a una fuerza central en coordenadas esféricas . . 96
6.4.2. Hamiltoniano de una carga no relativista inmersa en un campo electromagnético . . . . 98
6.5. Forma Simpléctica de las Ecuaciones de Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.6. Coordenadas cı́clicas y teoremas de conservación . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.7. El Hamiltoniano en diferentes sistemas coordenados . . . . . . . . . . . . . . . . . . . . . . . . 101
6.7.1. Hamiltoniano de un sistema masa resorte en diferentes sistemas coordenados . . . . . . 102
6.8. Problemas de aplicación de las ecuaciones de Hamilton . . . . . . . . . . . . . . . . . . . . . . . 103
6.8.1. Partı́cula sobre superficie cilı́ndrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.8.2. Ejemplo de aplicación del algoritmo matricial . . . . . . . . . . . . . . . . . . . . . . . . 106
6.8.3. Péndulo sujeto a una recorrido parabólico . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.9. Procedimiento de Routh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.9.1. Partı́cula sometida a un potencial central atractivo por el método de Routh . . . . . . . 112
6.10. Ecs. de Hamilton a partir de un principio variacional . . . . . . . . . . . . . . . . . . . . . . . . 113
6.11. El principio de mı́nima acción (opcional) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.11.1. Algunas aplicaciones del principio de mı́nima acción . . . . . . . . . . . . . . . . . . . . 118
6.12. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

7. Transformaciones canónicas 120


7.1. Transf. Canónicas y el principio de Hamilton modificado . . . . . . . . . . . . . . . . . . . . . . 121
7.2. Funciones generadoras de una transformación canónica . . . . . . . . . . . . . . . . . . . . . . . 122
7.3. Ejemplos de transformaciones canónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
7.4. Transformaciones canónicas para el oscilador armónico . . . . . . . . . . . . . . . . . . . . . . . 127
7.5. Transf. Canónicas con la forma simpléctica de las Ecs. de Hamilton . . . . . . . . . . . . . . . . 129
7.5.1. Ejemplos de transformaciones canónicas con método matricial . . . . . . . . . . . . . . . 131
7.6. Método simpléctico para T.C’s dependientes del tiempo . . . . . . . . . . . . . . . . . . . . . . 132
7.7. Ejemplos de transformaciones canónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
7.7.1. Transformación canónica por conjugación compleja . . . . . . . . . . . . . . . . . . . . . 134
7.7.2. Transformación canónica de rotación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
7.7.3. Un sistema con dos grados de libertad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

8. Corchetes de Poisson y otros invariantes canónicos 140


8.1. Corchetes de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
8.2. Propiedades de los corchetes de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
8.3. Corchetes de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
8.4. Otros invariantes canónicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
8.5. Condic. simpléctica y funciones generatrices (opcional) . . . . . . . . . . . . . . . . . . . . . . . 144
8.6. Ecuaciones de movimiento con corchetes de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 146
8.7. Constantes de movimiento con corchetes de Poisson . . . . . . . . . . . . . . . . . . . . . . . . 147
8.8. Constantes de mov. evaluadas por corchetes de Poisson . . . . . . . . . . . . . . . . . . . . . . . 148
8.8.1. Sistema con dos grados de libertad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
8.8.2. Otro sistema con dos grados de libertad . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.8.3. Constante de movimiento del oscilador armónico . . . . . . . . . . . . . . . . . . . . . . 151
8.9. Transf. Canónicas infinitesimales y corchetes de Poisson . . . . . . . . . . . . . . . . . . . . . . 152
8.10. Cambios activo y pasivo de una función del sistema bajo una T.C. . . . . . . . . . . . . . . . . 154
8.11. Cambio del Hamiltoniano bajo una transformación canónica . . . . . . . . . . . . . . . . . . . . 155
ÍNDICE GENERAL v

8.12. Cantidades conservadas e invarianzas del Hamiltoniano . . . . . . . . . . . . . . . . . . . . . . . 156


8.12.1. El momento lineal total como generador de TCI’s que generan traslaciones . . . . . . . 158
8.12.2. El momento angular total como generador de TCI’s que generan rotaciones . . . . . . . 158
8.13. Construcción de TC’s finitas a partir de TCI’s . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
8.13.1. Aplicación del operador evolución temporal en el movimiento uniformemente acelerado . 162
8.13.2. Aplicación del operador evolución temporal en el movimiento armónico simple . . . . . 162
8.13.3. Aplicación del operador evolución paramétrica para la generación de rotaciones . . . . . 164
8.14. Propiedades de los corchetes de Poisson de los momentos angulares . . . . . . . . . . . . . . . . 164
8.14.1. Ejemplos de aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
8.15. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

9. Teorı́a de Hamilton-Jacobi y variables acción-ángulo 169


9.1. Ec. de Hamilton-Jacobi para la función principal de Hamilton . . . . . . . . . . . . . . . . . . . 169
9.1.1. Interpretación fı́sica de las soluciones de Hamilton-Jacobi . . . . . . . . . . . . . . . . . 171
9.2. Solución del oscilador armónico por el método de Hamilton-Jacobi . . . . . . . . . . . . . . . . 172
9.2.1. Oscilador armónico unidimensional con el método de Hamilton Jacobi . . . . . . . . . . 172
9.2.2. Oscilador armónico bidimensional anisotrópico . . . . . . . . . . . . . . . . . . . . . . . 174
9.2.3. Oscilador armónico bidimensional isotrópico . . . . . . . . . . . . . . . . . . . . . . . . . 175
9.3. Ec. de H-J para la función caracterı́stica de Hamilton . . . . . . . . . . . . . . . . . . . . . . . 176
9.4. Paralelismo entre los dos formalismos de H-J . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
9.5. Separación de variables en la ecuación de Hamilton-Jacobi . . . . . . . . . . . . . . . . . . . . . 180
9.5.1. Coordenadas ignorables y separabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
9.5.2. Condiciones más generales para la separabilidad . . . . . . . . . . . . . . . . . . . . . . 182
9.6. Fuerzas centrales en el formalismo de Hamilton-Jacobi . . . . . . . . . . . . . . . . . . . . . . . 183
9.6.1. Problema bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
9.6.2. La dinámica de las fuerzas centrales como problema tridimensional . . . . . . . . . . . 185
9.7. Otros problemas de aplicación con el formalismo de H-J . . . . . . . . . . . . . . . . . . . . . . 187
9.7.1. Partı́cula sometida a potencial armónico y campo magnético . . . . . . . . . . . . . . . 187
9.7.2. Partı́cula bajo potencial conservativo en coordenadas elipsoidales . . . . . . . . . . . . . 189
9.8. Variables acción-ángulo para sistemas con un grado de libertad . . . . . . . . . . . . . . . . . . 192
9.8.1. Formulación general de la variables acción-ángulo en una dimensión . . . . . . . . . . . 194
9.9. Problemas de variables acción-ángulo con un grado de libertad . . . . . . . . . . . . . . . . . . 196
9.9.1. El oscilador armónico unidimensional en variables acción-ángulo . . . . . . . . . . . . . 196
9.9.2. Partı́cula en movimiento periódico en una dimensión bajo un potencial V (x) = F |x| . . 197
9.10. Variables acción-ángulo para sistemas completamente separables1 . . . . . . . . . . . . . . . . . 198
9.10.1. Movimientos periódicos múltiples de libración . . . . . . . . . . . . . . . . . . . . . . . . 200
9.10.2. Movimientos cuasi periódicos múltiples de rotación . . . . . . . . . . . . . . . . . . . . . 201
9.10.3. Movimientos periódicos simples y múltiples tipo libración . . . . . . . . . . . . . . . . . 202
9.10.4. Variables acción-ángulo para sistemas degenerados . . . . . . . . . . . . . . . . . . . . . 204
9.11. Comentarios finales sobre las variables acción-ángulo . . . . . . . . . . . . . . . . . . . . . . . . 207
9.12. El problema de Kepler en variables acción-ángulo . . . . . . . . . . . . . . . . . . . . . . . . . . 207
9.12.1. Variables acción-ángulo teniendo en cuenta la degeneración . . . . . . . . . . . . . . . . 212
9.13. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213

10.Fuerzas centrales 215


10.1. Reducción al problema de dos partı́culas desacopladas . . . . . . . . . . . . . . . . . . . . . . . 215
10.2. Ecuaciones de movimiento y primeras integrales . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
10.3. Problema unidimensional asociado y clasificación de órbitas . . . . . . . . . . . . . . . . . . . . 221
10.4. Análisis de curvas de potencial efectivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
10.4.1. Potencial efectivo para interacción kepleriana . . . . . . . . . . . . . . . . . . . . . . . . 222
1
En lo que sigue del capı́tulo no adoptaremos la convención de suma de ı́ndices repetidos a menos que se indique lo contrario.
vi ÍNDICE GENERAL

10.4.2. Potencial efectivo equivalente para dos cuerpos no interactuantes . . . . . . . . . . . . . 224


10.4.3. Potencial atractivo proporcional al inverso del cubo de la distancia . . . . . . . . . . . . 227
10.4.4. Potencial efectivo para fuerza restauradora lineal . . . . . . . . . . . . . . . . . . . . . . 228
10.4.5. Consideraciones generales sobre curvas de potencial efectivo . . . . . . . . . . . . . . . 228
10.5. El teorema del virial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
10.5.1. Otras aplicaciones del teorema del virial . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
10.6. Ecuación de la órbita y potenciales integrables . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
10.7. Condición para órbitas circulares estables e inestables . . . . . . . . . . . . . . . . . . . . . . . 234
10.8. Órbitas circulares perturbadas a primer orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
10.9. Órbitas circulares perturbadas y condic. para órbitas cerradas . . . . . . . . . . . . . . . . . . . 238
10.10.Órbitas circulares perturbadas con variables ac.-ang. (Opcional) . . . . . . . . . . . . . . . . . . 239
10.11.El problema de Kepler: Ley del inverso al cuadrado (atractiva) . . . . . . . . . . . . . . . . . . 240
10.12.Solución para la órbita en el problema de Kepler . . . . . . . . . . . . . . . . . . . . . . . . . . 241
10.12.1.Clasificación de las órbitas según los valores de E y l . . . . . . . . . . . . . . . . . . . . 243
10.12.2.Condición de circularidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
10.12.3.Órbitas elı́pticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
10.13.Movimiento en el tiempo en el problema de Kepler . . . . . . . . . . . . . . . . . . . . . . . . . 245
10.13.1.Dependencia temporal en el caso parabólico . . . . . . . . . . . . . . . . . . . . . . . . . 245
10.13.2.Dependencia temporal para el movimiento elı́ptico . . . . . . . . . . . . . . . . . . . . . 246
10.13.3.Tercera ley de Kepler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
10.14.Vector de Laplace-Runge-Lenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
10.15.Parametrización de las órbitas keplerianas en el espacio . . . . . . . . . . . . . . . . . . . . . . 251
10.16.Problema de Kepler en variables acción-ángulo revisado (opcional) . . . . . . . . . . . . . . . . 253
10.16.1.Determinación del Hamiltoniano en términos de variables de acción . . . . . . . . . . . 254
10.16.2.Relación entre variables acción-ángulo y variables orbitales . . . . . . . . . . . . . . . . 255
10.17.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259

11.Colisiones y dispersión 261


11.1. Colisiones y dispersiones generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
11.1.1. Caso especial 1: reacción de captura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
11.1.2. Caso especial 2, blanco en reposo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
11.2. Dispersión en un campo de fuerzas centrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
11.2.1. Dispersión de Rutherford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
11.2.2. Caracterı́sticas generales de la sección eficaz . . . . . . . . . . . . . . . . . . . . . . . . . 271
11.3. Dispersión vista por el laboratorio y el CM (blanco en reposo) . . . . . . . . . . . . . . . . . . 275
11.3.1. Relación entre el ángulo de dispersión medido por el laboratorio y el medido por el centro
de masa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
11.3.2. Caracterización del factor ρ de la colisión . . . . . . . . . . . . . . . . . . . . . . . . . . 277
11.3.3. Sección eficaz en términos de los dos ángulos de dispersión . . . . . . . . . . . . . . . . 278
11.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281

12.Interludio: Matrices, vectores y tensores 283


12.1. Propiedades básicas de las matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
12.1.1. Determinantes y trazas de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
12.1.2. Matrices rectangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
12.2. Interpretación activa y pasiva de las transf. lineales . . . . . . . . . . . . . . . . . . . . . . . . . 288
12.2.1. Transformaciones de similaridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
12.3. Problema de valores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
12.3.1. El problema de la degeneración de valores propios . . . . . . . . . . . . . . . . . . . . . 292
12.4. Propiedades básicas de las matrices ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
12.4.1. Matrices ortogonales y norma de vectores complejos (opcional) . . . . . . . . . . . . . . 295
ÍNDICE GENERAL vii

12.4.2. Transformaciones ortogonales propias e impropias . . . . . . . . . . . . . . . . . . . . . 296


12.5. Vector asociado a una matriz antisimétrica real 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . . 298
12.6. Propiedades de paridad de vectores y escalares . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
12.7. Transformaciones ortogonales propias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
12.7.1. Matrices ortogonales reales propias en tres dimensiones . . . . . . . . . . . . . . . . . . 302
12.8. Matriz adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
12.9. Matrices unitarias y cambios de base (opcional) . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
12.10.Matrices con espectro completo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307
12.11.Matrices Hermı́ticas y simétricas reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
12.11.1.Matrices reales simétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
12.11.2.Problema de valores propios de matrices hermı́ticas en tres dimensiones . . . . . . . . . 310
12.11.3.Matrices simétricas reales en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
12.12.Matrices normales (opcional) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
12.13.Matrices positivas y definidas positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
12.13.1.Matrices simétricas reales que son positivas . . . . . . . . . . . . . . . . . . . . . . . . . 316
12.14.Problema de valores propios modificado para matrices positivas . . . . . . . . . . . . . . . . . . 317
12.14.1.Diagonalización simultánea de dos formas cuadráticas . . . . . . . . . . . . . . . . . . . 320
12.15.Interpretación geométrica de la diagonalización de dos matrices . . . . . . . . . . . . . . . . . . 321
12.15.1.Argumentación por geometrı́a analı́tica . . . . . . . . . . . . . . . . . . . . . . . . . . . 321
12.15.2.Argumentación por geometrı́a de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . 325
12.16.Tensores cartesianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
12.17.Los grupos O (3) y SO (3) y la definición de tensores cartesianos . . . . . . . . . . . . . . . . . 329
12.18.Tensores de SO (3) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
12.19.Tensores de O (3) y el concepto de pseudotensor . . . . . . . . . . . . . . . . . . . . . . . . . . 332
12.19.1.Los tensores de Kronecker δij y de Levi-Civitá εijk . . . . . . . . . . . . . . . . . . . . . 333
12.20.Diadas y afinores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
12.21.Contracción de tensores, reglas del cociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
12.22.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336

13.Cinemática del cuerpo rı́gido 339


13.1. Coordenadas independientes de un cuerpo rı́gido . . . . . . . . . . . . . . . . . . . . . . . . . . 339
13.2. Asignación de los grados de libertad de un cuerpo rı́gido . . . . . . . . . . . . . . . . . . . . . . 341
13.3. Transformaciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343
13.4. Ángulos de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344
13.5. Parámetros de Cayley-Klein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
13.6. Teorema de Euler para el movimiento del cuerpo rı́gido . . . . . . . . . . . . . . . . . . . . . . 347
13.7. Rotaciones finitas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
13.7.1. Forma matricial de la fórmula de rotación . . . . . . . . . . . . . . . . . . . . . . . . . . 352
13.7.2. Relación entre la parametrización eje-ángulo (n, Φ) y los ángulos de Euler . . . . . . . . 353
13.8. Rotaciones infinitesimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
13.9. Rotaciones finitas e infinitesimales en convención quiral derecha . . . . . . . . . . . . . . . . . . 357
13.9.1. Construcción de rotaciones finitas por integración de rotaciones infinitesimales . . . . . 359
13.10.Velocidad angular en términos de los ángulos de Euler . . . . . . . . . . . . . . . . . . . . . . . 360
13.11.Razón de cambio de un vector visto por sistemas rotantes . . . . . . . . . . . . . . . . . . . . . 361
13.11.1.Razón de cambio por argumentos vectoriales . . . . . . . . . . . . . . . . . . . . . . . . 361
13.11.2.Razón de cambio por argumentos algebráicos . . . . . . . . . . . . . . . . . . . . . . . . 362
13.11.3.Segunda derivada en el sistema rotante . . . . . . . . . . . . . . . . . . . . . . . . . . . 363
13.12.Sistemas no inerciales rotantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
13.12.1.La tierra como sistema rotante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
13.13.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
viii ÍNDICE GENERAL

14.Ecuaciones de movimiento del cuerpo rı́gido 368


14.1. Momento ang. y energı́a cinét. alrededor de un punto . . . . . . . . . . . . . . . . . . . . . . . . 368
14.1.1. Momento angular, velocidad angular y tensor de inercia . . . . . . . . . . . . . . . . . . 370
14.2. Tensor de inercia y momento de inercia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
14.2.1. Teorema de los ejes paralelos y de los ejes perpendiculares . . . . . . . . . . . . . . . . . 374
14.3. Compendio de propiedades del tensor de inercia . . . . . . . . . . . . . . . . . . . . . . . . . . . 377
14.4. Ecuaciones de Euler para el movimiento de un cuerpo rı́gido . . . . . . . . . . . . . . . . . . . . 381
14.4.1. Ecuaciones de Euler con el formalismo de Lagrange . . . . . . . . . . . . . . . . . . . . . 383
14.5. Precesión libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384
14.5.1. Construcción de Poinsot para la precesión libre . . . . . . . . . . . . . . . . . . . . . . . 384
14.5.2. Elipsoide de Binet y el momento angular . . . . . . . . . . . . . . . . . . . . . . . . . . 386
14.5.3. Elipsoide de Binet, rotación estacionaria y condiciones para la rotación estable . . . . . 387
14.5.4. Solución algebraica para la precesión libre con simetrı́a axial . . . . . . . . . . . . . . . 389
14.5.5. Estabilidad de sólidos irregulares con precesión libre por métodos algebráicos . . . . . . 390
14.6. La peonza simétrica pesada con un punto fijo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
14.6.1. Planteamiento del Lagrangiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
14.6.2. Reducción del problema a cuadraturas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
14.6.3. Análisis cualitativo del movimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396
14.6.4. Análisis cuantitativo aproximado de la peonza rápida . . . . . . . . . . . . . . . . . . . 399
14.6.5. Peonza con precesión regular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403
14.6.6. Peonza inicialmente vertical . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
14.6.7. Efectos de fricción, torques adicionales y aplicaciones de la peonza simétrica pesada . . 408
14.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410

15.Oscilaciones 412
15.1. Pequeñas oscilaciones y equilibrio estable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
15.2. Solución de las Ecs. de mov. como problema de valores propios . . . . . . . . . . . . . . . . . . 415
15.2.1. Un ejemplo con dos grados de libertad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
15.3. Problema de valores propios con degeneración . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420
15.3.1. Un ejemplo bidimensional con degeneración . . . . . . . . . . . . . . . . . . . . . . . . . 421
15.4. Frecuencias de vibración libre y coordenadas normales . . . . . . . . . . . . . . . . . . . . . . . 421
15.5. Vibraciones libres de una molécula triatómica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
15.5.1. Modos normales de frecuencia cero: traslaciones y rotaciones rı́gidas . . . . . . . . . . . 427
15.5.2. Vectores propios de la ecuación secular . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428
15.5.3. Modos normales y modos reales de la molécula triatómica . . . . . . . . . . . . . . . . . 428
15.5.4. Análisis cualitativo de vibraciones transversales y longitudinales . . . . . . . . . . . . . 431
15.6. Modos normales puros y soluciones fı́sicas asociadas . . . . . . . . . . . . . . . . . . . . . . . . 432
15.7. Vibraciones forzadas y amortiguadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433
15.7.1. Vibraciones forzadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433
15.7.2. Vibraciones amortiguadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
15.7.3. Vibraciones amortiguadas forzadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 438
15.8. Ejemplos de oscilaciones anarmónicas (opcional) . . . . . . . . . . . . . . . . . . . . . . . . . . 440
15.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442

16.Relatividad especial 444


16.1. Propiedades de las transformaciones de Lorentz puras . . . . . . . . . . . . . . . . . . . . . . . 444
16.1.1. Transformaciones de Lorentz puras y matrices ortogonales complejas . . . . . . . . . . . 446
16.2. Transformaciones de Lorentz restringidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 448
16.2.1. Transformaciones de Lorentz restringidas: Boosts y rotaciones . . . . . . . . . . . . . . . 449
16.2.2. Composición de boosts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450
16.2.3. Precesión de Thomas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453
ÍNDICE GENERAL ix

16.3. Transf. de Lorentz en espacios de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453


16.4. El concepto de formulación covariante en Fı́sica . . . . . . . . . . . . . . . . . . . . . . . . . . . 457
16.5. Formulaciones covariantes en el espacio de Minkowski . . . . . . . . . . . . . . . . . . . . . . . 459
16.6. Fuerza y momento en relatividad especial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463
16.7. Energı́a y relación momento-energı́a en relatividad especial . . . . . . . . . . . . . . . . . . . . 465
16.8. Formulación Lagrangiana de la mecánica relativista . . . . . . . . . . . . . . . . . . . . . . . . . 468
16.9. Formulación no manifiestamente covariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468
16.9.1. Movimiento bajo una fuerza constante (hiperbólico) . . . . . . . . . . . . . . . . . . . . 470
16.9.2. Oscilador armónico unidimensional relativista . . . . . . . . . . . . . . . . . . . . . . . . 471
16.9.3. Movimiento de partı́cula cargada en un campo magnético . . . . . . . . . . . . . . . . . 473
16.10.Formulaciones lagrangianas covariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 474

17.Teorı́a canónica de perturbaciones 478


17.1. Variación de ctes para perturbaciones dependientes del tiempo . . . . . . . . . . . . . . . . . . 479
17.2. Perturb. dependiente del tiempo en términos de los parámetros de mov. . . . . . . . . . . . . . 480
17.3. Variación periódica y variación secular de una perturbación . . . . . . . . . . . . . . . . . . . . 481
17.4. Ejemplos en teorı́a de perturb. dependiente del tiempo . . . . . . . . . . . . . . . . . . . . . . . 482
17.4.1. Oscilador armónico como perturbación de la partı́cula libre . . . . . . . . . . . . . . . . 482
17.4.2. Péndulo plano con amplitud finita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 485
17.4.3. Perturbaciones en el problema de Kepler acotado . . . . . . . . . . . . . . . . . . . . . . 489
17.5. Perturbaciones indep. del tiempo: primer orden con un grado de libertad . . . . . . . . . . . . . 491
17.5.1. Péndulo plano con oscilación finita usando método de perturbación independiente del
tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 495
17.6. Perturb. indep. del tiempo: orden superior y varios grados de libertad . . . . . . . . . . . . . . 496
17.6.1. Oscilador anarmónico unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 499
17.7. Perturb. indep. del tiempo con degeneración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 501
17.8. Aspectos cualitativos de la teorı́a clásica de perturbaciones . . . . . . . . . . . . . . . . . . . . 503
17.9. Invariantes adiabáticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504
17.9.1. Invarianza adiabática del oscilador armónico . . . . . . . . . . . . . . . . . . . . . . . . 506
17.9.2. Variación asintótica de J para el oscilador armónico (opcional) . . . . . . . . . . . . . . 509
17.9.3. Un invariante exacto del oscilador armónico con frecuencia dependiente del tiempo (op-
cional) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 509
17.9.4. Invariantes adiabáticos de partı́culas cargadas en campos electromagnéticos . . . . . . . 511
17.10.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 514

18.Formulación Lagrangiana y Hamiltoniana para campos 515


18.1. Ecuación de continuidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515
18.2. Transición de un sistema discreto a un sistema contı́nuo . . . . . . . . . . . . . . . . . . . . . . 519
18.3. Formulación lagrang. para una dimensión y una variable de campo . . . . . . . . . . . . . . . . 522
18.4. Formulación lagrang. para 3 dim. y varias variables de campo . . . . . . . . . . . . . . . . . . . 523
18.5. El tensor esfuerzo energı́a y teoremas de conservación asociados . . . . . . . . . . . . . . . . . . 526
18.5.1. Interpretación fı́sica de T0 µ : densidad de energı́a y vector de Poynting . . . . . . . . . . 527
18.5.2. Interpretación fı́sica de Ti j : densidad de momento lineal y tensor de esfuerzos . . . . . . 528
18.5.3. Energı́a y momento total del sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 532
18.5.4. Densidad de momento angular y momento angular total . . . . . . . . . . . . . . . . . . 533
18.6. Formulación Hamiltoniana para medios contı́nuos . . . . . . . . . . . . . . . . . . . . . . . . . . 534
18.6.1. Propiedades básicas de H . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 536
18.6.2. Densidades generalizadas y corchetes de Poisson . . . . . . . . . . . . . . . . . . . . . . 537
18.6.3. Formulación por corchetes de Poisson utilizando descomposición de Fourier . . . . . . . 538
18.7. Ejemplos de teorı́as de campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 541
18.7.1. Un modelo juguete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 541
x ÍNDICE GENERAL

18.8. Teorı́a de campos relativista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 543


18.9. Algunas teorı́as de campos relativistas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 547
18.9.1. Campo escalar complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 548
18.9.2. Ecuación de seno Gordon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 551
Preface

Estas notas de clase tienen como objetivo ser una guı́a para un curso de mecánica analı́tica, en donde los
principios de la mecánica clásica se examinan a la luz de las formulaciones Lagrangiana y Hamiltoniana y
las variantes que de ellas se derivan. Estas formulaciones ubican a la energı́a en el papel fundamental que las
fuerzas tienen en la formulación Newtoniana. Quizás el aspecto más atractivo de éstas formulaciones consiste
en su poder para enlazar las simetrı́as de un sistema con las constantes de movimiento, y en la riqueza de
estrategias para extraer información del sistema sin resolver explı́citamente las ecuaciones de movimiento. Estos
aspectos se enfatizan fuertemente a lo largo del texto, aunque en algunos casos se estudia la solución completa
de acuerdo con la conveniencia y la simplicidad de estas soluciones. Se ha pretendido enfatizar en aspectos que
en opinión del autor, han presentado fuerte dificultad en el desarrollo de las clases. A manera de ejemplo, la
discusión del álgebra matricial que precede al estudio de la cinemática del cuerpo rı́gido es considerablemente
extensa y detallada haciendo énfasis tanto en lo geométrico como en lo algebráico. Debe notarse sin embargo
que el contenido de esta sección de álgebra matricial va más allá de las necesidades del curso presente, lo cual
tiene como fin preparar al estudiante para trabajar no solo en los espacios euclidianos Rn sino también en los
espacios unitarios Cn que juegan un papel fundamental en mecánica cuántica. Los capı́tulos que se incluyen
son en opinión del autor de gran importancia para la formación general del Fı́sico y constituyen el punto de
partida de muchas ramas de la Fı́sica.
Es muy claro a lo largo de la lectura de las notas, que éstas últimas se han generado con una influencia
considerable del clásico texto de Herbert Goldstein, especialmente de la segunda y tercera edición. No obstante,
existen cambios de enfoque y/o presentación de numerosas unidades temáticas, debidos a la influencia de otros
autores (tales como José, Saletan, Cromer, Whittaker, Marion etc.), ası́ como de algunos abordajes propios
del autor. A manera de ejemplo, los ángulos de Euler se han introducido de manera que no solo quede claro
el algoritmo de rotación, sino la necesidad de dicho algoritmo. Se ha realizado un considerable esfuerzo por
presentar de manera clara la filosofı́a e implementación del método de Hamilton-Jacobi. La mayor parte de
herramientas matemáticas necesarias se han aislado en capı́tulos independientes a fin de dar más flexibilidad
al texto y con el fin de que el lector las capture en su esencia y no las asocie a problemas muy especı́ficos
de la Fı́sica, lo cual dificulta en general la aplicación de estas herramientas en otros escenarios de la Fı́sica
diferentes a los aprendidos. Algunas secciones se han indicado como opcionales, a fin de facilitar al lector una
primera lectura, y al mismo tiempo, darle al texto la riqueza necesaria para ir más allá de lo estrictamente
básico, sugiriendo caminos que incentiven la curiosidad del lector.
Para una adecuada comprensión de estas notas, el lector debe tener conocimientos a nivel introductorio
sobre mecánica newtoniana, ası́ como de álgebra lineal y cálculo diferencial e integral. En algunos pasajes
aislados se asume un conocimiento básico de electricidad, magnetismo y ondas.
El capı́tulo 1 es un repaso de la mecánica clásica en la llamada “formulación Newtoniana” en donde la
fuerza es la cantidad dinámica central. El capı́tulo 2 nos presenta el principio de D’Alembert y las ecuaciones de
Lagrange, enfatizando que estas formulaciones apuntan a resolver dos problemas importantes en la dinámica
de sistemas clásicos: (a) excluir a las ligaduras de la formulación debido a la dificultad que usualmente se
presenta para obtenerlas y (b) trabajar solo con los grados de libertad independientes, evitando las coordenadas
redundantes. El capı́tulo 3 es un suplemento matemático sobre el cálculo variacional. A pesar de que este
suplemento será aplicado mayormente en el llamado principio variacional de Hamilton, la exposición muestra
la posibilidad de aplicar esa herramienta matemática en otros ámbitos de la Fı́sica. El capı́tulo 4 trata sobre la
formulación integral del formalismo de Lagrange, cuya formulación diferencial fué presentada en el capı́tulo 2.

xi
xii PREFACE

En el capı́tulo 5, se presenta una de las ventajas notables de la formulación de Lagrange, a saber la explotación
sistemática de las simetrı́as del sistema y su relación con las cantidades conservadas.
En el capı́tulo 6 se presenta la formulación de Hamilton de la mecánica clásica en la cual se sustituyen
las coordenadas y velocidades generalizadas por las coordenadas generalizadas y momentos conjugados, se
discutirá la ventaja de trabajar con este nuevo sistema de variables (denominadas variables canónicas), ası́ como
las ventajas de pasar de un sistema de n ecuaciones diferenciales de segundo orden, a un sistema de 2n
ecuaciones diferenciales de primer orden. Puesto que la función Hamiltoniana se puede expresar en cualquier
conjunto de variables canónicas, es necesario estudiar la relación que hay entre los diversos conjuntos de
variables canónicas, ası́ como las transformaciones que nos llevan de un conjunto de variables canónicas a otro,
este será el tema del capı́tulo 7. Una forma alternativa de presentar las ecuaciones de Hamilton, es a través
de diversos invariantes canónicos, entre los cuales se destacan los llamados “corchetes de Poisson”, con los
cuales las simetrı́as y constantes de movimiento se pueden identificar con gran facilidad, este será el tema del
capı́tulo 8. Por otra parte, una elección adecuada de variables canónicas puede conducirnos a trivializar las
ecuaciones de movimiento (ecuaciones de Hamilton), en cuyo caso la tarea principal consiste en encontrar la
transformación del sistema canónico original al sistema canónico que trivializa dichas ecuaciones, esta es la
esencia de la teorı́a de Hamilton-Jacobi, presentada en el capı́tulo 9.
En este punto culmina la descripción de estas formulaciones alternativas de la mecánica clásica. En los
capı́tulos posteriores, se describen problemas clásicos especı́ficos que se abordarán con una formulación La-
grangiana y/o Hamiltoniana. En el capı́tulo 10 se aborda el problema de las fuerzas centrales, y el tipo de
órbitas que dichas fuerzas generan. Como caso particular importante, se estudia en detalle el problema de
Kepler. En el capı́tulo 11, se estudia la teorı́a de colisiones y dispersión, con especial énfasis en la teorı́a de la
dispersión por potenciales centrales. Otro interludio matemático es presentado en el capı́tulo 12 concerniente
a matrices, vectores y tensores cartesianos, en este capı́tulo se desarrollan diversas herramientas matemáticas
necesarias para capı́tulos subsecuentes. En particular para el capı́tulo 13 de cinemática del cuerpo rı́gido, en el
cual se analiza el movimiento general de un cuerpo rı́gido, utilizando la parametrización por ángulos de Euler
y la parametrización eje-ángulo. En tal capı́tulo se analiza además la razón de cambio de un vector visto por
un sistema rotante, lo cual nos permitirá estudiar con naturalidad a los sistemas no inerciales rotantes. En
el capı́tulo 14 se estudia la dinámica del cuerpo rı́gido, privilegiando el estudio de la precesión libre y de la
peonza simétrica pesada con punto fijo. El capı́tulo 15 sobre oscilaciones, estudia el problema de la obtención
de los modos normales de oscilación (desacople de las ecuaciones diferenciales), de un conjunto de osciladores
acoplados, como un problema de valores propios modificado que involucra matrices positivas. Este abordaje del
problema posee la ventaja (con respecto a la forma tradicional utilizada en los cursos de oscilaciones y ondas)
que es extendible a coordenadas generalizadas, incluso si éstas no están asociadas a un sistema ortogonal de
vectores unitarios.
En el capı́tulo 16 se introduce la formulación Lagrangiana y Hamiltoniana de la relatividad especial. Se
ha utilizado el espacio con eje temporal imaginario ict, con métrica trivial. A pesar de que la mayor parte de
textos de relatividad modernos privilegian la métrica gµν con eje real, el uso de un eje temporal imaginario
nos permitirá aprovechar la teorı́a de matrices ortogonales desarrollada en los capı́tulos 12 y 13. Por otra
parte, dado que no se abordará la relatividad general, ambas escogencias poseen aproximadamente las mismas
ventajas. En todo caso, la “traducción” entre las dos formulaciones se presenta en la sección 16.3.
En el capı́tulo 17 se introduce la teorı́a canónica de perturbaciones dependiente e independiente del tiempo,
basada en el formalismo de Hamilton-Jacobi. Se analizará además el fenómeno de la invarianza adiabática,
para lo cual las variables acción-ángulo serán particularmente ventajosas.
Finalmente, el capı́tulo 18 estudia la formulación Lagrangiana y Hamiltoniana para la mecánica de medios
contı́nuos (teorı́a clásica de campos), tanto en el régimen no-relativista como en el relativista, estableciendo la
ecuación de continuidad para el flujo de cualquier medio contı́nuo, y la conservación de la carga generalizada.
Este formalismo es aplicable a todo tipo de medios contı́nuos tales como campos electromagnéticos, campos
de presiones, de temperatura, fluı́dos etc. No obstante, en el capı́tulo 18 nos restringimos a describir modelos
suficientemente simples para ilustrar los principios fundamentales.
El material cubierto en estas notas está pensado para dos cursos cada uno de 16 semanas con una intensidad
de 4 horas semanales. Complementado quizás, con una introducción a la teorı́a del caos clásico. Por supuesto,
PREFACE xiii

los capı́tulos 3 y 12 relacionados con herramientas matemáticas, podrán tomarse a diferentes ritmos o grados
de detalle, dependiendo del nivel de preparación de los lectores en estos temas. Varias distribuciones en la
presentación de los temas son posibles. Si se toma el orden de capı́tulos en éstas notas, un primer curso puede
ser hasta el capı́tulo 11, siendo los capı́tulos remanentes para un segundo curso. Sin embargo, una vez estudiado
el capı́tulo 6 es posible saltar directamente al capı́tulo 10 y continuar la secuencia de capı́tulos obviando algunas
secciones (por ejemplo, la sección 10.16 en la que se trata el problema de Kepler con variables acción-ángulo),
con excepción del capı́tulo 17, el cual depende fuertemente de la formulación de Hamilton-Jacobi.
Vale la pena resaltar que el material presente son notas de clase y no un libro de texto. Por esta razón
aparecen algunos desarrollos en excesivo detalle, ya que fueron producto del ejercicio directo de preparación
para la clase. Espero que tales desarrollos no se conviertan en un distractor para el lector, quien puede obviar
estos detalles de ser necesario. No obstante, considero que las notas en su presente forma están autocontenidas
para ser usadas en una clase, o para autoaprendizaje.
Quiero expresar mis agradecimientos a los estudiantes del Departamento de Fı́sica de la Universidad Na-
cional de Colombia, sede Bogotá, por sus contı́nuas contribuciones y observaciones sobre el texto y el curso en
general. Al profesor Eduardo Brieva, quien fuera mi instructor de mecánica analı́tica en mis años de estudiante,
y a quien debo mi comprensión de buena parte del material aquı́ presentado. A los profesores John Morales y
William Herrera por las discusiones sobre varios temas que contribuyeron a madurar el presente texto. A toda
mi familia por su constante apoyo cuando las vicisitudes parecı́an oscurecer el camino. A mis hijos Iris Soraya
y David Leandro, por ser siempre una fuerza motora de mi existencia.

Rodolfo Alexander Diaz


Facultad de Ciencias. Departamento de Fı́sica
Universidad Nacional de Colombia
Bogotá, Octubre de 2011.
Introduction

En las formulaciones Lagrangiana y Hamiltoniana de la Mecánica Clásica (ası́ como en sus formulaciones
derivadas), existen varias estrategias que aportan un considerable valor agregado con respecto a la formulación
Newtoniana. En las presentes notas se ha procurado enfatizar reiteradamente en aquellos puntos que en opinión
del autor, constituyen los valores agregados más fuertes.
Discutiremos brevemente dos aspectos que constituyen la motivación de una formulación Lagrangiana: (a)
La eliminación de las fuerzas de ligadura, de las ecuaciones de movimiento y (b) el uso del mı́nimo número
posible de coordenadas. Para comprender la motivación del incizo (a) bastará que el lector examine con cuidado
un problema como el de una partı́cula que desliza sobre una trayectoria hiperbólica, e intente encontrar el valor
de la fuerza normal (fuerza de ligadura) que mantiene a la partı́cula sobre la trayectoria en cuestión. Para el
incizo (b) basta con decir que cuando un conjunto de N partı́culas están ligadas (por ejemplo si las distancias
entre ellas son constantes), el número de coordenadas independientes es menor que 3N , pero en la formulación
Newtoniana tendremos que plantear las ecuaciones para las 3N coordenadas, obteniendo ası́ información
redundante, para posteriormente incorporar la ligadura. Hay entonces un considerable ahorro al elaborar una
formulación en donde de entrada se trabaja solo sobre coordenadas independientes. Esta misma filosofı́a se
conserva en la formulación Hamiltoniana.
Otra ventaja de estas formulaciones consiste en que permitirá un uso más sistemático de las simetrı́as del
sistema para extraer información total o parcial de éste.
De otra parte, aunque a través del texto se estudian problemas fı́sicos especı́ficos, es también común abordar
temas introduciendo un “pensamiento fı́sico abstracto”, en el sentido de que ciertos aspectos estructurales nos
darán información parcial del sistema, independiente de los detalles de éste. A manera de ejemplo: para muchos
sistemas fı́sicos se puede construı́r una cantidad denominada Lagrangiano, y que depende de un conjunto de
coordenadas generalizadas qi , velocidades generalizadas q̇i y el tiempo

L = L (q1 , . . . , qn , q̇1 , . . . , q̇n ; t)

supongamos que un Lagrangiano es tal que aparece la velocidad generalizada q̇k pero no aparece su coordenada
generalizada asociada qk , cuando esto ocurre existe una cantidad que es constante de movimiento, denominada
momento conjugado a qk
∂L
pk ≡ = cte
∂ q̇k
esta caracterı́stica solo depende de un aspecto estructural del Lagrangiano, no de los detalles del sistema, ni
siquiera importa si el sistema es mecánico, eléctrico o de otra naturaleza.
Otro aspecto que nos introduce en el pensamiento fı́sico abstracto es la introducción constante de canti-
dades generalizadas. Las coordenadas generalizadas son simplemente las variables mı́nimas independientes
de un sistema y no tienen que ser necesariamente variables de posición. Ası́ mismo, q̇ no es necesariamente
una velocidad lineal. Una densidad generalizada ρ (x, t) es cantidad de “carga generalizada” por unidad de
volumen, donde la carga generalizada es cualquier cantidad fı́sica escalar tal como la carga eléctrica, la masa,
la energı́a, la probabilidad etc. A esta cantidad escalar se le puede asociar una propiedad de transporte a través
de una densidad de corriente generalizada, no importa si se transporta energı́a, masa, carga eléctrica, pro-
babilidad etc. La dinámica de estas densidades y densidades de corriente generalizada serán válidas para éstos
y muchos otros escenarios al tiempo. En particular, la formulación de la ecuación de continuidad adquirirá un
poder extraordinario con esta forma de pensamiento generalizado.

xiv
xv

Acorde con lo anterior, se ha procurado mantener un balance entre el “pensamiento fı́sico especı́fico”
y el “pensamiento fı́sico abstracto”, competencias ambas indispensables en la formación del fı́sico y otros
profesionales afines.
Por otra parte, es muy común enfocar un curso de mecánica analı́tica como un “puente” necesario para
abordar los cursos de mecánica cuántica. En opinión del autor ésta no debe constituı́r la única motivación
para dictar un curso de esta naturaleza. Ciertamente los postulados de la mecánica cuántica requieren del
conocimiento de la formulación Hamiltoniana y también se puede abordar con el formalismo Lagrangiano. Sin
embargo, la mecánica clásica posee numerosos problemas abiertos puros y aplicados (caos, mecánica de fluı́dos,
teorı́a de perturbaciones clásica etc.), que constituyen también un campo de acción plausible para el fı́sico, y
para los cuales el lenguaje que se aborda es usualmente el descrito en estos cursos. Basta con observar que
históricamente, los formalismos Lagrangiano y Hamiltoniano precedieron en varias décadas al nacimiento de
la mecánica cuántica.
xvi INTRODUCTION
Capı́tulo 1

Elementos básicos de Mecánica


Newtoniana

1.1. Cinemática
La cinemática trata de la descripción del movimiento de los cuerpos sin referencia a las causas de dicho
movimiento. El tratamiento será breve sin una discusión detallada de los conceptos. Para detalles, ver por
ejemplo las referencias. [2, 3]. Asumiremos que tenemos una idea intuitivamente clara de los conceptos de
espacio, tiempo y masa.
El primer concepto que se construye es el de vector posición. Una partı́cula puntual ocupa un punto
especı́fico en el espacio, si elegimos un sistema de referencia, podemos trazar un vector desde el origen de dicho
sistema hasta el punto donde se ubica la partı́cula, y lo denominamos vector posición. La posición entendida
como un punto geométrico en el espacio, no es un vector como tal (no tiene dirección, magnitud, ni sentido),
lo cual se refleja en el hecho de que el vector posición depende del origen elegido para el sistema coordenado.
Cuando una partı́cula se desplaza desde un punto descrito por el vector posición r0 hasta otro descrito por rf ,
podemos describir el movimiento de esta partı́cula a través del vector desplazamiento ∆r, como un vector
que va desde r0 hacia rf . Este vector indica la dirección del desplazamiento y la distancia recorrida (magnitud
del vector).
∆r ≡ rf − r0
vale la pena mencionar que ∆r sı́ es un vector como tal, lo cual se refleja en el hecho de que ∆r es independiente
del origen elegido.
Ahora definimos el vector velocidad, como el cambio de posición (o desplazamiento) por unidad de tiempo

rf − r0 ∆r
v= ≡
tf − t0 ∆t

si queremos conocer el valor de la velocidad del móvil en forma mas detallada, partimos el intervalo anterior
en intervalos mas finos, y definimos una velocidad para cada intervalo

r (ti + ∆ti ) − r (ti ) ∆ri


v= ≡
∆ti ∆ti
la velocidad instantánea se define como un paso al lı́mite

∆ri
lı́m = vinst
∆ti →0 ∆ti

a partir de la definición de velocidad se obtiene

vi ∆ti = ∆xi

1
2 CAPÍTULO 1. ELEMENTOS BÁSICOS DE MECÁNICA NEWTONIANA

si sumamos sobre todos los intervalos


N
X N
X
vi ∆ti = ∆xi
i=1 i=1

tomando el lı́mite cuando N → ∞ y haciendo el paso al contı́nuo


Z tf Z rf Z tf
v dt = dr ⇒ rf − r0 = v dt
t0 r0 t0

también es útil definir la razón de cambio de la velocidad, a través del vector aceleración en la forma
∆v dv
ā = ; ainst =
∆t dt
donde ā denota la aceleración promedio, en tanto que ainst es la aceleración instantánea, usualmente esta
última se denota simplemente como a. Un argumento similar al anterior nos lleva a la ecuación
Z tf Z rf Z tf
a dt = dv ⇒ vf − v0 = a dt
t0 r0 t0

estas ecuaciones y algunas combinaciones especiales de ellas nos proveen el marco para la descripción del
movimiento de los cuerpos.

1.2. Dinámica: Leyes de Newton


La dinámica de las partı́culas puntuales está dictaminada por las leyes de Newton, haremos una descripción
muy breve sin ninguna pretensión de discusión. Para una discusión detallada, ver por ejemplo la referencia [3].
Primera Ley: Existen un conjunto de sistemas de referencia llamados inerciales tales que toda partı́cula
aislada, posee velocidad constante con respecto a dichos sistemas. El reposo es naturalmente un caso particular
de velocidad constante nula.
Segunda Ley: Nos establece la forma de cuantificar la interacción de una partı́cula con el resto del universo,
se enfatiza que esta ley solo es válida para partı́culas puntuales que por definición tienen masa constante.

F = ma
esta ley también contiene el principio de superposición de las fuerzas, según el cual la fuerza neta o resultante
sobre una partı́cula es la suma vectorial de cada fuerza aplicada como si cada una de ellas actuara sola. Esto
significa que no hay efectos de interferencia entre las distintas fuerzas aplicadas sobre la partı́cula.
Tercera Ley: Cuando una partı́cula A hace una fuerza FAB sobre una partı́cula B entonces la fuerza
sobre A debida a B (denotada como FBA ) está relacionada con FAB en la forma

FAB = −FBA

esta ley tiene implı́cita la propagación instantánea de señales por lo cual su validez es muy limitada. En su
forma fuerte, la fuerza es de naturaleza central, sin embargo existen fuerzas que solo cumplen esta ley en su
forma débil, es decir los pares de fuerzas son opuestos pero no van a lo largo de la lı́nea que une a las partı́culas.
Finalmente, en otros casos la ley no se cumple en ninguna de sus versiones, lo cual ocurre cuando el tiempo
de propagación de la interacción es significativo.
Por otro lado, las leyes anteriores se pueden sustituir por sus equivalentes en términos del concepto de
momento lineal definido como el producto de la masa por la velocidad p ≡ mv. La primera ley nos dice que
en los sistemas inerciales el momento lineal de una partı́cula aislada es constante, la segunda ley se escribirı́a
de la forma F = dP/dt y la tercera ley serı́a sustituı́da por el principio de conservación del momento para un
sistema aislado de partı́culas. Estas leyes tienen una rango de validez más amplio que la formulación original,
aunque hay que usar un concepto extendido de momento lineal.
1.3. TRABAJO Y ENERGÍA 3

A pesar de que las leyes de Newton me dan en principio una descripción completa de la evolución de
los sistemas, tienen el limitante de que requieren el conocimiento de las fuerzas en función del tiempo, en
la práctica es más usual que se conozca la fuerza en función de la posición, lo cual nos lleva al concepto de
trabajo.

1.3. Trabajo y energı́a


Si arrastramos un cuerpo con una fuerza aplicada F y queremos construı́r un concepto fı́sico que dependa
del desplazamiento del cuerpo, vemos que solo la componente de la fuerza paralela al desplazamiento contribuye
a éste. Tal hecho nos induce a construı́r el concepto de trabajo instantáneo de la forma

dW = F · dr

la fuerza es 100 % efectiva cuando es paralela al desplazamiento, 0 % efectiva cuando es perpendicular, y su


contribución es negativa cuando la proyección de la fuerza sobre el desplazamiento tiene sentido opuesto a
tal desplazamiento. En una trayectoria arbitraria el trabajo que realiza una fuerza F sobre un partı́cula viene
dada por una integral de lı́nea con lı́mites en los extremos A y B de la trayectoria
Z B
W = F · dr
A

nótese que F es una de las fuerzas aplicadas sobre la partı́cula, y no necesariamente corresponde a la fuerza
resultante. Sin embargo, cuando la fuerza en cuestión es la resultante sobre la partı́cula, la segunda ley de
Newton conduce automáticamente al teorema fundamental del trabajo y la energı́a
Z B
1 2 1 2
F · dr = mvB − mvA (1.1)
A 2 2
la cual nos indica que sin importar la trayectoria seguida por la partı́cula, el trabajo realizado por la fuerza
resultante sobre ésta equivale al cambio en la cantidad (1/2) mv 2 que denominamos la energı́a cinética de la
partı́cula. Es indispensable tener claro que el teorema fundamental del trabajo y la energı́a solo es aplicable
a la fuerza resultante sobre la partı́cula y no a una de las fuerzas aplicadas. A priori se podrı́a pensar que
esta formulación es estéril cuando la queremos aplicar a una fuerza sobre una partı́cula, dado que el cálculo
del trabajo requiere conocer la trayectoria de ésta, lo cual presupone que de alguna forma el problema ya
está resuelto. Sin embargo, hay tres razones por las cuales la formulación es útil a pesar de lo anterior

1. Con frecuencia, existen fuerzas de ligadura que obligan a la partı́cula a seguir una trayectoria dada (e.g.
péndulo, montaña rusa), de modo que conocemos la trayectoria aunque no conozcamos el valor de la
fuerza de ligadura, ni otras variables dinámicas del sistema (velocidad o aceleración en función de la
posición o del tiempo).

2. Existen fuerzas para las cuales la evaluación de la integral de lı́nea no requiere del conocimiento de la
trayectoria sino solo de los puntos inicial y final. Esto nos lleva al concepto de Fuerza conservativa

3. En el caso de la fuerza resultante el teorema fundamental del trabajo y la energı́a nos permite encontrar el
trabajo que dicha fuerza hace sobre la partı́cula, conociendo únicamente las velocidades en los extremos
de la trayectoria ası́ como la masa de la partı́cula.

Definition 1 Una fuerza conservativa es aquella para la cual el trabajo asociado no depende de la trayectoria
seguida por la partı́cula sino solo de la posición final e inicial

Z B
F · dr = U (rA ) − U (rB ) (1.2)
A
4 CAPÍTULO 1. ELEMENTOS BÁSICOS DE MECÁNICA NEWTONIANA

la función escalar U (r) se conoce como energı́a potencial. Por otro lado, si la fuerza resultante es conservativa,
podemos combinar la definición de conservatividad con el teorema fundamental del trabajo y la energı́a y se
obtiene
1 1
mv 2 − mv 2 = U (rA ) − U (rB ) ⇒
2 B 2 A
1 2 1
mvA + U (rA ) = mv 2 + U (rB )
2 2 B
esto conduce al teorema de conservación de la energı́a mecánica. Es necesario enfatizar que la conser-
vatividad requiere que la energı́a potencial definida en (1.2) dependa únicamente de la posición. Si la energı́a
potencial es función explı́cita del tiempo, entonces la suma de Ek + U todavı́a me define la energı́a total del
sistema, pero esta cantidad ya no se conserva en general. En otros casos la energı́a potencial puede depender
de la velocidad, aceleración etc. Finalmente, en algunos casos no existe ninguna función escalar que pueda dar
cuenta del trabajo realizado. En ninguno de estos casos se conserva la energı́a.
Retomando la definición (1.2), vemos que a la energı́a potencial se le puede agregar una constante arbitraria
sin alterar el contenido Fı́sico de ésta, ya que lo que es relevante fı́sicamente es el cambio en la energı́a potencial
y no su valor en sı́. Es fácil demostrar que para que una fuerza sea conservativa, cada una de estas afirmaciones
es condición necesaria y suficiente
Z B I
F (r) = −∇U (r) ; ∇ × F (r) = 0 ; F (r) · dr = U (rA ) − U (rB ) ; F (r) · dr = 0
A

donde todas estas expresiones deben cumplirse para todo r ∈ R3 o para toda trayectoria en R3 . Las dos primeras
son condiciones en todo el espacio y las dos siguientes para toda trayectoria (general y cerrada respectivamente).
En todas estas ecuaciones, se debe enfatizar que no debe haber dependencia temporal explı́cita. Las fuerzas
conservativas mas importantes son las fuerzas constantes y las fuerzas centrales. Dentro de las no conservativas
el rozamiento es la mas destacable.
En el tratamiento de fuerzas centrales existe una cantidad que se conserva y que resulta muy útil en el
tratamiento de este tipo de fuerzas: el momento angular

1.4. Torque y momento angular


Si para una fuerza central elegimos el origen en el punto de convergencia de la fuerza, tenemos claramente
que la cantidad r × F es nula. Llamemos a esta cantidad el torque de la partı́cula relativo a el origen O,
ya que es con respecto a este origen que se construye el vector posición r. Esta cantidad denotada por ~τ se
puede escribir como la derivada temporal total de otra cantidad: el llamado momento angular y definido por
L ≡ r × p veamos

d dr dp
(r × p) = ×p+r× = mv × v + r × F ⇒
dt dt dt
dL
= ~τ (1.3)
dt
para una fuerza central con origen en el punto de convergencia, el torque es cero y el momento angular es
una constante de movimiento. Aunque los conceptos de torque y momento angular de una partı́cula surgen de
manera natural en el caso de fuerzas centrales, son extensibles a cualquier tipo de fuerza y la relación (1.3)
es válida en general. En particular si no hay torque sobre la partı́cula el momento angular se conserva, de la
misma forma que el momento lineal se conserva ante la ausencia o anulación de las fuerzas.
Finalmente, es necesario insistir en la fuerte dependencia que el torque y el momento angular tienen con
respecto al origen coordenado elegido, lo cual se manifiesta a través de su dependencia del vector posición r.
De esta forma hay tres cantidades cuya conservación será mas adelante extensible a sistemas de partı́culas,
la energı́a, el momento lineal y el momento angular
1.5. DINÁMICA DE UN SISTEMA DE PARTÍCULAS 5

1.5. Dinámica de un sistema de partı́culas


1.5.1. Definición de centro de masa
Sea un sistema de partı́culas con masas m1 , m2 , ..., mn y con velocidades v1 , v2 , ..., vn . Teniendo en cuenta
la definición de momento lineal para una partı́cula, es natural definir el momento lineal total del sistema de
partı́culas como la suma vectorial de los momentos de sus partı́culas, es decir:
n
X
P = p1 +p2 +... = m1 v1 + m2 v2 + ... + mn vn = mi vi
i=1

definamos la velocidad del centro de masa vCM del sistema de manera que:

P ≡ M vCM (1.4)
donde M es la masa total. Es decir, de manera que el momento del sistema sea el mismo que le corresponderı́a
al caso en que toda la masa estuviera concentrada en el llamado centro de masa, cuya velocidad es vCM . Por
lo tanto:
Pn
P m1 v1 + m2 v2 + ... + mn vn mi vi
vCM = = = i=1 (1.5)
M m1 + m2 + ... + mn M
si suponemos que las masas son independientes de la velocidad, vCM corresponde a la velocidad asociada a la
posición:
Pn
m1 r1 + m2 r2 + ... + mn rn mi ri
rCM = = i=1 (1.6)
m1 + m2 + ... + mn M
la cual define la posición del centro de masa del sistema relativa a algún observador O, que mide los vectores de
posición y velocidad ri , vi . Ahora bien, es uno de los principios más fundamentales de la naturaleza el llamado
principio de conservación del momento el cual establece que si un sistema de partı́culas está aislado,
su momento total es constante, y como suponemos que la masa no depende de la velocidad, tenemos de la
ecuación (1.4) que vCM = cte de modo que: El centro de masa de un sistema de partı́culas aislado se
mueve con velocidad constante con respecto a un sistema inercial.
Un sistema de referencia muy particular es aquél que no rota con respecto a un sistema inercial y cuyo origen
coincide con el propio centro de masa del sistema de partı́culas. Si colocamos nuestro sistema de referencia sobre
el centro de masa, obviamente vCM = 0 por tanto, el momento total P del sistema de partı́culas es cero. Por
brevedad designaremos de ahora en adelante al sistema de referencia del centro de masa como sistema−C de
referencia. De modo que podemos escribir:
n
X
PCM = pi = 0 (en el sistema − C de referencia) (1.7)
i=1

Este sistema de referencia es muy importante dado que muchos fenómenos fı́sicos pueden ser descritos más
fácilmente en el sistema de referencia centro de masa que en el sistema del laboratorio.

1.5.2. Sistemas de partı́culas no aislados


Supongamos que tenemos un sistema S de n partı́culas, que interactúa con las m partı́culas de otro sistema
S ′.Ahora supondremos que los sistemas S y S ′ juntos forman un sistema aislado. Como el sistema S + S ′ es
aislado, su momento se conserva, luego:
n
X m
X
P= pi + p′j = PS + PS ′ = cte (1.8)
i=1 j=1
6 CAPÍTULO 1. ELEMENTOS BÁSICOS DE MECÁNICA NEWTONIANA

esto significa que cualquier cambio en el momento de S debe venir acompañado de un cambio en el momento
de S ′ , a fin de mantener la suma constante.

∆PS = −∆PS ′ (1.9)

Luego, la interacción entre los sistemas S y S ′ se puede describir como un intercambio de momento. Al
tomar la derivada temporal de (1.8) obtenemos:

d
(PS + PS ′ ) = 0
dt
dPS dPS ′
= − (1.10)
dt dt
haciendo una extrapolación, es natural llamar a la derivada temporal del momento total del sistema, como la
fuerza externa ejercida sobre S (en analogı́a al caso de una partı́cula), es decir:
P
dPS d ( ni=1 pi )
= Fext ó = Fext (1.11)
dt dt
la denominación de externa se debe al hecho de que es producida por su interacción con S ′ . Las fuerzas internas
que existen en S debidas a la interacción entre sus partı́culas no producen ningún cambio en el momento total
en virtud del principio de conservación del momento, pues si quitamos las interacciones externas, se tendrı́a
que el momento total PS del sistema permanecerı́a constante y por tanto dP dt = 0 es decir Fext = 0. De allı́ se
S

concluye que las fuerzas internas de S no contribuyen a la cantidad dPS /dt. Utilizando las ecuaciones (1.10)
y (1.11) tenemos que
Fext = −F′ext (1.12)
donde F′ext es la fuerza externa sobre S ′ la cual es ejercida por las partı́culas del sistema S. Esta es la extensión
de la ley de acción y reacción para las interacciones entre S y S ′ .
Por otro lado como PS = M vCM (donde CM define el centro de masa del sistema S y no del sistema
compuesto S + S ′ ) tenemos:

dvCM
M = Fext (1.13)
dt
con lo cual podemos definir de manera natural la aceleración del centro de masa:

dvCM
aCM = ⇒ (1.14)
dt
M aCM = Fext (1.15)

Nuevamente análogo al caso de una partı́cula. Reuniendo las ecuaciones (1.4) (1.14) y (1.15) se puede concluir
que:
La dinámica del centro de masa de un sistema de partı́culas es equivalente al de una partı́cula de masa
igual a la masa total del sistema concentrada en dicho centro de masa, y sobre la cual se aplicara una fuerza
equivalente a la suma vectorial de las fuerzas externas sobre el sistema.
Adicionalmente, la interacción entre los sistemas S y S ′ puede ser descrita formalmente de manera análoga
al caso de dos partı́culas según se ve en las Ecs. (1.8), (1.9), (1.10), (1.11) y (1.12). En este punto queda por
tanto, mas que justificada la introducción del concepto de centro de masa.
No obstante, vale la pena aclarar que la formulación anterior no resuelve el problema dinámico completo
para el sistema S. Para resolver formalmente el problema dinámico de cada partı́cula, vamos a relacionar
Fext con las fuerzas que actúan sobre cada partı́cula. De aquı́ en adelante nos olvidaremos del sistema S ′
cuya influencia sobre S estará representada por la fuerzas externas sobre S. Sea pi el momento lineal de la
(e)
partı́cula i de masa mi ; sea Fi la fuerza externa resultante sobre dicha partı́cula, y Fij la fuerza interna que
1.5. DINÁMICA DE UN SISTEMA DE PARTÍCULAS 7

la partı́cula j también del sistema S, ejerce sobre la partı́cula i. La fuerza total ejercida sobre la partı́cula
(e)
i es por tanto igual a la fuerza externa Fi más la suma de las fuerzas internas de todas las partı́culas j del
sistema S (excepto la propia partı́cula i) aplicando la segunda ley de Newton a esta partı́cula se tiene:

X n
dpi (e)
= Fi + Fij (1.16)
dt
j6=i

asumiremos de aquı́ en adelante que Fii = 0. Resolviendo esta ecuación para cada partı́cula i del sistema,
se obtiene la solución dinámica completa de éste. Obsérvese que aquı́ sı́ aparecen explı́citamente las fuerzas
internas. Ahora sumemos todas las ecuaciones de todas las partı́culas de la siguiente manera:

n
X n
X n X
X n
dpi (e)
= Fi + Fij ⇒
dt
i=1 i=1 i=1 j6=i
Pn Xn Xn X n
d( i=1 pi ) (e)
= Fi + Fij (1.17)
dt
i=1 i=1 j6=i
P P
pero i j Fij se puede escribir como:
n X
X n n n
1 XX
Fij = (Fij + Fji ) (1.18)
2
i=1 j6=i i=1 j>i

sustituyendo (1.18) en (1.17) y usando el principio de acción y reacción, la ecuación (1.17) nos queda:
Pn n
X
d( i=1 pi ) (e)
= Fi
dt
i=1

comparando con la ecuación (1.11) se concluye que la fuerza externa sobre un sistema de partı́culas es la suma
de las fuerzas externas sobre cada una de las partı́culas del sistema.

1.5.3. Momento angular y torque de un sistema de partı́culas


Para un sistema S de varias partı́culas definimos el torque y el momento angular de cada partı́cula i de S :

τ i ≡ ri × Fi ; Li ≡ ri × pi

y de manera completamente análoga al caso de una partı́cula se puede probar que

dLi
= τi
dt
supongamos además que la partı́cula está sujeta a las fuerzas internas que sobre ella realizan las otras partı́culas
(e) P
del sistema S más una fuerza externa resultante. Luego, la fuerza resultante sobre la partı́cula i es Fi + Fij y
j
su torque resultante es:
 
n
X
dLi (e)
= τ i = ri × Fi + Fij 
dt
j6=i

en analogı́a con la definición de momento lineal total, definimos el torque total τ como la suma vectorial de
los torques individuales de las partı́culas, similarmente definimos el momento angular total L. Escribimos
entonces:
8 CAPÍTULO 1. ELEMENTOS BÁSICOS DE MECÁNICA NEWTONIANA

n
X n
X Pn
dLi d( i=1 Li ) dL
τ = τi = = =
dt dt dt
i=1 i=1

por otro lado:

  
n
X n
X
τ = ri × F(e) + Fij 
i
i=1 j6=i
 
n 
X  Xn n
X
(e) ri ×
= ri × Fi + Fij 
i=1 i=1 j6=i

por otra parte, utilizando la ley de acción y reacción, puede demostrarse por inducción que:
 
n
X n
X n−1
XX n
ri × Fij  = [(ri − rj ) × Fij ] (1.19)
i=1 j6=i i=1 j>i

por tanto, el torque total queda:


n 
X  n−1
XX n
(e)
τ = ri × Fi + [(ri − rj ) × Fij ]
i=1 i=1 j>i

Si suponemos especialmente que las fuerzas internas Fij actúan a lo largo de los vectores relativos rij se
tiene que el segundo término de la derecha se anula quedando
n 
X 
(e)
τ = ri × Fi
i=1

(e) (e)
donde ri × Fi representa el torque debido a las fuerzas externas Fi sobre cada partı́cula i entonces:
n
X
τ = τ i,ext = τ ext
i=1

de modo que
dL
= τ ext (1.20)
dt
que constituye la relación fundamental de la mecánica rotacional, obsérvese la analogı́a entre las Ecs. (1.20) y
(1.11). Si τ ext = 0, se encuentra que:

dL
= 0 ⇒ L = L1 + L2 + ... + Ln = cte (1.21)
dt
la ecuación (1.21) constituye la ley de conservación del momento angular. La cual nos indica que si en un
sistema las fuerzas externas sobre él son tales que su torque total es cero, su momento angular permanece
constante. En particular, el momento angular se conservará cuando el sistema esté aislado.
Vale anotar que la ley de conservación del momento angular ha mostrado ser universalmente válida a
pesar de nuestra suposición inicial de que las fuerzas vayan a lo largo de las lı́neas que unen a las partı́culas
(propiedad que no cumplen por ejemplo las fuerzas magnéticas). De manera que aún en los casos en que
nuestra suposición inicial no es válida, la ley de conservación del momento angular se ha cumplido en todos
los procesos observados hasta ahora, aunque con un concepto extendido de momento angular.
1.5. DINÁMICA DE UN SISTEMA DE PARTÍCULAS 9

Relación entre el momento angular de un sistema de partı́culas relativo al sistema-C y el relativo


al laboratorio
Las posiciones de las partı́culas relativas al laboratorio (denotadas por ri ) y las asociadas al centro de masa
(denotadas por r′i ) se pueden relacionar fácilmente, y se puede ver que:

ri = r′i + rCM (1.22)


vi = vi′ + vCM (1.23)

siendo rCM y vCM la posición y velocidad del centro de masa medidas por el laboratorio. Multiplicando (1.23)
por mi se obtiene

pi = p′i + mi vCM (1.24)


utilizando estas relaciones, obtenemos:

n
X n
X   
L = (ri × pi ) = r′i + rCM × p′i + mi vCM
i=1 i=1
n n n
!
X  X X 
L = r′i × p′i + rCM × p′i + mi r′i + rCM × vCM
i=1 i=1 i=1
n n n
!
X  X X
L = r′i × p′i + rCM × p′i + mi ri × vCM
i=1 i=1 i=1
P P
pero i p′i = 0 de acuerdo con (1.7) y utilizando (1.6) se tiene que ( i mi ri ) = M rCM de modo que:

n
X 
L = r′i × p′i + M rCM × vCM
i=1
L = LCM + rCM × P (1.25)

el término LCM es el momento angular relativo al centro de masa, o momento angular interno; esto último
debido a que el momento angular ası́ medido es una propiedad del sistema e independiente del observador. El
segundo término a la derecha suele denominarse momento angular externo relativo al sistema-L (laboratorio),
y equivale al momento angular (medido desde el sistema laboratorio) correspondiente a una partı́cula de masa
M colocada en la posición del centro de masa y con la velocidad del CM. Por ejemplo, cuando un lanzador
arroja una pelota rotando, el momento angular debido a la rotación está dado por LCM , mientras que el
momento angular debido a la traslación de la pelota está dado por M rCM × vCM con M la masa de la bola.
Para la Tierra LCM es debido a su rotación y M rCM × vCM es debido a su traslación alrededor del Sol.

Relación entre el torque externo alrededor del centro de masa y el torque alrededor del labora-
torio
Con un argumento similar al anterior se puede calcular la relación entre el torque externo medido por el
laboratorio y el medido por el centro de masa

τ ext = τ CM + rCM ×Fext (1.26)


rCM ×Fext es el torque de translación y es equivalente al torque medido en el sistema-L para una partı́cula
ubicada en el centro de masa sometida a la fuerza externa resultante de todo el sistema Fext .
Pero teniendo en cuenta el resultado (1.25) y derivando temporalmente se obtiene:
10 CAPÍTULO 1. ELEMENTOS BÁSICOS DE MECÁNICA NEWTONIANA

dL dLCM dvCM
= + rCM × M
dt dt dt
y tomando las Ecs. (1.13) y (1.20):

dLCM
τ ext = + rCM × Fext (1.27)
dt
Y comparando (1.26) y (1.27) se obtiene:

dLCM
= τ CM (1.28)
dt
esta relación es funcionalmente idéntica a (1.20) pero con la diferencia de que (1.20) es válida sólo cuando el
torque y el momento angular se miden a partir de un punto fijo (usualmente el origen) en un sistema inercial
de referencia, en tanto que la relación (1.28) es válida incluso si el sistema de referencia-C no es inercial1 . Esta
ecuación resultará muy útil para estudiar el movimiento del cuerpo rı́gido.

1.5.4. Trabajo y energı́a de un sistema de partı́culas


La fuerza resultante sobre la partı́cula i es:
n
X
(e)
Fi = Fi + Fij = mi ai
j6=i

(e)
donde Fi es la resultante de las fuerzas externas. El diferencial de trabajo es:
n
X
(e)
dWi = mi ai · dri = Fi · dri + Fij · dri
j6=i

el diferencial de trabajo total realizado sobre el sistema, es entonces la suma de los diferenciales de trabajo de
partı́cula individual:
n
X n
X n X
X n
(e)
dW = mi ai · dri = Fi · dri + Fij · dri
i=1 i=1 i=1 j6=i

aplicando una identidad análoga a (1.19)

n X
X n n−1
XX n n−1
XX n
Fij · dri = [(dri − drj ) · Fij ] = (drij · Fij )
i=1 j6=i i=1 j>i i=1 j>i

dvi dri
por otro lado ai · dri = dt · dri = dvi · dt = dvi · vi con lo cual queda:

n
X n
X n−1
XX n
(e)
dW = mi dvi · vi = Fi · dri + (drij · Fij )
i=1 i=1 i=1 j>i

integrando a ambos lados la ecuación queda:


Z n Z
X vi n Z
X Bi n−1
XX n Z Bij
(e)
dW = mi vi · dvi = Fi · dri + (drij · Fij )
i=1 v0i i=1 Ai i=1 j>i Aij

1
Sin embargo, la relación (1.28) no es válida si el sistema-C está rotando con respecto al sistema inercial [4].
1.5. DINÁMICA DE UN SISTEMA DE PARTÍCULAS 11

obsérvese que estrictamente aquı́ se realizan n integrales dado que existen n trayectorias seguidas por cada
una de las n partı́culas. El primer término de la derecha es el trabajo realizado por las fuerzas externas a S. El
segundo término corresponde al trabajo hecho por las fuerzas internas.

Z n 
X 
1 1
dW = mi vi2 − mi v0i
2
= Wext +Wint
2 2
i=1
n
X n
X
1 1
W = mi vi2 − 2
mi v0i = Wext +Wint
2 2
i=1 i=1
Pn
pero i=1 12 mi vi2 es la energı́a cinética del sistema en un instante dado. Por tanto el trabajo total realizado por
las fuerzas externas e internas cuando el sistema de partı́culas se desplaza desde la configuración de posiciones
(x01 , ..., x0n ) hasta la configuración de posiciones (xf 1 , ..., xf n ) a través de las trayectorias (x1 (t) , ..., xn (t)) es
igual al cambio de energı́a cinética entre estas dos configuraciones de posición, sin importar la naturaleza de
las trayectorias. Hemos recuperado por tanto el teorema fundamental del trabajo y la energı́a para el caso de
un sistema de partı́culas, el cual enunciaremos de la manera siguiente:
El trabajo total efectuado por las fuerzas externas e internas sobre un sistema de partı́culas
es igual al cambio producido en su energı́a cinética.
Por tanto escribiremos:

Ek − Ek,0 = Wext +Wint (1.29)

1.5.5. Conservación de la energı́a de un sistema de partı́culas


Supongamos ahora que las fuerzas internas son conservativas, en tal caso se tiene que:
Z Bij
(drij · Fij ) = Ep0,int (rij ) − Ep,int (rij )
Aij

pero como se trata de interacción de pares de partı́culas, la energı́a potencial depende únicamente del vector
relativo entre los pares de partı́culas i, j. Si suponemos especialmente que la fuerza Fij va a lo largo del vector
rij que une a las dos partı́culas, se tiene que la energı́a potencial dependerá sólamente de la distancia entre las
dos partı́culas:
Z Bij
ij ij
(drij · Fij ) = Ep0,int (rij ) − Ep,int (rij ) , rij ≡ krij k
Aij

en este caso, la energı́a potencial está definida por pares de partı́culas, a esto se refiere el supraı́ndice i, j en la
ecuación anterior. Por tanto, las fuerzas internas producen un trabajo equivalente a:
n−1
XX n h i
ij ij
Ep0,int (rij ) − Ep,int (rij )
i=1 j>i

y como sabemos que la suma de fuerzas conservativas es también conservativa se tiene que:
n−1
XX n n−1
XX n
ij ij
Wint = Ep0,int (rij ) − Ep,int (rij ) = Ep0,int − Ep,int
i=1 j>i i=1 j>i

que al sustituı́rlo en (1.29) nos da:

Ek − Ek,0 = Wext +Ep0,int − Ep,int ⇒


[Ek + Ep,int ] − [Ep0,int + Ek,0 ] = Wext
12 CAPÍTULO 1. ELEMENTOS BÁSICOS DE MECÁNICA NEWTONIANA

definamos ahora la energı́a propia del sistema como:

U ≡ Ek + Ep,int (1.30)

el nombre de energı́a propia indica que esta es una propiedad del sistema (y no de agentes externos). Podemos
reescribir la ecuación anterior como:

U − U0 = Wext (1.31)

es decir, el cambio en la energı́a propia del sistema es igual al trabajo realizado por las fuerzas externas sobre
el sistema de partı́culas.
Como la energı́a potencial Ep,int (rij ) solo depende de la distancia entre las dos partı́culas i, j se tiene
ij ji
entonces que Ep,int = Ep,int por lo tanto:

n−1
XX n n n
ij 1 X X ij
Ep,int (rij ) = Ep,int (rij )
2
i=1 j>i i=1 j6=i

regresando a la Ec. (1.31) se tiene que si Wext = 0, la energı́a propia es igual al principio y al final de cualquier
proceso, de modo que podemos enunciar el siguiente principio de conservación:
Si las fuerzas externas no realizan ningún trabajo, se tiene que la energı́a propia del sistema
se conserva (siendo las fuerzas internas conservativas).
Finalmente, supongamos que también las fuerzas externas son conservativas de manera que:

Wext = Ep,ext0 − Ep,ext

la Ec. (1.31) queda:

U − U0 = Ep,ext0 − Ep,ext ⇒
(U + Ep,ext ) − (U0 + Ep,ext0 ) = 0

es decir, la cantidad U + Ep,ext se conserva para cualquier proceso realizado por las fuerzas externas e internas.
Como en el cálculo de U + Ep,ext intervienen todas las fuerzas sobre S, podemos denominar a ésta cantidad
como la energı́a total del sistema

E = U + Ep,ext = Ek + Ep,int + Ep,ext

es decir la energı́a total del sistema es igual a la energı́a cinética mas la energı́a potencial de las fuerzas internas
y externas, y se tiene que:

E − E0 = 0

es decir la energı́a total se conserva para cualquier proceso realizado por las fuerzas internas y externas siempre
y cuando ambos tipos de fuerzas sean conservativos. Hemos deducido entonces el teorema de conservación de
la energı́a para un sistema de partı́culas en donde las fuerzas involucradas son todas conservativas2 . En el caso
de una sola partı́cula, la energı́a total se reduce a la expresión correcta ya que cuando solo hay una partı́cula
Ep,int = 0 (puesto que la energı́a potencial interna se debe a la interacción por pares, de modo que debe
haber al menos dos partı́culas) y Ep,ext es la energı́a potencial correspondiente a la fuerza resultante sobre la
partı́cula.
2
En su forma más general, la conservación de la energı́a adquiere el carácter de principio y su validez es universal, mas allá de
las suposiciones realizadas para demostrar el teorema.
1.6. EJERCICIOS 13

1.5.6. Transformación de la energı́a cinética al sistema-C a partir del sistema de labora-


torio
La energı́a cinética depende del observador. No obstante, dicha cantidad medida a partir del centro de
masa del sistema serı́a una cantidad independiente del observador. Puesto que la energı́a potencial interna
no depende del sistema de referencia, ya que sólo es función de las coordenadas relativas entre las partı́culas,
podemos definir una energı́a del sistema que sea independiente del observador a través de la relación:

Uint ≡ Ek,CM + Ep,int


que denominamos energı́a interna del sistema de partı́culas. Vemos pues que la energı́a interna es la energı́a
propia medida por el sistema de referencia del centro de masa. En general, por la energı́a del sistema S se
entiende que se refiere a su energı́a interna.
Pero como en la realidad las cantidades se miden desde el laboratorio, es necesario conocer la forma en
que la energı́a cinética se transforma cuando pasamos del sistema del laboratorio al sistema centro de masa.
El procedimiento es similar al del caso del momento angular y se deja como ejercicio al lector demostrar que:

1 2
Ek = Ek,CM + M vCM
2
n
X n
X
1 1 1
mi vi2 = 2
mi vi′2 + M vCM (1.32)
2 2 2
i=1 i=1
el primer término de la derecha es el debido al movimiento de las partı́culas del sistema con respecto al centro
de masa, el segundo término es el debido al movimiento del sistema como un todo (movimiento de su centro
de masa con respecto al laboratorio). La energı́a propia de S vendrı́a dada entonces por:
1 2
U = Uint + M vCM
2
esta relación muestra que la energı́a interna es el menor valor que puede tomar la energı́a propia, y este valor
lo toma cuando se mide en el sistema −C de referencia.

1.6. Ejercicios
1. Demuestre por argumentos puramente cinemáticos, que la velocidad inicial v0 y la velocidad final vf de
una partı́cula, están relacionadas con su aceleración a, por medio de la ecuación
Z rf
2 2
vf − v0 = a · dr
r0
donde r0 y rf son la posición inicial y final de la partı́cula respectivamente. Nótese que al multiplicar
esta ecuación por la masa, se obtiene el teorema fundamental del trabajo y la energı́a, Ec. (1.1).
2. La velocidad de escape de una partı́cula en la tierra, es la velocidad inicial mı́nima que requiere una
partı́cula que está en la superficie de la tierra, para poder escapar del campo gravitatorio terrestre.
Ignorando la resistencia del aire, calcule esta velocidad de escape por argumentos de energı́a.
3. Demuestre la Ec. (1.19) por inducción matemática.
4. Demuestre que la relación entre el torque externo medido por el laboratorio y el medido por el centro de
masa viene dado por la Ec. (1.26). (Para comentarios adicionales sobre algunas sutilezas de esta relación,
ver la Ref. [4]).
5. Demuestre que la energı́a cinética de un sistema de partı́culas vista por el laboratorio es la energı́a
cinética vista por el centro de masa, mas la energı́a cinética que tendrı́a una partı́cula con la masa total
del sistema y la velocidad del centro de masa (ver Ec. 1.32).
Capı́tulo 2

Principio de D’Alembert y ecuaciones de


Lagrange

Las ecuaciones de Lagrange son un formalismo equivalente a la formulación Newtoniana de la mecánica


pero que tiene una serie de ventajas tanto operativas como formales que veremos en el transcurso de nuestros
desarrollos. Es usual en Fı́sica realizar una formulación diferencial y una formulación integral equivalente de
cierto formalismo. Por ejemplo, las ecuaciones de Maxwell se pueden escribir en forma integral en la cual
aparecen integrales de lı́nea, de superficie y de volumen, o alternativamente se pueden escribir en forma
diferencial por medio de divergencias, rotacionales y derivadas parciales del tiempo. Similarmente, la segunda
ley de Newton tiene una versión diferencial
dP
F=
dt
y una forma integral equivalente que se conoce como teorema del impulso I:
Z T
Fdt = dP ⇒ F dt = P − P0 ≡ I
0

la experiencia muestra que las formulaciones integrales y diferenciales tienen cada una sus ventajas y desven-
tajas y en general resultan un buen complemento para obtener un buen panorama de la teorı́a subyacente.
En esta misma tónica queremos obtener el nuevo formalismo a partir de una formulación diferencial y una
formulación integral. La formulación diferencial se cimenta en el llamado principio de D’Alembert en tanto
que la formulación integral se basa en el principio variacional de Hamilton.
Nos ocuparemos primero de la versión diferencial, pero antes de discutir el principio de D’Alembert que la
genera, debemos estudiar el papel de las ligaduras en la Fı́sica.

2.1. Ligaduras
Aunque las ecuaciones de movimiento (1.16) nos dictaminan formalmente toda la evolución del sistema,
desde el punto de vista operativo es en general difı́cil conocer todas las fuerzas aplicadas sobre cada partı́cula.
Con frecuencia, los sistemas están sometidos a ligaduras que obligan a la partı́cula o sistema de partı́culas a
moverse en ciertas trayectorias o a restringir su movimiento a ciertas regiones especı́ficas. Tal es el caso de
sistemas como la montaña rusa o el péndulo en donde la trayectoria del móvil está determinada por la normal
y la tensión de la cuerda respectivamente, obsérvese que en estos casos particulares no es fácil encontrar a
priori el valor de las fuerzas de ligadura. Otro caso común es el de un gas en un contenedor, en tal caso la
ligadura se manifiesta como la exclusión de la región exterior al contenedor como posible región de movimiento
para las partı́culas.
Hay varias formas de clasificar las ligaduras. Una de las clasificaciones más útiles consiste en la caracteri-
zación de las ligaduras como holónomas y no holónomas. Las ligaduras holónomas son aquellas que se pueden

14
2.1. LIGADURAS 15

escribir como ecuaciones que conectan las coordenadas de las partı́culas y tal vez el tiempo, de la forma

f (r1 , r2 , . . . , rN , t) = 0 (2.1)

un ejemplo sencillo lo constituye el cuerpo rı́gido para el cual las ligaduras se expresan de la forma

(ri − rj )2 − c2ij = 0

siendo ri , rj posiciones de un par de partı́culas del cuerpo rı́gido y siendo cij sus distancias (constantes). La
montaña rusa y el péndulo son también ejemplos de ligaduras holónomas, ya que el móvil está obligado a
seguir una trayectoria especı́fica. La ecuación de la trayectoria actúa entonces como la ligadura.
Toda ligadura que no cumpla la condición (2.1), se denomina no holónoma. En el ejemplo del contenedor
de gas, asumiendo por simplicidad un contenedor esférico de radio a, tendrı́amos una ligadura de la forma

r 2 − a2 ≤ 0

es decir una desigualdad. Naturalmente hay infinidad de ligaduras no holónomas ya que solo se requiere que
no se cumpla una ecuación de la forma (2.1).
Otra clasificación importante es en ligaduras reónomas (que contienen el tiempo como variable explı́cita)
y esclerónomas (el tiempo no aparece explı́citamente en la ligadura). Un bloque que se desliza por un plano
inclinado, donde este último está fijo en el espacio, es una ligadura esclerónoma. Por otro lado, si el plano
inclinado se mueve de una manera prescrita1 , la ligadura es reónoma. Nótese sin embargo, que si el movimiento
del plano inclinado es solo debido a la fuerza de reacción del bloque, la dependencia temporal entra a través de
las coordenadas que describen a la curva que hace el bloque; en tal caso, la ligadura como tal es esclerónoma.
Como ya se mencionó, en general es difı́cil hallar las fuerzas de ligadura. Adicionalmente, si tenemos N
partı́culas, las 3N coordenadas necesarias para determinar las posiciones de las N partı́culas no son en general
independientes, de modo que los grados de libertad son menores a 3N . En el caso mas general puede ser muy
difı́cil saber cuántas coordenadas independientes hay, pero en el caso de las ligaduras holónomas, este conteo
es muy sencillo ya que si tenemos k ecuaciones holónomas, el número de grados de libertad será 3N − k. Por
tanto, cuando las ligaduras son holónomas, se pueden encontrar un conjunto de coordenadas generalizadas
que consisten en un conjunto de 3N − k grados de libertad independientes que denotaremos por q1 , . . . , q3N −k
las cuales se pueden escribir en términos de las antiguas coordenadas r1 , . . . , rN con ecuaciones de la forma

ri = ri (q1 , . . . , q3N −k , t) ; i = 1, . . . , N (2.2)

que contienen implı́citamente las ligaduras. Si a este sistema le añadimos las ecuaciones de ligadura

fj (r1 , . . . , rN , t) = 0 ; j = 1, . . . , k (2.3)

el conjunto de transformaciones debe ser invertible de modo que cada qi se puede escribir en términos de
las antiguas coordenadas ri y el tiempo. Es importante notar que en el caso más general, las coordenadas
generalizadas no se pueden agrupar en triplas que formen un vector euclidiano.
Un ejemplo que ilustra todos estos detalles es el péndulo doble que se muestra en la figura 2.1. Por simplici-
dad asumamos que las lentejas se mueven en un plano. Las coordenadas cartesianas de las dos lentejas nos dan
seis escalares que especifican las posiciones de ambas. Sin embargo, es claro que no todas estas componentes
son independientes. Los ángulos θ1 y θ2 representan un conjunto de grados de libertad (coordenadas inde-
pendientes) que determinan completamente la posición de las dos lentejas bajo las ligaduras ya mencionadas.
Existen en efecto 4 ecuaciones de ligadura, dos de ellas asociadas al hecho de que las lentejas están en un plano
(e.g. z1 = 0 y z2 = 0) y otras dos que nos dicen que las longitudes de las cuerdas son constantes2 . Para este
sistema, el par (θ1 , θ2 ) no forma un vector euclidiano en el plano de movimiento, también se vé otro aspecto
1
Usualmente debido a alguna fuerza externa que introduce la dependencia temporal en la ecuación de ligadura.
2
En este caso, dos ligaduras están asociadas a condiciones iniciales (la ausencia de una componente z de las velocidades iniciales
de las lentejas), y otras dos están asociadas a fuerzas de ligadura (las tensiones de las cuerdas).
16 CAPÍTULO 2. PRINCIPIO DE D’ALEMBERT Y ECUACIONES DE LAGRANGE

Figura 2.1: Ilustración de un péndulo doble. Un conjunto conveniente de coordenadas son los ángulos θ1 y θ2
medidos con respecto a la vertical, siempre que el movimiento se restrinja a un plano.

interesante: las coordenadas generalizadas no necesariamente tienen dimensiones de longitud (en este caso son
adimensionales), en general las coordenadas generalizadas pueden tener cualquier tipo de dimensión.
Dado que cuando las ligaduras son holónomas las coordenadas dependientes se pueden eliminar, estos
problemas son accesibles para solucionarse al menos formalmente. Las ligaduras no holónomas deben tratarse
cada una por aparte y no hay una estrategia general de solución. Es importante enfatizar que para que
las ligaduras sean holónomas es necesario que las funciones f no contengan como argumento, derivadas u
operadores diferenciales de la posición3 .
De momento nos limitaremos a ligaduras holónomas para las cuales es más sencillo el conteo de grados de
libertad. Recordemos que una segunda dificultad cuando nos encontramos con ligaduras es el hecho de que las
fuerzas de ligadura son desconocidas y en general difı́ciles de hallar. Para obviar este problema serı́a deseable
obtener un formalismo en el cual las fuerzas de ligadura no estén incluı́das. Esta es la principal motivación
para introducir el llamado principio de D’Alembert.

2.2. Principio de D’Alembert


Introduciremos primero el concepto de desplazamiento virtual, concebido como el cambio de configuración
de un sistema como resultado de un cambio infinitesimal de las coordenadas, denotado como δri , y consistente
con las fuerzas y ligaduras impuestas sobre el sistema en un instante dado t. A diferencia del desplazamiento
real, el cual ocurre en un intervalo de tiempo dt, el tiempo se considera fijo en los desplazamiento virtuales, de
modo que se ignoran los posibles cambios en las fuerzas y en las ligaduras que pueden provenir de la evolución
temporal. Comencemos por escribir la segunda ley de Newton, y el trabajo virtual asociado a las fuerzas sobre
una partı́cula i

N
X
Fi − ṗi = 0 ⇒ (Fi − ṗi ) · δri = 0
i=1

3
Cuando hay operadores diferenciales es en algunos casos posible tener ligaduras integrables que permitan reducir las variables
dependientes con facilidad. Incluso cuando las ligaduras no son integrables, el método de multiplicadores de Lagrange puede hacer
esta función, pero volveremos sobre eso más adelante.
2.3. COORDENADAS GENERALIZADAS Y ECUACIONES DE LAGRANGE 17

como la idea es eliminar a las fuerzas de ligadura de la formulación, haremos la separación de Fi entre las
(a)
fuerzas aplicadas Fi y las fuerzas de ligadura fi
(a)
Fi = Fi + fi
N 
X  N
X
(a)
⇒ Fi − ṗi · δri + fi · δri = 0
i=1 i=1
a continuación nos restringiremos a sistemas en los cuales los trabajos virtuales netos asociados a las fuerzas de
ligadura se anulan. Es fácil ver que esta condición se cumple en gran número de casos, por ejemplo la tensión
de la cuerda no realiza trabajo sobre la lenteja de un péndulo (ni virtual ni real). En una montaña rusa sin
rozamiento, la normal no hace trabajo sobre el móvil. En un cuerpo rı́gido las fuerzas de ligadura son fuerzas
internas que obligan a las partı́culas a conservar sus distancias relativas, lo cual conduce a que no hayan cambios
en la energı́a interna, es decir que no hay trabajo realizado por estas fuerzas internas de ligadura. Cuando
intervienen fuerzas de fricción por deslizamiento no se cumple esta condición de tal manera que debemos excluir
esta situación de nuestra formulación actual4 . Sin embargo, el rozamiento estático de rodadura no viola esta
condición ya que no realiza trabajo real ni virtual. Vale la pena anotar que si una partı́cula está restringida
a una superficie o curva que a su vez se desplaza en el tiempo, la fuerza de ligadura es instantáneamente
perpendicular a la superficie o curva de modo que el trabajo virtual es cero, aunque el trabajo real en un
intervalo dt no es necesariamente cero (ver Refs. [5, 6] y problema 2.2). Esta última observación justifica la
introducción de los desplazamientos virtuales, ya que eliminan muchas fuerzas de ligadura que no se eliminan
con los desplazamientos reales.
Asumiendo entonces que las fuerzas de ligadura no producen trabajos virtuales, se tiene que
N 
X 
(a)
Fi − ṗi · δri = 0 (2.4)
i=1
a la expresión (2.4), se le conoce como principio de D’Alembert. Hemos logrado nuestro objetivo en el
sentido de excluı́r las fuerzas de ligadura de la formulación. De aquı́ en adelante omitiremos el supraı́ndice
(a) sobreentendiendo que las fuerzas involucradas excluyen a las ligaduras. No obstante, los coeficientes de los

desplazamientos virtuales δri no son necesariamente cero, ya que los desplazamientos virtuales δri al ser com-
patibles con las ligaduras no son en general independientes, están conectados por las ecuaciones de ligadura. El
siguiente paso es entonces encontrar un conjunto de coordenadas generalizadas qj que sean independientes
y solo tengan en cuenta los verdaderos grados de libertad del sistema. En tal caso los desplazamientos virtuales
δqj serán independientes y podremos aseverar que los coeficientes asociados a estos desplazamientos deben ser
nulos. La existencia de estas coordenadas independientes solo se puede garantizar cuando las ligaduras son
holónomas.

2.3. Coordenadas generalizadas y ecuaciones de Lagrange


Supondremos entonces que las ligaduras son holónomas. En consecuencia, es posible encontrar un conjunto
q1 , q2 , . . . , qn de coordenadas generalizadas independientes que junto con el tiempo, me caracterizan comple-
tamente la configuración y dinámica del sistema fı́sico, y que están conectadas con las coordenadas originales
en la forma
ri = ri (q1 , q2 , . . . , qn , t) ; i = 1, ..., N (2.5)
usando la regla de la cadena en la Ec. (2.5), podemos escribir la velocidad de la partı́cula i−ésima como
n
dri X ∂ri ∂ri
vi = = q̇k + (2.6)
dt ∂qk ∂t
k=1
4
Estrictamente las fuerzas de fricción no son fuerzas de ligadura. Sin embargo, en el caso de la fricción deslizante, la magnitud
de dicha fuerza depende de la magnitud de la fuerza de ligadura (la normal), con lo cual, la fuerza aplicada (fricción) introduce una
dependencia de la fuerza de ligadura, que no puede ser desacoplada. En el caso de la fricción estática, este problema solo aparece
si dicha fuerza adquiere su valor máximo.
18 CAPÍTULO 2. PRINCIPIO DE D’ALEMBERT Y ECUACIONES DE LAGRANGE

donde hemos hecho la suposición de que ∂t qk = dqk /dt ≡ q̇k más adelante discutiremos esta suposición. Tenien-
do en cuenta de nuevo la Ec. (2.5), los desplazamientos virtuales originales se conectan con los desplazamientos
virtuales en coordenadas generalizadas a través de la relación
n
X ∂ri
δri = δqj (2.7)
∂qj
j=1

en donde no se incluye la variación temporal por la definición de desplazamiento virtual. Como ya vimos antes,
cuando la ligadura cambia con el tiempo, es posible que solo el trabajo virtual se anule, pero no el trabajo
real. El trabajo virtual en términos de las coordenadas generalizadas queda entonces
N
X N X
X n X n
∂ri
Fi · δri = Fi · δqj = Qj δqj (2.8)
∂qj
i=1 i=1 j=1 j=1
N
X ∂ri
Qj ≡ Fi · (2.9)
∂qj
i=1

en analogı́a con la expresión original del trabajo virtual, al término Qj se le llama la fuerza generalizada.
Nótese que Qj no necesariamente tiene dimensiones de fuerza al igual que las qj no tienen necesariamente
unidades de longitud, pero el producto Qj δqj debe tener unidades de trabajo.
Nos ocuparemos ahora del segundo término en (2.4)
N
X N
X
ṗi · δri = mi r̈i · δri
i=1 i=1

utilizando (2.7) resulta


N
X N X
X n
∂ri
ṗi · δri = mi r̈i · δqj
∂qj
i=1 i=1 j=1

y usando la identidad    
∂ri d ∂ri d ∂ri
mi r̈i · = mi ṙi · − mi ṙi ·
∂qj dt ∂qj dt ∂qj
se obtiene
N
X n 
N X
X    
d ∂ri d ∂ri
ṗi · δri = mi ṙi · − mi ṙi · δqj (2.10)
dt ∂qj dt ∂qj
i=1 i=1 j=1

examinemos el último término de esta ecuación


  X n     
d ∂ri ∂ ∂ri ∂ ∂ri
= q̇k +
dt ∂qj ∂qk ∂qj ∂t ∂qj
k=1

intercambiando el orden de las derivadas parciales y usando (2.6), resulta


  n      " n    #
d ∂ri X ∂ ∂ri ∂ ∂ri ∂ X ∂ri ∂ri
= q̇k + = q̇k +
dt ∂qj ∂qj ∂qk ∂qj ∂t ∂qj ∂qk ∂t
k=1 k=1
 
d ∂ri ∂vi
= (2.11)
dt ∂qj ∂qj
en lo anterior se asumió que ∂ q̇k /∂qj = 0, suposición que discutiremos más adelante. Ahora usando la Ec.
(2.6), tenemos
n       Xn      
∂vi X ∂ ∂ri ∂ q̇k ∂ri ∂ ∂ri ∂ ∂ri ∂ri ∂ ∂ri
= q̇k + + = q̇k + δkj +
∂ q̇j ∂ q̇j ∂qk ∂ q̇j ∂qk ∂ q̇j ∂t ∂qk ∂ q̇j ∂qk ∂t ∂ q̇j
k=1 k=1
2.3. COORDENADAS GENERALIZADAS Y ECUACIONES DE LAGRANGE 19

y suponiendo que ∂ri /∂ q̇j = 0, se obtiene


∂vi ∂ ṙi ∂ri
≡ = (2.12)
∂ q̇j ∂ q̇j ∂qj

sustituyendo (2.11) y (2.12) en (2.10) se obtiene


N
X n 
N X
X   
d ∂vi ∂vi
ṗi · δri = mi vi · − mi vi · δqj
dt ∂ q̇j ∂qj
i=1 i=1 j=1
N n
( " N
!# N
!)
X X d ∂ X 1 ∂ X 1
ṗi · δri = mi vi2 − mi vi2 δqj (2.13)
dt ∂ q̇j 2 ∂qj 2
i=1 j=1 i=1 i=1

y reemplazando (2.8) y (2.13) en (2.4) resulta


n
( " N
!# N
! )
X d ∂ X 1 ∂ X 1
2
− mi vi − mi vi2 − Qj δqj = 0
dt ∂ q̇j 2 ∂qj 2
j=1 i=1 i=1

denotaremos la energı́a cinética del sistema con T de modo que el principio de D’Alembert queda
Xn     
d ∂T ∂T
− − Qj δqj = 0 (2.14)
dt ∂ q̇j ∂qj
j=1

a lo largo de estos desarrollos hemos realizado las siguientes suposiciones


∂qk dqk ∂ q̇k ∂ri
= ; =0 ; =0 (2.15)
∂t dt ∂qj ∂ q̇j
para comprenderlas, observemos que cuando las ligaduras son holónomas, la tercera de estas condiciones es
una consecuencia directa del carácter holónomo de las ligaduras como se vé en las Ecs. (2.5). Adicionalmente,
dichas ecuaciones nos muestran que siempre es posible obtener un conjunto de coordenadas independientes
que nos dan cuenta de los verdaderos grados de libertad del sistema. En tal caso cada una de las coordenadas
generalizadas puede depender a lo más del tiempo, de modo que
∂qi dqi
qi = qi (t) ⇒ =
∂t dt
∂ q̇i
q̇i = q̇i (t) ⇒ =0 (2.16)
∂qj

vemos entonces que las dos primeras suposiciones (2.15) provienen de las condiciones (2.16) que resultan cuando
las coordenadas son independientes, en tanto que la tercera de las suposiciones (2.15) proviene directamente
del carácter holónomo de las ligaduras.
Por otra parte, el hecho de que las qk solo sean funciones del tiempo, implica además que podemos realizar
un desplazamiento virtual para una sola coordenada qk sin violar las ligaduras5 . Al ser independientes todos los
desplazamientos virtuales, podemos hacer que todos los δq ′ s sean nulos excepto un δqj especı́fico, por tanto su
coeficiente asociado en la ecuación (2.14) debe ser nulo. Procediendo de la misma forma con cada coordenada,
concluı́mos que  
d ∂T ∂T
− = Qj ; j = 1, ..., n (2.17)
dt ∂ q̇j ∂qj
hay un número n de estas ecuaciones, donde n es el número de grados de libertad (y de coordenadas generali-
zadas).
5
Nótese la importancia de que el desplazamiento sea virtual, pues si el desplazamiento es real, la dependencia temporal de las
coordenadas no permite que en general se mueva una sola coordenada en el sistema.
20 CAPÍTULO 2. PRINCIPIO DE D’ALEMBERT Y ECUACIONES DE LAGRANGE

Ahora veamos el caso en el cual cada una de las fuerzas Fi son derivables de una función potencial escalar6
V  
∂V ∂V ∂V
Fi = −∇i V = − , , ; i = 1, . . . , N (2.18)
∂xi ∂yi ∂zi
en este caso las fuerzas generalizadas definidas en (2.9), se escriben como

N
X XN
∂ri ∂ri
Qj = Fi · =− ∇i V ·
∂qj ∂qj
i=1 i=1
XN  
∂V ∂xi ∂V ∂yi ∂V ∂zi
Qj = − + + (2.19)
∂xi ∂qj ∂yi ∂qj ∂zi ∂qj
i=1

por otro lado, impondremos como condición adicional, que dicho potencial sea función solamente de las posi-
ciones y el tiempo
V = V (r1 , . . . , rN , t) = V (x1 , . . . , xN , y1 , . . . , yN , z1 , . . . , zN ; t) (2.20)

cuando los argumentos del potencial son los dados por la Ec. (2.20), el término a la derecha de la Ec. (2.19)
coincide con la derivada parcial de V con respecto a qj con lo cual se obtiene7

∂V
Qj = − (2.21)
∂qj

reemplazando la expresión (2.21) en (2.17) y teniendo en cuenta que el potencial V no depende de las veloci-
dades generalizadas q̇j 8 podemos escribir
 
d ∂ (T − V ) ∂ (T − V )
− =0 ; j = 1, ..., n
dt ∂ q̇j ∂qj

definimos entonces una nueva función


L≡T −V (2.22)

conocida como el Lagrangiano L asociado al sistema. Con lo cual obtenemos finalmente


 
d ∂L ∂L
− =0 ; j = 1, ..., n (2.23)
dt ∂ q̇j ∂qj

las n ecuaciones ası́ obtenidas se conocen como ecuaciones de Lagrange. Obsérvese que estas ecuaciones no
requieren que las fuerzas sean conservativas, ya que el potencial puede ser función explı́cita del tiempo.
En la formulación Lagrangiana ya vemos algunas ventajas operativas como son: (1) No aparecen las fuerzas
de ligadura, y las fuerzas aplicadas usualmente son parámetros de entrada. Es decir, normalmente conocemos
la forma funcional de las fuerzas aplicadas. (2) Al no haber coordenadas dependientes, el número de ecuaciones
es el menor posible. (3) Las ecuaciones son escalares ya que están basadas en la energı́a. (4) Las ecuaciones de
Lagrange son idénticas en forma en cualquier sistema de coordenadas generalizadas9 .
6
Debemos tener presente que Fi incluye las fuerzas internas y externas sobre la partı́cula i. Adicionalmente, el potencial V
está asociado a todo el sistema de partı́culas y no a una sola partı́cula, razón por la cual las fuerzas sobre cada partı́cula se pueden
extraer de él como se observa en la Ec. (2.18).
7
P ∂ ẋi
Si el potencial dependiera por ejemplo de los ẋi , entonces ∂V /∂qj también tendrı́a términos de la forma i ∂∂V ẋi ∂qj
de manera
que la igualdad (2.21) ya no se cumple.
8
Cuando las ligaduras son holónomas, la transformación entre coordenadas me garantiza que si el potencial no depende de las
velocidades en las coordenadas originales, tampoco depende de las velocidades generalizadas en el nuevo sistema coordenado.
9
Por ejemplo, en coordenadas cartesianas las ecuaciones de Newton tienen la forma F = mẍ. Sin embargo, al cambiar a
coordenadas polares Fθ 6= mθ̈, y la forma de las ecuaciones cambia con el cambio en el sistema coordenado.
2.3. COORDENADAS GENERALIZADAS Y ECUACIONES DE LAGRANGE 21

2.3.1. Energı́as cinética y potencial en coordenadas generalizadas


En virtud de que las ecuaciones de Lagrange implican derivadas en las coordenadas generalizadas, es
necesario conocer el valor de la energı́a cinética y potencial en términos de dichas coordenadas. Utilizando
(2.6), la energı́a cinética en términos de coordenadas generalizadas queda
 2
N
X N
X n
X
1 1 ∂ri ∂ri 
T = mi vi2 = mi  q̇j +
2 2 ∂qj ∂t
i=1 i=1 j=1

al expandir el binomio obtenemos


  !   
N n n n  
X 1 X ∂ri  X ∂ri ∂ri X ∂ri  ∂ri 2 
T = mi q̇j · q̇k + 2 · q̇j +
2 ∂qj ∂qk ∂t ∂qj ∂t
i=1 j=1 k=1 j=1
N   n
"N  # n n
"N    #
X 1 ∂ri 2 X X ∂ri ∂ri 1 XX X ∂ri ∂ri
T = mi + mi · q̇j + mi · q̇j q̇k
2 ∂t ∂t ∂qj 2 ∂qj ∂qk
i=1 j=1 i=1 j=1 k=1 i=1

vemos que la energı́a cinética contiene un término independiente de las velocidades generalizadas, ası́ como
otro lineal y otro cuadrático en dichas velocidades. Es entonces conveniente escribir la energı́a cinética en la
forma
n
X n n
1 XX
T = T0 + T1 + T2 = M0 + Mj q̇j + Mjk q̇j q̇k (2.24)
2
j=1 j=1 k=1
N
X  2 N
X X ∂ri ∂ri N
1 ∂ri ∂ri ∂ri
M0 ≡ mi ; Mj ≡ mi · ; Mjk ≡ mi ·
2 ∂t ∂t ∂qj ∂qj ∂qk
i=1 i=1 i=1

si las ecuaciones de transformación (2.5) no dependen explı́citamente del tiempo (ligaduras holónomas y
esclerónomas), solo el término cuadrático sobrevive.
En cuanto al potencial, su forma explı́cita en coordenadas generalizadas depende de cada sistema en
particular. En realidad, la forma del potencial es la que usualmente sugiere las coordenadas generalizadas a
usar.

2.3.2. Una simetrı́a gauge o de calibración para el Lagrangiano


Hemos visto que cuando las fuerzas sobre el sistema (excepto quizás las de ligadura) se pueden escribir como
potenciales que dependen de la posición y el tiempo, el Lagrangiano contiene toda la información fı́sica del
sistema. No obstante, el Lagrangiano no se construyó como un observable, sino como una función generadora
de las ecuaciones dinámicas del sistema. De esto se concluye que si existe otra función generadora L′ que
me lleve a las mismas ecuaciones de movimiento (para un conjunto dado de coordenadas generalizadas) esta
función contiene la misma información fı́sica del Lagrangiano, por tanto L′ bien puede considerarse como otro
Lagrangiano igualmente válido para el mismo sistema Fı́sico y el mismo sistema coordenado. En realidad, la
función Lagrangiana definida por (2.22) no es la única que conduce a las ecuaciones de movimiento (2.23).
Efectivamente se puede demostrar que si Ω (q1 , . . . , qn , t) es una función diferenciable en todos sus argumentos,
la nueva función Lagrangiana definida por

dΩ (q, t)
L′ (q, q̇, t) = L (q, q̇, t) + (2.25)
dt
conduce a las mismas ecuaciones de movimiento. En algunos casos particulares otras redefiniciones son posibles.
Las ecuaciones de Lagrange poseen entonces una simetrı́a gauge o de calibración para el Lagrangiano. Para
verificar que el Lagragiano L′ conduce a las mismas ecuaciones de movimiento que L, es suficiente demostrar
22 CAPÍTULO 2. PRINCIPIO DE D’ALEMBERT Y ECUACIONES DE LAGRANGE

que las ecuaciones de Lagrange para un Lagrangiano de la forma L = d [Ω (q, t)] /dt, son triviales, es decir dan
cero en ambos miembros.
     
d ∂L ∂L d ∂ dΩ (q, t) ∂ dΩ (q, t)
− = −
dt ∂ q̇i ∂qi dt ∂ q̇i dt ∂qi dt
   
n n
d ∂ X ∂Ω ∂Ω  ∂ X ∂Ω ∂Ω 
= q̇j + − q̇j +
dt ∂ q̇i ∂qj ∂t ∂qi ∂qj ∂t
j=1 j=1
   
n n
d X ∂Ω  X ∂ 2 Ω ∂2Ω 
= δij − q̇j +
dt ∂qj ∂qi ∂qj ∂qi ∂t
j=1 j=1
 
  X n     
d ∂Ω ∂ ∂Ω ∂ ∂Ω
= − q̇j +
dt ∂qi  ∂qj ∂qi ∂t ∂qi 
j=1
 
Xn      X n     
∂ ∂Ω ∂ ∂Ω ∂ ∂Ω ∂ ∂Ω
= q̇j + − q̇j +
∂qj ∂qi ∂t ∂qi  ∂qj ∂qi ∂t ∂qi 
j=1 j=1
= 0
donde hemos usado el hecho de que Ω no depende de q̇i . Adicionalmente, hemos tenido en cuenta que las
derivadas parciales se pueden intercambiar, siempre y cuando éstas últimas sean contı́nuas en todo el intervalo
espacio temporal en cuestión10 .

2.4. Ecuaciones de Lagrange para potenciales generalizados


Las ecuaciones (2.17) se pueden escribir sintéticamente en términos de un operador diferencial lineal
 
b b d ∂ ∂
Oj T = Qj ; Oj ≡ − (2.26)
dt ∂ q̇j ∂qj
claramente, de esta ecuación podemos llegar a la ecuación de Lagrange (2.23) siempre y cuando la fuerza
generalizada Qj se pueda escribir como
 
b b d ∂ ∂
Qj = Oj U ; Oj ≡ − (2.27)
dt ∂ q̇j ∂qj
siendo U una función escalar de qk , q̇k , t. Cuando se cumple la condición (2.27) la podemos sustituir en (2.26)
y obtener
bj T
O =bj U ⇒ O
O bj (T − U ) = 0
bj L = 0 ; L ≡ T − U
⇒ O (2.28)
bj Ec. (2.26) se vé que la Ec. (2.28) es idéntica en forma a la Ec. (2.23). Al escalar U se
Dada la definición de O
le denomina potencial generalizado. Este potencial puede depender de las velocidades generalizadas q̇k y el
caso Fi = −∇i U (qk , t) está incluı́do como caso particular.
El caso especial mas importante en la Fı́sica de estos potenciales generalizados lo constituye el potencial
generalizado asociado a la fuerza de Lorentz. Sea una carga puntual q de masa m y que viaja con velocidad v.
Asumamos que esta carga se propaga en el vacı́o en presencia de un campo eléctrico E y un campo magnético
B, el valor de la fuerza instantánea que experimenta dicha carga es
F = qE + qv × B (2.29)
10
De este procedimiento se vé que si Ω dependiera de los q̇i , los Lagrangianos relacionados en (2.25), no serı́an equivalentes.
2.4. ECUACIONES DE LAGRANGE PARA POTENCIALES GENERALIZADOS 23

donde E (r, t) y B (r, t) son funciones contı́nuas en sus argumentos. Estos campos se pueden generar de un
potencial escalar φ (r, t) y uno vectorial A (r, t)

∂A
E = −∇φ − ; B=∇×A (2.30)
∂t
verifiquemos que el potencial
U = qφ − qA · v (2.31)
es un potencial generalizado adecuado para reproducir la fuerza generalizada de Lorentz. En nuestro caso,
dado que el problema no tiene ligaduras, lo más cómodo es usar las coordenadas cartesianas como coordenadas
generalizadas, de modo que las coordenadas originales y las generalizadas coinciden. Las fuerzas generalizadas
son simplemente las componentes de la fuerza original (recordemos que las fuerzas generalizadas son cantidades
escalares). Calculemos la cantidad O bj U , en lo que sigue asumimos convención de suma sobre ı́ndices repetidos
y tendremos en cuenta que xi y ẋi = vi son independientes entre sı́. Finalmente, asumiremos que A y φ solo
son funciones de xi , t pero no son funciones de ẋi .

U = qφ − qA · v = qφ − qAi vi

∂U ∂φ ∂Ai ∂vi ∂φ ∂Ai


= q −q vi − qAi =q −q vi
∂xj ∂xj ∂xj ∂xj ∂xj ∂xj
∂U ∂U ∂φ ∂Ai ∂vi
= =q −q vi − qAi · = −qAj
∂ ẋj ∂vj ∂vj ∂vj ∂vj
 
d ∂U ∂Aj ∂Aj ∂Aj ∂Aj
= −q ẋi − q = −q vi − q
dt ∂ ẋj ∂xi ∂t ∂xi ∂t

usando las Ecs. (2.26, 2.27), tenemos


 
b ∂U d ∂U
Qj = Oj U = − +
∂xj dt ∂ ẋj
∂φ ∂Ai ∂Aj ∂Aj
= −q +q vi − q vi − q
∂xj ∂xj ∂xi ∂t
   
∂φ ∂Aj ∂Ai ∂Aj
= −q + +q − vi
∂xj ∂t ∂xj ∂xi

definiendo el tensor de Levi-Cività εijk podemos escribir lo anterior en notación mas compacta

Qj = −q (∂j φ + ∂t Aj ) + q (∂j Ai − ∂i Aj ) vi = −q (∂j φ + ∂t Aj ) + qεjin εnrs vi ∂r As


Qj = −q (∇φ + ∂t A)j + qεjin vi (∇ × A)n = −q (∇φ + ∂t A)j + q [v × (∇ × A)]j

teniendo en cuenta (2.30) la fuerza generalizada Qj queda

Qj = qEj + q [v × B]j

de modo que componente a componente, este potencial genera correctamente la fuerza de Lorentz Ec. (2.29).
El Lagrangiano se escribe
1
L ≡ T − U = mẋi ẋi − qφ + qAi ẋi (2.32)
2
tomemos la ecuación de Lagrange asociada a la coordenada generalizada xk con k = 1, 2, 3
 
d ∂L ∂L d
− =0⇒ [mẋk + qAk ] + q∂k φ − q (∂k An ) ẋn = 0
dt ∂ ẋk ∂xk dt
24 CAPÍTULO 2. PRINCIPIO DE D’ALEMBERT Y ECUACIONES DE LAGRANGE

la ecuación de movimiento se puede escribir como


 
dAk
mẍk = q (vn ∂k An ) − q ∂k φ + (2.33)
dt
dado que A solo depende de la posición y el tiempo se tiene que
dAk ∂Ak ∂Ak ∂xn ∂Ak ∂Ak dxn
= + = + = ∂t Ak + vn ∂n Ak
dt ∂t ∂xn ∂t ∂t ∂xn dt
de modo que la derivada total de Ak se puede expresar en términos de la denominada “derivada convectiva”
dAk
= ∂t Ak + v · ∇Ak = ∂t Ak + vn ∂n Ak
dt
reemplazando en (2.33)

mẍk = qvn ∂k An − q (∂t Ak + vn ∂n Ak ) − q∂k φ


mẍk = qvn (∂k An − ∂n Ak ) − q (∂t Ak + ∂k φ)
  
∂A
mẍk = q [v × (∇ × A)]k − q + (∇φ)k
∂t k

usando (2.30) la ecuación queda


mẍk = q [v × B]k + qEk
y se observa que las ecuaciones de Lagrange reproducen la expresión para la fuerza de Lorentz Ec. (2.29).

2.5. Ecuaciones de Lagrange con fuerzas disipativas


En general las fuerzas generalizadas se pueden descomponer en dos términos de la siguiente forma

Qj = QU ′
QU b
j + Qj ; j = Oj U

de tal manera que QU ′


j proviene de algún potencial generalizado en tanto que Qj es un término que no se puede
escribir en términos de ningún potencial generalizado. Si introducimos esta expresión en (2.26)
bj T
O bj U + Q′j ⇒
= O
bj (T − U ) = Q′j
O (2.34)

podemos entonces definir un Lagrangiano L = T − U y una fuerza generalizada Q′j que no proviene de ningún
potencial, de tal manera que usando (2.26), la Ec. (2.34) queda
 
d ∂L ∂L
− = Q′j (2.35)
dt ∂ q̇j ∂qj
esta ecuación de Lagrange generalizada es útil por ejemplo para el caso de fuerzas de fricción. Con frecuencia,
la fricción viscosa se modela como una interacción proporcional a la velocidad, de modo que su componente x
se escribe como
Ff x = −kx vx (2.36)
y similarmente para las otras componentes. Si el fluı́do es anisotrópico, las constantes kx , ky , kz serán en general
diferentes. Supondremos sin embargo, que el medio es homogéneo y que por tanto kx , ky y kz no dependen de
la posición ni del tiempo. Las fuerzas de fricción de este tipo se pueden derivar de una expresión de la forma
N
1X 2 2 2

̥= kx vix + ky viy + kz viz (2.37)
2
i=1
2.6. ALGUNAS CARACTERÍSTICAS DE LAS CANTIDADES GENERALIZADAS 25

donde la suma es sobre las partı́culas del sistema. Si el fluı́do en donde están inmersas las partı́culas es
homogéneo, entonces ̥ será función de las velocidades únicamente. A esta expresión se le conoce como función
de disipación de Rayleigh. A partir de (2.37), la componente x de la fuerza de fricción sobre la i−ésima
partı́cula se escribe
∂̥
Ffix = −
∂vix
y análogamente para las otras componentes. Simbólicamente se puede escribir

Fif = −∇vi ̥ = −∇ẋi ̥

para ver el significado fı́sico de la función de disipación, calculemos el trabajo realizado por el fluı́do sobre el
sistema
N
X N
X N
X
dWf = Fif · dri = Fif · vi dt = − (kx vix , ky viy , kz viz ) · (vix , viy , viz ) dt
i=1 i=1 i=1
XN
2 2 2

dWf = − kx vix + ky viy + kz viz dt = −2̥ dt
i=1

de lo cual se vé que 2̥ corresponde a la rata de disipación de energı́a debida a la fricción. La componente de
la fuerza generalizada resultante de la fuerza de fricción está dada por
N
X X N
∂ri ∂ri
Qj = Ff i · =− ∇vi ̥ ·
∂qj ∂qj
i=1 i=1

usando (2.12), y teniendo en cuenta que la función de disipación solo depende de los ṙi y por tanto de los q̇i ,
obtenemos
XN
∂ ṙi ∂̥
Qj = − ∇ẋi ̥ · =−
∂ q̇j ∂ q̇j
i=1
Las ecuaciones de Lagrange con un término de disipación quedan
 
d ∂L ∂L ∂̥
− + =0 (2.38)
dt ∂ q̇j ∂qj ∂ q̇j

Vemos que cuando existen fuerzas generalizadas que no provienen de un potencial generalizado (denotadas
por Q′j ), el Lagrangiano no contiene toda la información fı́sica del sistema, ya que solo la parte de Qj que
sı́ proviene de potenciales generalizados es absorbida en él. Este hecho resulta claro de la Ec. (2.35), y para el
caso especı́fico de fuerzas disipativas esto se vé de la Ec. (2.38) en donde la función de disipación de Rayleigh
contiene información fı́sica que no posee el Lagrangiano.

2.6. Algunos aspectos peculiares de las coordenadas y las fuerzas genera-


lizadas
El concepto de fuerza generalizada, definida a través de las coordenadas generalizadas qj resultó ser
X ∂ri
Qj ≡ Fi · (2.39)
∂qj
i

observemos en primer lugar que las coordenadas qj no están necesariamente asociadas a una partı́cula. Por
ejemplo, si en el péndulo doble de la Fig. 2.1 tengo una lenteja adicional en la mitad de una de las varillas, la
coordenada generalizada digamos θ1 me describe la posición de dos de las lentejas. Tampoco es necesario que la
coordenada generalizada determine la posición de una o varias de las partı́culas en forma directa, por ejemplo
26 CAPÍTULO 2. PRINCIPIO DE D’ALEMBERT Y ECUACIONES DE LAGRANGE

una o más coordenadas del centro de masa del sistema puede ser útil como coordenada generalizada, y es bien
sabido que no necesariamente debe haber presencia de masa en este punto. Es quizás más apropiado decir
que cada coordenada qj está asociada al sistema. De esto se desprende que una fuerza generalizada tampoco
está necesariamente asociada a una partı́cula o incluso a un subsistema, solo podemos decir en general que
está asociada a una coordenada generalizada qj . Recordemos además que qj , Qj pueden tener en principio
cualquier dimensión siempre y cuando Qj δqj tenga dimensiones de energı́a. En la Ec. (2.39), Fi corresponde
a la resultante de las fuerzas internas y externas sobre la partı́cula i, pero hay una suma sobre todas las
partı́culas (las posiciones y fuerzas iniciales ri , Fi sı́ están asociadas a partı́culas), esto enfatiza el hecho de
que Qj no está necesariamente asociado a una partı́cula.

Con esta misma filosofı́a, debemos comprender que un desplazamiento compatible con las ligaduras (real
o virtual) de una sola coordenada independiente, no necesariamente implica el desplazamiento de una sola
partı́cula del sistema. Tomemos de nuevo el péndulo doble de la Fig. 2.1, los ángulos θ1 y θ2 que cada lenteja
hace con la vertical son un conjunto posible de coordenadas generalizadas independientes. Un desplazamiento
virtual δθ2 compatible con las ligaduras y que mantenga fijo a θ1 es claro que implica solo el movimiento de
la lenteja m2 permaneciendo m1 en su lugar. Sin embargo, un desplazamiento virtual δθ1 de la lenteja m1
compatible con las ligaduras y que deje fija la coordenada θ2 claramente requiere el movimiento de la otra
lenteja, pues mover la lenteja 1 sin mover la lenteja 2 viola las ligaduras y modifica el valor de θ2 . Es claro sin
embargo, que al menos virtualmente existe un movimiento simultáneo de las dos lentejas que es compatible con
las ligaduras y que varı́a la coordenada θ1 y deja fija la coordenada θ2 . Tal movimiento consiste en desplazar
m1 de modo que l1 permanezca constante y que la lenteja m2 se mueva de tal forma que el vector relativo r12
que une a las dos masas, ejecute una translación paralela. Nuevamente no hay una asociación directa entre
coordenadas generalizadas y partı́culas del sistema.

2.7. Relación entre sistemas coordenados y sistemas de referencia

Un conjunto de tres ejes coordenados linealmente independientes que convergen en un punto (origen) forman
un sistema de referencia respecto al cual se pueden medir cantidades fı́sicas tales como velocidades, desplaza-
mientos, aceleraciones, fuerzas, torques etc. Existen infinitos sistemas de referencia inerciales y no inerciales.
Una vez fijado el sistema de referencia (usualmente inercial), existen infinitos sistemas de coordenadas que se
pueden construı́r. En particular, para describir un sistema fı́sico particular es posible usar diversos sistemas
de coordenadas generalizadas para un mismo sistema de referencia. Por ejemplo, las transformaciones
(2.5) describen un cambio de sistema coordenado pero bajo el mismo sistema de referencia. En la mayor parte
del tratamiento de este texto se trabajará con transformaciones de coordenadas sin cambio en el sistema de
referencia, a menos que se indique lo contrario.

Notemos en particular que aunque el Lagrangiano puede tener un comportamiento funcional diferente
cuando se cambia de sistema coordenado (sin cambio en el sistema de referencia), su valor numérico debe
permanecer intacto ya que la energı́a cinética y potencial no sufren ningún cambio (en su valor numérico). En
contraste, si se cambia de sistema de referencia claramente pueden cambiar la energı́a cinética y la potencial, e
incluso es posible que haya que agregar fuerzas ficticias, por tanto un cambio en el sistema de referencia puede
alterar tanto el valor numérico como el comportamiento funcional del Lagrangiano. Es necesario entonces
diferenciar muy bien entre un cambio de sistema coordenado y un cambio de sistema de referencia.
2.8. EJEMPLOS DE USO DE LA FORMULACIÓN LAGRANGIANA 27

2.8. Ejemplos de uso de la formulación Lagrangiana


2.8.1. Partı́cula en el espacio
Una partı́cula de masa m, se mueve bajo la acción de una fuerza F. Dado que no hay ligaduras, usaremos
coordenadas cartesianas a manera de coordenadas generalizadas. La energı́a cinética se escribe

1  ∂T ∂T ∂T
T = m ẋ2 + ẏ 2 + ż 2 ; = = =0
2 ∂x ∂y ∂z
∂T ∂T ∂T
= mẋ ; = mẏ ; = mż
∂ ẋ ∂y ∂z

las fuerzas generalizadas Ec. (2.39) nos dan

1
X ∂ri ∂r
Qj ≡ Fi · =F· ; qj = x, y, z
∂qj ∂qj
i=1

Qx = (Fx , Fy , Fz ) · (x, y, z) = Fx
∂x
similarmente Qy = Fy y Qz = Fz . Con lo cual las ecuaciones de movimiento (2.17) quedan

d d d
(mẋ) = Fx ; (mẏ) = Fy ; (mż) = Fz
dt dt dt
con lo cual llegamos a las ecuaciones de movimiento de Newton.
Veamos las ecuaciones de la misma partı́cula pero ahora en dos dimensiones y en coordenadas polares, la
transformación a estas coordenadas generalizadas es

x = r cos θ ; y = r sin θ

las velocidades son


ẋ = ṙ cos θ − r θ̇ sin θ ; ẏ = ṙ sin θ + r θ̇ cos θ
para calcular la energı́a cinética calculamos v2
  2  2
v2 = ẋ2 + ẏ 2 = ṙ cos θ − r θ̇ sin θ + ṙ sin θ + r θ̇ cos θ
 
v2 = ṙ 2 cos2 θ + sin2 θ + r 2 θ̇ 2 sin2 θ + cos2 θ − 2r ṙ θ̇ cos θ sin θ + 2r ṙθ̇ sin θ cos θ
v2 = ṙ 2 + r 2 θ̇ 2

por tanto11
1  
T = m ṙ 2 + r 2 θ̇ 2 (2.40)
2
ahora calculemos las fuerzas generalizadas, Ecs. (2.39)

∂r ∂ (r ur ) ∂ur
Qr = F · =F· = F · ur + F · r = F · ur = Fr (2.41)
∂r ∂r ∂r
∂r ∂ (r ur ) ∂ur
Qθ = F· =F· =F·r = F · ruθ = rFθ (2.42)
∂θ ∂θ ∂θ
obsérvese que no todas las fuerzas (y coordenadas) generalizadas tienen las mismas dimensiones. Qr tiene
dimensiones de fuerza en tanto que Qθ tiene dimensiones de torque (o trabajo), las coordenadas generalizadas
11
El lector puede también calcular la energı́a cinética a partir de las Ecs. (2.24).
28 CAPÍTULO 2. PRINCIPIO DE D’ALEMBERT Y ECUACIONES DE LAGRANGE

respectivas tienen dimensiones de longitud y son adimensionales respectivamente, de modo que los productos
Qj δqj siempre tienen dimensiones de trabajo. Escribamos las dos ecuaciones de Lagrange (2.17)12
 
∂T 2 ∂T d ∂T
= mr θ̇ ; = mṙ ; = mr̈ ⇒
∂r ∂ ṙ dt ∂ ṙ
mr̈ − mr θ̇ 2 = Fr

el segundo término es el de aceleración centrı́peta. Veamos la ecuación asociada a θ


 
∂T ∂T d ∂T
=0 ; = mr 2 θ̇ ; = mr 2 θ̈ + 2mr ṙθ̇
∂θ ∂ θ̇ dt ∂ θ̇

la ecuación resulta
mr 2 θ̈ + 2mr ṙ θ̇ = rFθ

se puede demostrar que el término de la izquierda es la derivada temporal del momento angular, en tanto que
el término de la derecha es el torque aplicado. Hemos llegado entonces a la expresión en componentes de la
Ec. (1.3).

2.8.2. Máquina de Atwood

Figura 2.2: (a) Máquina de Atwood. La longitud L = l1 +l2 +πR de la cuerda es constante, y por tanto también
lo es l = l1 + l2 . (b) Vista aérea de una cuenta sobre un alambre que rota con velocidad angular constante ω,
en ausencia de un campo gravitacional.

La máquina de Atwood mostrada en la Fig. 2.2a, consiste en una polea fija, por la cual pasa una cuerda
que se ata a dos masas m1 y m2 . Asumiremos que la cuerda no desliza sobre la polea y que la masa de la polea
y de la cuerda son despreciables. La ligadura (longitud constante de la cuerda) es holónoma y esclerónoma.
12
En este problema no podemos usar las ecuaciones de Lagrange dadas por (2.22, 2.23), puesto que no conocemos la forma
especı́fica de la fuerza y por tanto, no sabemos si ésta posee un potencial asociado.
2.8. EJEMPLOS DE USO DE LA FORMULACIÓN LAGRANGIANA 29

Solo hay una coordenada independiente x, la otra es fijada por la ligadura de longitud constante de la cuerda.
Usando el origen en el centro de la polea, la energı́a potencial es
1
V = −M1 gx − M2 g (l − x) ; T = (M1 + M2 ) ẋ2
2
el Lagrangiano queda
1
L≡T −V =(M1 + M2 ) ẋ2 + M1 gx + M2 g (l − x)
2
solo hay una coordenada generalizada x, y por tanto una sola ecuación de movimiento del tipo (2.23)
 
∂L d ∂L
= (M1 − M2 ) g ; = (M1 + M2 ) ẍ ⇒
∂x dt ∂ ẋ
(M1 + M2 ) ẍ = (M1 − M2 ) g

de aquı́ sale el valor de la aceleración el cual coincide con el ya obtenido por métodos tradicionales. Obsérvese
que la fuerza de ligadura de tensión no aparece en el formalismo y no se puede obtener directamente de él.

2.8.3. Cuenta sobre un alambre


Una cuenta se desliza sin rozamiento por un alambre que rota uniformemente alrededor de un eje fijo
perpendicular al alambre (ver Fig. 2.2b). Este es un ejemplo de ligadura holónoma reónoma, ya que la posición
de la cuenta depende explı́citamente del tiempo13

x = r cos ωt ; y = r sin ωt (2.43)

donde ω es la velocidad angular de rotación del alambre y r la distancia entre la cuenta y el eje de rotación.
Aquı́ estamos tomando un sistema coordenado polar con θ = ωt de modo que θ̇ = ω. El potencial es nulo ya
que asumimos que el sistema no está en un campo gravitacional, de modo que el Lagrangiano es T . La energı́a
cinética se puede tomar de (2.40)14
1 
T = m ṙ 2 + r 2 ω 2 (2.44)
2
vemos que en este problema hay una sola coordenada generalizada r, puesto que el tiempo es un parámetro y
no se considera una coordenada. La ecuación de movimiento es

mr̈ − mrω 2 = 0 ⇒ r̈ − ω 2 r = 0

la solución general es de la forma

r (t) = Aeωt + Be−ωt ; ṙ (t) = ωAeωt − ωBe−ωt

si la cuenta está inicialmente en reposo sobre el alambre entonces ṙ (0) = 0 y por tanto A = B. La solución
queda entonces 
r = A eωt − e−ωt = C sinh ωt
y la cuenta se mueve exponencialmente hacia afuera para tiempos suficientemente largos, la constante C se
determina con la posición inicial. De nuevo el método no nos da directamente la fuerza de ligadura que actúa
sobre la cuenta. Dicha ligadura (fuerza normal N ) se puede hallar con la expresión del momento angular

L = |r × p| = rmvθ = rmrω = mr 2 ω = mωC 2 sinh2 ωt


dL
= τ = 2mω 2 C 2 sinh ωt cosh ωt
dt
13
Como es usual, esta dependencia explı́cita con el tiempo se debe a algún agente externo, que mantiene el alambre a velocidad
angular constante.
14
La energı́a cinética (2.44), contiene un término independiente de ṙ. Esto se debe a que las ecuaciones de transformación (2.43)
de coordenadas cartesianas a coordenadas generalizadas dependen explı́citamente del tiempo (ver discusión en la sección 2.3.1).
30 CAPÍTULO 2. PRINCIPIO DE D’ALEMBERT Y ECUACIONES DE LAGRANGE

que produce la fuerza normal N = τ /r, de modo que la fuerza de ligadura es

τ 2mω 2 C 2 sinh ωt cosh ωt


N = =
r C sinh ωt
2
N = 2mω C cosh ωt

la cual actúa en dirección perpendicular al alambre y al eje de rotación.

2.8.4. Gauge electromagnético en la formulación Lagrangiana


Los potenciales vectorial A (r, t) y escalar φ (r, t) en electrodinámica, contienen toda la información fı́sica
de los campos eléctricos y magnéticos. Por otro lado, es bien sabido que el campo electromagnético es invariante
ante la transformación gauge
∂Ψ (r, t)
A (r, t) → A (r, t) + ∇Ψ (r, t) ; φ (r, t) → φ (r, t) − (2.45)
∂t
donde Ψ (r,t) es una función diferenciable en todos sus argumentos, pero por lo demás arbitraria. Por otro lado,
ya hemos escrito el Lagrangiano asociado a una partı́cula cargada q, inmersa en un campo electromagnético
caracterizado por los potenciales A (r, t) y φ (r, t), Ec. (2.32) Pág. 23

L = T − qφ (r, t) + qA (r,t) · v (t) (2.46)

Queremos ver el efecto que las transformaciones (2.45) tienen sobre este Lagrangiano y sobre las ecuaciones
de Lagrange. Con las transformaciones (2.45), el Lagrangiano (2.46) se convierte en
 
′ ′ ′ ∂Ψ (r, t)
L = T − qφ (r,t) + qA (r, t) · v (t) = T − q φ (r, t) − + q [A (r, t) + ∇Ψ (r, t)] · v (t)
∂t
∂Ψ
L′ = (T − qφ + qA · v) + q + q v · ∇Ψ
  ∂t

L′ = L + q + v · ∇ Ψ (r, t)
∂t
ahora bien, el término en paréntesis cuadrados corresponde a la llamada “derivada convectiva” que es igual a
la derivada total en el tiempo teniendo en cuenta que el campo Ψ depende solo de las coordenadas y el
tiempo, y no por ejemplo de ṙ u otras derivadas de orden superior (esto se puede verificar fácilmente con la
regla de la cadena). Podemos escribir entonces
d
L′ = L + [qΨ (r, t)]
dt
pero esta transformación no afecta a las ecuaciones de movimiento como se discutió en la sección 2.3.2,
mostrando que las transformaciones (2.45) dejan invariante la Fı́sica como era de esperarse.

2.8.5. Un sistema ligado de dos masas


Sean dos masas idénticas m unidas por una barra rı́gida de peso despreciable y longitud l. El centro de
masa del sistema está restringido a moverse sobre un cı́rculo de radio a como lo indica la Fig. 2.3a. El campo
gravitacional es perpendicular al plano del cı́rculo. Calcularemos el Lagrangiano en un sistema adecuado de
coordenadas generalizadas.
Podemos suponer sin pérdida de generalidad que el cı́rculo yace sobre el plano XY , y el eje Z va en sentido


contrario al campo gravitacional. De la Fig. 2.3a, es claro que la rapidez del centro de masa es vC = aψ̇ y
por tanto la energı́a cinética del centro de masa es
1 2
TCM = (m + m) vC = ma2 ψ̇ 2
2
2.8. EJEMPLOS DE USO DE LA FORMULACIÓN LAGRANGIANA 31

Figura 2.3: (a) Sistema de dos masas unidas por una barra sin masa. El cı́rculo esta sobre el plano XY y
por tanto, también el centro de masa. Aunque cada masa puede tener una componente Z. (b) Sistema de
coordenadas esféricas para determinar la posición de una de las masas con respecto al centro de masa.

La energı́a cinética del sistema vista por el laboratorio, es la suma de la energı́a cinética del centro de
masa mas la energı́a cinética con respecto al centro de masa, como se aprecia en la Ec. (1.32) Pág 13. Para
encontrar la energı́a cinética del sistema con respecto al CM, recurrimos a la Fig. 2.3b, en donde describimos
la posición de una de las partı́culas en un sistema coordenado con origen en el CM, tal que los ejes XC YC ZC
son instantáneamente paralelos a los ejes XY Z. En el CM, los momentos de ambas partı́culas son opuestos y
como las masas son iguales, las velocidades son iguales y opuestas, la energı́a cinética vista por el CM es

1 1
T ′ = mv ′2 + mv ′2 = mv ′2
2 2

donde v ′ es la rapidez de cada partı́cula vista por el CM. Construyendo coordenadas esféricas r, θ, φ sobre
este nuevo sistema de referencia, es claro que r = l/2 de modo que para la partı́cula en cuestión, la posición
está dada por
l l l
x = sin θ cos φ ; y = sin θ sin φ ; z = cos θ
2 2 2
de modo que

l l l
ẋ = (θ̇ cos φ cos θ − φ̇ sin θ sin φ) ; ẏ = (θ̇ sin φ cos θ + φ̇ sin θ cos φ) ; ż = − θ̇ sin θ
2 2 2

la rapidez al cuadrado de cada partı́cula vista por el centro de masa es

v ′2 = ẋ2 + ẏ 2 + ż 2

calculando cada término al cuadrado tenemos


32 CAPÍTULO 2. PRINCIPIO DE D’ALEMBERT Y ECUACIONES DE LAGRANGE

l2 h 2 i
ẋ2 = θ̇ cos2 φ cos2 θ − 2φ̇θ̇ cos φ cos θ sin θ sin φ + φ̇2 sin2 θ sin2 φ
4
l2 h 2 2 i
ẏ 2 = θ̇ sin φ cos2 θ + 2φ̇θ̇ sin φ cos θ sin θ cos φ + φ̇2 sin2 θ cos2 φ
4
l2 2 2
ż 2 = θ̇ sin θ
4
adicionándolos se obtiene

l2 2
v ′2 = [θ̇ cos2 θ(cos2 φ + sin2 φ) + φ̇2 sin2 θ(sin2 φ + cos2 φ) + θ̇ 2 sin2 θ]
4
l2 h 2  i
v ′2 = θ̇ cos2 θ + sin2 θ + φ̇2 sin2 θ
4
l2 2
v ′2 = (θ̇ + φ̇2 sin2 θ)
4
y la energı́a cinética total queda

T = TCM + T ′ = ma2 ψ̇ 2 + mv ′2
l2  2 
T = ma2 ψ̇ 2 + m θ̇ + φ̇2 sin2 θ
4
teniendo en cuenta que la componente Z de cada partı́cula es igual en XY Z que en XC YC ZC y que en el
sistema de referencia del CM las posiciones de las dos partı́culas son opuestas, tenemos V = mgz − mgz = 0.
De modo que el Lagrangiano coincide con la energı́a cinética.
Puede verse que ψ, θ, φ son coordenadas generalizadas independientes ya que cada una se puede mover
en un desplazamiento virtual, sin modificar las otras coordenadas y sin violar las ligaduras. Podemos verlo
también por un conteo de grados de libertad: los seis grados de libertad originales para dos partı́culas, se
pueden traducir en tres grados de libertad de la posición del centro de masa, y tres más del vector posición
relativo entre las dos partı́culas. La ligadura de mover el CM en un cı́rculo, nos lleva a un solo grado de libertad
para fijar el CM (el ángulo ψ), los tres grados de libertad del vector relativo se reducen a dos por la ligadura
de distancia constante que impone la barra.

2.8.6. Aro sobre plano inclinado deslizante


Un aro de masa m y radio R rueda sin deslizar sobre un plano inclinado o cuña de masa M que hace un
ángulo α con la horizontal como se vé en la Fig. 2.4. Encuentre el Lagrangiano y las ecuaciones de Lagrange
si el plano inclinado puede deslizar sin fricción a lo largo del suelo.
Tomaremos como coordenadas generalizadas una coordenada ξ que indica la posición del plano inclinado
(desde el origen hasta el vértice en ángulo recto del plano inclinado), y una coordenada S medida desde el
vértice superior de la cuña, hasta el punto de contacto del aro con la cuña. La longitud total de la cuña se
denota por l, y las coordenadas del centro del aro con respecto al origen serán x, y. La Fig. 2.4 nos muestra
que estas coordenadas vienen dadas por

x = ξ + S cos α + R sin α ; y = R cos α + (l − S) sin α

usando estas coordenadas, teniendo en cuenta que el momento de inercia de un aro es I = mR2 y que S = Rφ
por la condición de rodadura, la energı́a cinética del aro quedará en la forma
 2  2  1
1 2 2
 1 2 1  Ṡ 2
Thoop = m ẋ + ẏ + I φ̇ = m ξ̇ + Ṡ cos α + −Ṡ sin α + mR2
2 2 2 2 R2
2.8. EJEMPLOS DE USO DE LA FORMULACIÓN LAGRANGIANA 33

Figura 2.4: (a) Aro que rueda sin deslizar sobre un plano inclinado o cuña que desliza sobre el suelo sin
rozamiento. (b) Ilustración de las coordenadas generalizadas (ξ, S) y de la geometrı́a básica del problema.

de modo que
1 h 2 i 1
Thoop = m ξ̇ + Ṡ 2 cos2 α + 2ξ˙Ṡ cos α + Ṡ 2 sin2 α + mṠ 2
2 2
1 h 2 i
= m 2Ṡ + ξ̇ 2 + 2ξ˙Ṡ cos α
2
pero la energı́a cinética total debe incluı́r el movimiento translacional de la cuña a lo largo de x
1
Tplane = M ξ˙2
2
la energı́a total es entonces
1
T = Thoop + Tplane = mṠ 2 + (m + M ) ξ̇ 2 + mξ̇ Ṡ cos α
2
y la energı́a potencial nos da
V = mgy = mg [R cos α + (l − S) sin α]
no es necesario incluı́r la energı́a potencial asociada a la cuña ya que ésta no cambia. El Lagrangiano queda
entonces
1
L = mṠ 2 + (m + M ) ξ˙2 + mξ̇ Ṡ cos α − mg [R cos α + (l − S) sin α] (2.47)
2
De modo que
 
d ∂L d   ∂L
= 2mṠ + mξ̇ cos α = 2mS̈ + mξ̈ cos α ; = mg sin α
dt ∂ Ṡ dt ∂S
 
d ∂L d h i ∂L
= (m + M ) ξ̇ + mṠ cos α = (m + M ) ξ¨ + mS̈ cos α ; =0
dt ∂ ξ˙ dt ∂ξ
con lo cual se obtienen las ecuaciones de Lagrange para S, ξ

2mS̈ + mξ̈ cos α − mg sin α = 0 (2.48)


(m + M ) ξ̈ + mS̈ cos α = 0 (2.49)

Es importante tener en cuenta que la energı́a cinética traslacional del aro no se puede escribir en la forma 12 mṠ 2 ,
ya que S está medida con respecto al vértice superior de la cuña, que no define un sistema inercial. Esto debido
al movimiento (en general acelerado) de la cuña con respecto al origen fijo en el suelo (que sı́ se supone inercial).
34 CAPÍTULO 2. PRINCIPIO DE D’ALEMBERT Y ECUACIONES DE LAGRANGE

2.8.7. Un potencial generalizado para una fuerza central


Supongamos que una partı́cula se mueve en un plano bajo la influencia de una fuerza central dada por
 
1 ṙ 2 − 2r̈ r
F= 2 1− ur (2.50)
r c2
donde r es la distancia de la partı́cula al centro de fuerzas y c la velocidad de la luz en el vacı́o. Esta expresión
representa la fuerza entre dos cargas en la electrodinámica de Weber. Queremos plantear un Lagrangiano
asociado a este sistema.
La partı́cula se mueve en un plano, pero no tiene ligaduras dentro del plano. Lo natural es entonces utilizar
coordenadas generalizadas polares r y θ. Ya calculamos las expresiones para las fuerzas generalizadas de una
partı́cula no ligada en coordenadas polares Ecs. (2.41, 2.42) Pág. 27. Puesto que esta fuerza es central tenemos
que Qθ = rFθ = 0 y Qr = Fr = F .
Se puede verificar que el potencial dado por
1 ṙ 2
U (r, ṙ) =
+ 2 (2.51)
r c r
es un potencial generalizado válido para reproducir el valor de la fuerza generalizada Qr = F , donde F es
dado en (2.50). Para verlo partimos de las expresiones (2.26, 2.27) para el potencial y la fuerza generalizados,
de modo que la fuerza generalizada asociada al potencial en (2.51) es
 
∂U d ∂U
Qr = Fr = − + (2.52)
∂r dt ∂ ṙ
     
∂U 1 ṙ 2 d ∂U d 2ṙ 2ṙ ṙ 2r̈ 2ṙ 2 2r̈
= − 2− 2 2 ; = 2
= 2
− 2
+ 2
= − 2 2
+ 2
∂r r c r dt ∂ ṙ dt c r c r c r c r c r
con lo cual
   
∂U d ∂U 1 ṙ 2 2ṙ 2 2r̈ 1 ṙ 2 2r̈ 1 ṙ 2 − 2r̈r
− + = 2+ 2 2− 2 2+ 2 = 2− 2 2+ 2 = 2 1−
∂r dt ∂ ṙ r c r c r c r r c r c r r c2
que reproduce la expresión (2.50) de la fuerza. Para qj ≡ θ, también se cumple la condición (2.27) obteniéndose
cero en ambos miembros. Pues no debe perderse de vista que U debe reproducir todas las fuerzas generalizadas
asociadas al problema.
Hay dos puntos que vale la pena enfatizar: (a) Los potenciales generalizados deben reproducir la fuerza ge-
neralizada y no la fuerza real (aunque en este caso ambas coinciden en magnitud). (b) El potencial generalizado
no tiene porqué ser único, ya que solo se busca una solución a la ecuación diferencial (2.27), sin condiciones
iniciales ni de frontera. La no unicidad del potencial generalizado es de esperarse, puesto que incluso el poten-
cial “tradicional” no es único. Por supuesto, el potencial generalizado tiene un gauge más complejo, ya que si
redefinimos el potencial generalizado en la forma
U ′ (q, q̇, t) = U (q, q̇, t) + W (q, q̇, t) (2.53)
en donde W (q, q̇, t) satisface la ecuación
 
d ∂W (q, q̇, t) ∂W (q, q̇, t)
− =0 ∀qj del sistema (2.54)
dt ∂ q̇j ∂qj
es claro que U ′ (q, q̇, t) reproduce las mismas fuerzas generalizadas que U (q, q̇, t). En particular W = cte es un
gauge posible.
Usando la energı́a cinética (2.40) para una partı́cula en coordenadas polares y el potencial generalizado
(2.51) el Lagrangiano queda
1   1 ṙ 2

L = T − U = m ṙ 2 + r 2 θ̇ 2 − 1+ 2
2 r c
¿puede el lector encontrar una forma sistemática de encontrar un potencial generalizado, por medio de la
ecuación (2.52) y la expresión (2.50) para la fuerza?.
2.8. EJEMPLOS DE USO DE LA FORMULACIÓN LAGRANGIANA 35

2.8.8. Partı́cula inmersa en un fluı́do


Sea una partı́cula de masa m que cae verticalmente bajo la influencia de la gravedad y de una fuerza viscosa
de la forma F = −kv, debida a su inmersión en un fluı́do (el aire), donde v es la velocidad instantánea de la
partı́cula. Plantearemos las ecuaciones de movimiento para esta partı́cula a partir de su Lagrangiano y de la
función de disipación de Rayleigh. El problema es unidimensional no ligado, de modo que el Lagrangiano es
simplemente
1
L = mż 2 − mgz
2
Pero debido a la presencia de una fuerza de fricción, el Lagrangiano no contiene toda la información Fı́sica
del sistema. Es necesario incorporar la función de disipación de Rayleigh. La ecuación de movimiento viene
dada por (2.38)
 
d ∂L ∂L ∂̥
− + = 0
dt ∂ ż ∂z ∂ ż
mz̈ + mg + kz ż = 0 (2.55)
donde hemos usado la función de disipación ̥ de la Ec. (2.37), para una partı́cula. Puesto que la fuerza viscosa
aumenta con la rapidez, llega una momento en el cual la fuerza viscosa se anula con el peso (al menos si la
caı́da dura el suficiente tiempo). Esta condición de cancelación nos llevará entonces a la velocidad terminal de
la partı́cula
mg
mg + kz żterm = 0 ⇒ żterm = − (2.56)
kz
cuando la partı́cula alcanza esta velocidad, ésta ya no experimenta una aceleración y continúa con esta velocidad
hasta que haga contacto con el piso. Esto se aprecia combinando las Ecs. (2.55, 2.56) para obtener z̈term = 0.
La Ec. (2.55) se puede resolver para todo tiempo haciendo el cambio de variable
mg
Z = ż + ; Ż = z̈
kz
con lo cual la Ec. (2.55) queda

kz kz Ż kz
z̈ + g + ż = 0 ⇒ Ż + Z = 0 ⇒ =−
m m Z m
cuya solución es
kz kz
ln Z = − t + B ⇒ Z = Ce− m t ⇒
m
mg kz
ż + = Ce− m t (2.57)
kz
tomando la condición inicial ż (t = 0) = v0 , en esta ecuación se tiene que
mg
v0 + =C
kz
con lo cual la ecuación (2.57) queda
 
mg kz mg
ż = + v0 e− m t − (2.58)
kz kz
la velocidad terminal se puede obtener haciendo t → ∞, con lo cual se reproduce adecuadamente el valor dado
en la Ec. (2.56). Nótese que por los dos caminos seguidos, es claro que la velocidad terminal es independiente
del valor (y del signo) de v0 . En particular, si |v0 | > |żterm | y la partı́cula va inicialmente hacia abajo (v0 < 0),
la fuerza viscosa disminuye la rapidez de la partı́cula hasta que alcanza el valor de la velocidad terminal, esto
debido a que inicialmente la fuerza viscosa supera en magnitud al peso. El lector puede obtener fácilmente
z (t) integrando (2.58).
36 CAPÍTULO 2. PRINCIPIO DE D’ALEMBERT Y ECUACIONES DE LAGRANGE

2.9. Ventajas del formalismo Lagrangiano


El Lagrangiano es invariante ante un cambio en las coordenadas generalizadas y es mucho mas conveniente
para definir la mecánica o en general la Fı́sica de sistemas contı́nuos. Por otro lado, diferentes sistemas Fı́sicos
(incluso no necesariamente mecánicos) pueden exhibir Lagrangianos semejantes15 . Tomemos el ejemplo del
siguiente Lagrangiano
1X 1X X qj2 X
L= Lj q̇j2 + Mjk q̇j q̇k − + Vj (t) qj (2.59)
2 2 2Cj
j j6=k j j

con la siguiente función de disipación


1X
̥= Rj q̇j2 (2.60)
2
j

Se puede demostrar que el Lagrangiano (2.59) y la función de disipación (2.60) junto con las ecuaciones
de Lagrange con término disipativo Ecs. (2.38), reproducen las ecuaciones diferenciales que describen a un
conjunto de circuitos RLC con fuentes, y acoplados a través de las inductancias mutuas Mjk . Los valores
Lj , Cj , Vj denotan inductancias, capacitancias y voltages de fuentes respectivamente. qj denota las cargas
eléctricas que en este caso han sido tomadas como las variables dinámicas (y por tanto, como las coordenadas
generalizadas), este no es un ejemplo mecánico en el sentido de que las cargas no denotan de ningún modo
posiciones de las partı́culas o subsistemas. No obstante, el sistema tiene un análogo mecánico: la inductancia es
una medida de la resistencia al cambio en el flujo de carga, de modo que es un término de inercia, caso similar
el de las inductancias mutuas16 . El capacitor actúa como una fuente de energı́a potencial del tipo oscilador
armónico simple17 , la resistencia proporciona un término disipativo tipo Stokes (proporcional a la velocidad
generalizada), y finalmente la fuerza electromotriz equivale a un forzamiento externo que se traduce en una
energı́a potencial de la forma qj Vj (siendo Vj el voltage en un instante).
Finalmente, cabe resaltar que en el caso de ligaduras holónomas, en el cual es posible encontrar un con-
junto mı́nimo de coordenadas independientes, el sistema de ecuaciones Lagrangianas se reduce con respecto al
formalismo Newtoniano. Esto se debe a que cada ecuación de movimiento está asociada a una coordenada y
no a una partı́cula, y claramente el número de coordenadas independientes es menor o igual que 3N , siendo
N el número de partı́culas.

2.10. Ejercicios
1. Tres masas se acoplan por medio de cuerdas en serie, para formar un péndulo triple similar al de la Fig.
2.1. (a) Encuentre un conjunto apropiado de coordenadas generalizadas independientes. (b) Describa un
desplazamiento virtual para cada coordenada, de modo que las otras se mantengan fijas. (c) Plantee el
Lagrangiano asociado. Puede asumir que todas las masas se mueven en un plano.

2. Sea un sistema de referencia inercial S y un plano inclinado que está en reposo con respecto a S. Sobre el
plano inclinado desliza un bloque de masa m. Tomemos ahora otro sistema de referencia inercial S ′ que
se mueve a una velocidad constante v = −vux con respecto a S. (a) Demuestre que la fuerza normal del
plano inclinado sobre el bloque realiza trabajo (real) sobre el bloque, visto por el sistema de referencia
S ′ . (b) Demuestre que el trabajo virtual de la normal sobre el bloque es cero, tanto en S como en S ′ .
(Para más comentarios ver Refs. [5, 6]).
15
Hay que aclarar sin embargo que esta caracterı́stica no solo la presenta la formulación Lagrangiana, en realidad las ecuaciones
diferenciales en la mecánica Newtoniana ya presentan estas analogı́as.
16
La suma de los términos con autoinductancias e inductancias mutuas dan una “energı́a cinética” que solo depende cuadrática-
mente de las coordenadas generalizadas. Lo cual equivale en el caso mecánico a escenarios con ligaduras esclerónomas (ver sección
2.3.1, Ec. 2.24).
17
Efectivamente, se requiere una cierta energı́a para cargar el condensador, esta energı́a queda almacenada y se puede intercambiar
en otra forma de energı́a.
2.10. EJERCICIOS 37

3. Demuestre que las ecuaciones de Lagrange del tipo dado en (2.17) se pueden escribir equivalentemente
en la forma
∂ Ṫ ∂T
−2 = Qj
∂ q̇j ∂qj
usualmente conocidas como ecuaciones de Nielsen.

4. Encuentre el Lagrangiano y las ecuaciones de Lagrange de un péndulo esférico. Esto es, una masa puntual
en un campo gravitacional, que se mueve de modo que su distancia a un punto fijo permanece constante
(debido por ejemplo, a una varilla rı́gida sin masa). Plantee un Lagrangiano para pequeñas oscilaciones
en las coordenadas generalizadas apropiadas.

5. Obtenga el Lagrangiano y las ecuaciones de movimiento del péndulo doble ilustrado en la Fig. 2.1 Pág.
16, asumiendo que el movimiento se realiza en un plano. Plantee el Lagrangiano en una aproximación de
pequeñas oscilaciones para ambas coordenadas generalizadas θ1 y θ2 .

6. Supongamos una masa m1 que se mueve con movimiento circular uniforme, debido a que está atada a
una cuerda de longitud constante. Por otro lado, una partı́cula sometida a una fuerza central atractiva
de la forma F = −kr −2 ur , puede realizar un movimiento circular uniforme con las condiciones iniciales
apropiadas (ver capı́tulo 10). No obstante, la fuerza que mantiene la distancia constante en el primer
problema (tensión de la cuerda) se considera una fuerza de ligadura. En contraste, aunque la fuerza F =
−kr −2 ur mantenga constante la distancia de la partı́cula al centro de fuerzas, ésta NO se trata como
fuerza de ligadura. ¿En que consiste la diferencia?.

7. Encuentre un potencial generalizado U ′ que difiera de manera no trivial del potencial U en la Ec. (2.51)
y que genere las mismas fuerzas generalizadas.
Capı́tulo 3

Suplemento matemático: cálculo de


variaciones y multiplicadores de Lagrange

Existen muchos problemas de minimización o maximización que requieren de extender las herramientas
tradicionales del cálculo. Es frecuente encontrar problemas en los cuales una trayectoria completa se mapea en
un número real y queremos encontrar la trayectoria que minimiza o maximiza dicho número. En el presente
capı́tulo estudiaremos el cálculo variacional, como herramienta para resolver esta clase de situaciones. Por otra
parte, cuando un proceso de optimización está sujeto a ligaduras, el método de multiplicadores de Lagrange
es una herramienta sistemática para encontrar los extremos de una función sin violar las ligaduras impuestas.
Veremos más adelante que la combinación de las dos herramientas nos generará una formulación lagrangiana
con la capacidad de incluı́r y resolver las fuerzas de ligadura.

3.1. Algunos problemas prácticos de naturaleza variacional


Vamos a enunciar algunos problemas de ı́ndole práctica que no se pueden resolver con los métodos tradi-
cionales del cálculo. Aunque el principal objetivo del desarrollo del cálculo variacional en este texto será la
discusión del principio variacional de Hamilton enunciado en el capı́tulo 4, esta herramienta matemática tiene
muchas otras aplicaciones de modo que lo desarrollaremos en forma independiente al tema central.

3.1.1. Minimización del tiempo de caı́da de una partı́cula


Consideremos una partı́cula que se mueve en un campo gravitacional constante y que partiendo del reposo
viaja desde un punto (x1 , y1 ) hasta otro punto más bajo (x2 , y2 ) con la condición de que los puntos no se
encuentran sobre la misma vertical. Encuentre la curva que permita que la partı́cula haga este recorrido en el
menor tiempo posible.
Planteamiento: Tomemos a X como el eje vertical hacia abajo y a Y como el eje horizontal a la derecha.
Por simplicidad hacemos coincidir al punto (x1 , y1 ) con el origen. Tomando el cero de potencial en el origen,
y teniendo en cuenta que la partı́cula parte del reposo, se tiene que la energı́a mecánica de la partı́cula viene
dada por
1
T + V = mv 2 − mgx = 0
2

de modo que la rapidez está dada por v = 2gx, el tiempo de recorrido es
r  2
q dy
Z Z (x2 ,y2 ) Z (x2 ,y2 ) 2 2
(dx) + (dy) Z (x2 ,y2 ) 1 + dx
ds
t= dt = = √ = √ dx
(x1 ,y1 ) v (x1 ,y1 ) 2gx (x1 ,y1 ) 2gx

38
3.1. ALGUNOS PROBLEMAS PRÁCTICOS DE NATURALEZA VARIACIONAL 39

donde ds denota una longitud de arco infinitesimal de la trayectoria, la expresión queda finalmente
Z x2 s
1 + ẏ 2 dy
t= dx ; ẏ (x) ≡ (3.1)
x1 =0 2gx dx

por tanto será necesario encontrar el valor de y (x) que hace que la integral (3.1) nos dé el menor valor posible.
En cálculo ordinario los problemas de minimización usualmente consisten en encontrar el valor de un punto
(por ejemplo sobre la recta real) de modo que una cierta cantidad (función) nos de un valor mı́nimo al evaluarla
en ese punto. En contraste, aquı́ requerimos encontrar una trayectoria completa que haga que cierta cantidad
sea mı́nima, puesto que lo que tenemos en este problema es una trayectoria completa que se mapea en un
número (el tiempo).

3.1.2. Minimización de una superficie de revolución

Figura 3.1: Sólido de revolución generado alrededor de Y . (x1 , y1 ) y (x2 , y2 ) son puntos fijos y se busca la curva
generadora que pase por estos puntos y que minimice la superficie lateral del sólido.

Consideremos la superficie lateral generada por una curva que une dos puntos fijos (x1 , y1 ) y (x2 , y2 ) cuando
se revoluciona alrededor de un eje coplanar con los puntos y la curva (ver Fig 3.1). La idea es encontrar la
ecuación de la curva en cuestión a fin de que el área lateral generada por este sólido de revolución sea mı́nima.
Planteamiento: Asumiremos que la curva con extremos fijos se revoluciona alrededor del eje Y . Para
calcular el área lateral total de revolución, calculamos primero el diferencial de área dA sobre una pequeña
tira como se muestra en la figura 3.1. Dicho diferencial viene dado por
s  2
q
dy
dA = 2πx ds = 2πx (dx)2 + (dy)2 = 2πx 1 + dx
dx

nuevamente ds es la longitud infinitesimal de arco asociada a la curva. La expresión final para el área queda
Z x2 p
dy
A = 2π x 1 + ẏ 2 dx ; ẏ ≡ (3.2)
x1 dx

de nuevo la minimización del área consiste en encontrar una trayectoria completa que minimice tal cantidad.
40 CAPÍTULO 3. CÁLCULO VARIACIONAL Y MULTIPLICADORES DE LAGRANGE

3.2. Aspectos fundamentales del cálculo de variaciones


Un rasgo general de los ejemplos hasta aquı́ propuestos es que es necesario resolver el problema de como ha-
llar la trayectoria que hace que el valor de una cierta cantidad (tiempo de caı́da, superficie etc.) sea estacionario
(mı́nimo, máximo, punto de inflexión etc.). Este es uno de los problemas fundamentales del cálculo variacional.
Si denotamos por J a la cantidad genérica (tiempo de caı́da, superficie, etc.) que queremos minimizar podemos
ver que las Ecs. (3.1, 3.2) tienen la siguiente estructura genérica
Z x2
dy
J= f (y, ẏ, x) dx ; y = y (x) , ẏ ≡ (3.3)
x1 dx

a la cantidad y la llamaremos coordenada generalizada y la variable independiente x será considerada un


parámetro que modula la forma de la trayectoria y (x) y de su derivada ẏ (x). Para propósitos futuros es útil
considerar el caso en el cual tenemos más de una coordenada generalizada, de modo que la relación (3.3) se
extiende en la forma Z x2
J= f (y1 (x) , . . . , yn (x) , ẏ1 (x) , . . . , ẏn (x) , x) dx (3.4)
x1
donde las yi son coordenadas generalizadas independientes entre sı́ y solo pueden depender del parámetro x.
Definiremos ahora un espacio de configuraciones que se construye asignando un eje a cada coordenada
generalizada independiente yi de modo que tenemos un espacio cartesiano n dimensional, es necesario enfati-
zar que NO se asigna un eje asociado al parámetro x. Para un valor fijo de x una configuración completa de
coordenadas yi corresponde a una n−upla y por tanto a un punto en el espacio de configuraciones. Cuando
se mueve el parámetro x cambia la posición del punto en el espacio de configuraciones trazando una trayec-
toria en dicho espacio. Si queremos minimizar o maximizar J debemos encontrar el conjunto de trayectorias
unidimensionales yi (x) que hagan que la integral (3.4) sea mı́nima o máxima. Nótese que en el lenguaje del
espacio de configuraciones, el problema de minimizar o maximizar J se convierte en el problema de encontrar
la trayectoria en el espacio de configuraciones que minimice tal cantidad. Esta visión del problema resulta útil
en la medida que nos permite visualizar una única trayectoria de minimización o maximización en lugar de
muchas trayectorias independientes.
Replanteando el problema de la minimización de J, tal minimización significa que entre todas las trayec-
torias posibles que el sistema puede seguir en el espacio de configuraciones al barrer el parámetro entre los
extremos x1 y x2 , el sistema trazará la trayectoria que haga que el valor de la integral (3.4) sea estacionario
(estrictamente no sabemos aún si es mı́nimo máximo o punto de inflexión). Para una integral de lı́nea, el
término estacionario significa que el valor de la integral cuando se toma un cierto camino, tiene el mismo valor
dentro de infinitesimales de primer orden que cuando se toman caminos vecinos a éste (caminos que difieren
del original por desplazamientos generalizados infinitesimales). Recordemos que las trayectorias de las que
hablamos aquı́, son hipertrayectorias en el espacio n dimensional de configuraciones. Para integrales de lı́nea
este es el equivalente en funciones ordinarias a puntos con derivada cero. En este caso en lugar de un punto
tenemos una trayectoria entera.

3.2.1. Cálculo variacional en una dimensión


Trabajaremos el problema inicialmente en una dimensión. Sea una función f (y, ẏ, x) definida sobre un
camino y = y (x) donde x actúa como un parámetro, y y es una coordenada generalizada. ẏ denota la derivada
respecto al parámetro x. Queremos encontrar un camino particular y (x) de tal modo que la integral de lı́nea
J de la función f entre x1 y x2
Z x2
dy
J= f (y, ẏ, x) dx ; y = y (x) , ẏ ≡ (3.5)
x1 dx

adquiera un valor estacionario relativo a caminos vecinos que difieren infinitesimalmente del original. En nuestro
caso, consideraremos solo los caminos que cumplen la condición y (x1 ) = y1 , y (x2 ) = y2 , ya que esta condición
siempre se impone en el principio de Hamilton. Esto se denomina condición de extremos fijos. Si hacemos
3.2. ASPECTOS FUNDAMENTALES DEL CÁLCULO DE VARIACIONES 41

una gráfica de y vs x, para varias trayectorias posibles, encontramos que todas ellas deben converger en los
extremos de la gráfica, a los puntos (x1 , y1 ) y (x2 , y2 ). Nótese que la gráfica y vs x no representa el espacio
de configuraciones, ya que este último no contiene ningún eje que represente al parámetro. En este caso, el
espacio de configuraciones es de una sola dimensión, todos los caminos posibles son lı́neas rectas que conectan
a y1 con y2 . En consecuencia, lo que distingue a los diferentes caminos es su dependencia con el parámetro x.
Vale decir que la coordenada y es generalizada y por tanto no tiene necesariamente dimensiones de longitud.
Ahora parametrizaremos el problema de tal manera que se pueda hacer uso del cálculo ordinario. Cuando
partimos del camino correcto, la variación de J debe ser cero con respecto al cambio a una familia de caminos
vecinos que rotularemos con alguna variable infinitesimal α. Denotaremos a las trayectorias vecinas como
y (x, α), donde y (x, 0) es el camino correcto. Por ejemplo, si seleccionamos una función arbitraria η (x) pero
que cumpla con la condición de que se anula en los extremos i.e. en x = x1 y x = x2 una posible familia de
caminos vecinos estarı́a definida por
y (x, α) = y (x, 0) + αη (x) (3.6)
claramente, esta familia de funciones converge en sus extremos gracias a la condición impuesta a η (x) de
nulidad en los extremos. Asumiremos de aquı́ en adelante que el camino correcto y (x, 0) y la función η (x)
son de clase C 2 (contı́nuas y no singulares hasta la segunda derivada en todos sus argumentos) en el intervalo
[x1 , x2 ]. Con cualquier familia de curvas en la vecindad de y (x), el variacional J es función de α
Z x2
J (α) = f (y (x, α) , ẏ (x, α) , x) dx (3.7)
x1

dado que hemos definido que la curva correcta se encuentre cuando α = 0, la condición de punto estacionario
para J se puede ahora expresar en términos de cantidades del cálculo ordinario en la forma
 
dJ
=0 (3.8)
dα α=0
derivando la Ec. (3.7) bajo el signo integral de la forma usual, tenemos
Z x2  
dJ ∂f ∂y ∂f ∂ ẏ
= + dx (3.9)
dα x1 ∂y ∂α ∂ ẏ ∂α
naturalmente se asume que ∂x/∂α = 0 ya que α es un parámetro que me caracteriza cada curva en tanto que
x se mueve a lo largo de cada curva (con α fijo) claramente los dos son independientes1 . Veamos la segunda
integral en el miembro derecho de la Ec. (3.9)
Z x2 Z x2    Z x2   
∂f ∂ ẏ ∂f ∂ ∂y ∂f ∂ ∂y
dx = dx = dx (3.10)
x1 ∂ ẏ ∂α x1 ∂ ẏ ∂α ∂x x1 ∂ ẏ ∂x ∂α
para integrar por partes elegiremos
  
∂f ∂ ∂y
u= ; dv = dx
∂ ẏ ∂x ∂α
  h  i
con lo cual du = d ∂f = dxd ∂f
dx puesto que en la integral solo se hace variación en el parámetro x.
 ∂ ẏ  ∂ ẏ
∂y
Por otro lado, v = ∂α , y al integrar por partes queda
Z    Z x2   
x2
∂f ∂ ∂y ∂f ∂y x2 d ∂f ∂y
dx = − dx (3.11)
x1 ∂ ẏ ∂x ∂α ∂ ẏ ∂α x1 x1 dx ∂ ẏ ∂α

donde la continuidad hasta segundas derivadas de y (x, α) asegura que el intercambio de las derivadas parciales
es posible. Teniendo en cuenta que todas las curvas deben pasar a través de los puntos (x1 , y1 ) y (x2 , y2 ), se
1
En la Ec. (3.6) el término αη (x) que determina la desviación del camino variado con respecto al camino real, tiene toda su
dependencia de la variable x en la función η (x).
42 CAPÍTULO 3. CÁLCULO VARIACIONAL Y MULTIPLICADORES DE LAGRANGE

llega a que la derivada parcial de y con respecto a α deben ser cero en x1 y en x2 . En consecuencia, el primer
término de la derecha en (3.11) se anula y por tanto, la integral (3.10) queda
Z x2 Z x2   
∂f ∂ ẏ d ∂f ∂y
dx = − dx (3.12)
x1 ∂ ẏ ∂α x1 dx ∂ ẏ ∂α
reemplazando (3.12) en (3.9) se obtiene
Z x2    
dJ ∂f d ∂f ∂y
= − dx (3.13)
dα x1 ∂y dx ∂ ẏ ∂α
Combinando (3.8) con (3.13) se vé que la condición para que J adquiera un valor estacionario es
  Z x2      
dJ ∂f d ∂f ∂y
= − dx = 0 (3.14)
dα α=0 x1 ∂y dx ∂ ẏ ∂α α=0
por otro lado, la expresión (∂y/∂α)α=0 es una función arbitraria de x excepto por exigencias de continuidad
hasta la segunda derivada y la condición de extremos fijos. Por ejemplo, para el conjunto particular de familias
definidas por (3.6) el factor (∂y/∂α)α=0 viene dado por la función arbitraria η (x). Aplicaremos ahora a la Ec.
(3.14) el lema fundamental del cálculo de variaciones, según el cual si se cumple
Z x2
M (x) η (x) dx = 0 (3.15)
x1

para todas las funciones arbitrarias η (x) contı́nuas hasta la segunda derivada, entonces M (x) debe ser idénti-
camente cero en el intervalo (x1 , x2 ). La demostración formal se puede encontrar en los textos de cálculo
variacional pero se puede dar una visión eurı́stica de este lema: Imaginemos que construı́mos una función η (x)
que es positiva en una vecindad de un cierto punto y cero en las otras regiones, en consecuencia la integral
(3.15) solo será válida si M es cero en este punto arbitrariamente escogido. Por tanto, M debe ser cero en todo
el intervalo de integración. Usando este lema para la expresión (3.14) se obtiene
  
∂f d ∂f
− =0 (3.16)
∂y dx ∂ ẏ
esta ecuación diferencial nos da entonces como solución la trayectoria y = y (x) que deja estacionaria la
cantidad J. Ahora bien, la desviación infinitesimal de un camino dado con respecto al camino correcto y (x, 0)
en el punto x viene dado por  
∂y (x, α)
dα ≡ δy (x) (3.17)
∂α α=0
como en esta variación el parámetro x es fijo, el desplazamiento anterior corresponde a los desplazamientos
virtuales de las coordenadas generalizadas discutidos en la formulación de Lagrange (en la formulación de
Lagrange, el parámetro es el tiempo y permanece fijo cuando se hace un desplazamiento virtual de la coordenada
generalizada) por eso la notación δy. Por otro lado, la variación de J con respecto a su valor cuando se toma
el camino correcto es  
dJ
dα ≡ δJ (3.18)
dα α=0
la estacionaridad del variacional J cuando se evalúa sobre el camino correcto se manifiesta entonces como
δJ = 0. Multiplicando la Ec. (3.14) por dα y usando (3.17) y (3.18) resulta
Z x2    
∂f d ∂f
δJ = − δy dx = 0 (3.19)
x1 ∂y dx ∂ ẏ
requiriendo que y (x) satisfaga la ecuación (3.16). La variación de una integral de lı́nea usualmente se denota
como δ para diferenciarla de la variación de una función ordinaria. La Ec. (3.19) no contiene información
nueva con respecto a (3.14) pero resulta más adecuada para una extensión del formalismo cuando tenemos n
coordenadas generalizadas como veremos a continuación.
3.3. SOLUCIÓN DE LOS PROBLEMAS DE APLICACIÓN PLANTEADOS 43

3.2.2. Cálculo de variaciones multidimensional


Veamos la extensión al caso de n coordenadas generalizadas. El variacional lo escribimos como
Z 2
J= f (y1 (x) , . . . , yn (x) , ẏ1 (x) , . . . , ẏn (x) , x) dx (3.20)
1

donde todas las variables yi , ẏi son independientes entre sı́, y solo pueden depender del parámetro x. En este
caso tenemos una hipertrayectoria correcta y una familia posible de hipertrayectorias vecinas se puede escribir
como
yi (x, α) = yi (x, 0) + αηi (x) ; i = 1, . . . , n (3.21)
donde yi (x, 0) con i = 1, . . . , n, denotan la solución (trayectoria correcta en el espacio de configuraciones).
Las ηi (x) son independientes entre sı́, pero deben anularse en los extremos y ser contı́nuas hasta la segunda
derivada, por lo demás son completamente arbitrarias. Un cálculo semejante al anterior nos conduce a
Z 2X n  
∂J ∂f ∂yi ∂f ∂ ẏi
dα = dα + dα dx
∂α 1 ∂yi ∂α ∂ ẏi ∂α
i=1

de nuevo el segundo término se puede integrar por partes


Z 2 Z 2  
∂f ∂ 2 yi ∂f ∂yi 2 d ∂f ∂yi
dx = − dx (3.22)
1 ∂ ẏi ∂α ∂x ∂ ẏi ∂α 1 1 dx ∂ ẏi ∂α
y una vez más el primer término a la derecha se anula cuando imponemos la condición de extremos fijos. La
variación δJ con respecto a la trayectoria correcta del sistema, queda entonces
  Xn Z 2   
∂J ∂f d ∂f
dα = δJ = − δyi dx (3.23)
∂α α=0 1 ∂yi dx ∂ ẏi
i=1

donde análogamente al caso unidimensional


 
∂yi
δyi = dα (3.24)
∂α α=0

dado que las coordenadas generalizadas son independientes, sus variaciones δyi también lo son2 . Por ejemplo,
para la familia de curvas vecinas definidas por la Ec. 3.21, equivale a que los ηi (x) sean independientes. En
virtud de la independencia de los δyi , si la suma sobre i en la Ec. (3.23) es nula, debe ser nulo cada sumando.
Apelando entonces al lema fundamental del cálculo variacional, se llega a que la condición de estacionaridad
δJ = 0 nos lleva a   
∂f d ∂f
− = 0 , i = 1, . . . , n (3.25)
∂yi dx ∂ ẏi
las soluciones yi (x) forman entonces la trayectoria en el espacio de configuraciones que hace de J un valor
estacionario. Estas ecuaciones se conocen como las ecuaciones de Euler-Lagrange. Se pueden estudiar gene-
ralizaciones a variacionales en donde por ejemplo la función f dependa de derivadas superiores de y, existan
varios parámetros xj o se relaje la condición de extremos fijos. Para el análisis del principio de Hamilton que
se verá en el capı́tulo 4, las condiciones aquı́ trabajadas son lo suficientemente generales.

3.3. Solución de los problemas de aplicación planteados


Las Ecs. (3.16, 3.25) son generales y aplicables a muchos sistemas incluso no mecánicos. Estamos entonces
preparados para resolver los problemas propuestos al principio del capı́tulo y otros de caracterı́sticas similares.
2
Puesto que las coordenadas generalizadas yi son independientes, cada una se puede mover sin mover las otras y sin violar
posibles ligaduras. Y puesto que en el proceso x es fijo, los δyi corresponden a los desplazamientos virtuales que vimos en el
principio de D’Alembert.
44 CAPÍTULO 3. CÁLCULO VARIACIONAL Y MULTIPLICADORES DE LAGRANGE

3.3.1. Minimización de la longitud de arco


Antes de resolver los problemas planteados, veamos un problema de gran simplicidad y valor pedagógico.
Dados dos puntos fijos en un plano, encontrar la trayectoria que minimiza la longitud de arco. La longitud de
arco diferencial para una curva bidimensional se obtiene fácilmente
p dy
(ds)2 = (dx)2 + (dy)2 ⇒ ds = 1 + ẏ 2 dx ; ẏ ≡
dx
la longitud de arco total se escribe entonces como
Z x2 p
S= 1 + ẏ 2 dx (3.26)
x1

comparando (3.5) con (3.26) es claro que


p
f (y, ẏ, x) = 1 + ẏ 2

de las expresiones !
 
∂f d ∂f d ẏ
=0 ; = p
∂y dx ∂ ẏ dx 1 + ẏ 2
usando la Ec. (3.16) resulta !
d ẏ
p =0
dx 1 + ẏ 2
el término entre paréntesis debe ser constante
!

p =c
1 + ẏ 2

ahora bien, para que se cumpla esta relación es necesario que a su vez ẏ sea una constante relacionada con c
(aunque esta relación no es relevante), de lo cual se obtiene la ecuación de la trayectoria

ẏ = a ⇒ y = ax + b

que corresponde a una lı́nea recta, las constantes de integración a y b se determinan con los puntos fijos de la
trayectoria. Estrictamente, solo se ha demostrado que la trayectoria da un valor estacionario para la longitud
de arco pero sabemos por intuición que corresponde a un mı́nimo. En realidad se puede encontrar el tipo de
extremo a través de la segunda derivada funcional.

3.3.2. Minimización del tiempo de caı́da de una partı́cula: la braquistócrona


En la sección 3.1.1 planteábamos el problema de una partı́cula que se mueve en un campo gravitacional
constante desde un punto fijo inicial a otro final y se pedı́a encontrar la curva que minimice el tiempo de caı́da.
El planteamiento del problema nos llevó a la Ec. (3.1)
Z x2 s
1 + ẏ 2
t= dx
0 2gx

dado que la constante 2g no afecta el problema, identificamos la función f como
r
1 + ẏ 2
f= (3.27)
x
3.3. SOLUCIÓN DE LOS PROBLEMAS DE APLICACIÓN PLANTEADOS 45

∂f
como ∂y = 0 la ecuación de Euler Lagrange queda
 
d ∂f ∂f 1
=0 ⇒ = cte ≡ √
dx ∂ ẏ ∂ ẏ 2a

la parametrización de la constante de integración se hace por comodidad. Realizando ∂f /∂ ẏ en (3.27) resulta

ẏ 1 ẏ 2 1 
p = √ ⇒ 2
= ⇒ 2aẏ 2 = x 1 + ẏ 2
x (1 + ẏ 2 ) 2a x (1 + ẏ ) 2a
x x2
ẏ 2 = =
(2a − x) (2ax − x2 )

que se puede escribir en la forma Z


x dx
y= √
2ax − x2
haciendo el cambio de variable
x = a (1 − cos θ) ; dx = a sin θ dθ (3.28)
la integral queda de la forma
Z Z
a (1 − cos θ) (a sin θ dθ) a (1 − cos θ) sin θ dθ
y = q = p
2a [a (1 − cos θ)] − [a (1 − cos θ)]2 (2 − 2 cos θ) − (1 − 2 cos θ + cos2 θ)
Z Z
sin θ
y = √ a (1 − cos θ) dθ = a (1 − cos θ) dθ
1 − cos2 θ
cuya solución es
y = a (θ − sin θ) + b (3.29)
Con θ = 0, las Ecs. (3.28, 3.29) nos dan x = 0 y y = b. Si el punto inicial coincide con el origen entonces y = 0
cuando x = 0. Por tanto b = 0, y la constante a se ajusta para que la curva pase por el punto (x2 , y2 ). Las
ecuaciones (3.28, 3.29) para x e y quedan entonces

x = a (1 − cos θ) ; y = a (θ − sin θ)

que coinciden con las ecuaciones paramétricas del cicloide, con parámetro θ. Este perfil especı́fico del cicloide
se denomina una braquistócrona.

3.3.3. Minimización de una superficie de revolución


En la sección 3.1.2 tomamos una superficie generada por una trayectoria que une dos puntos fijos y que
se revoluciona alrededor de un eje coplanar con los puntos y la curva. La idea era encontrar la ecuación de la
trayectoria en cuestión que minimizara el área generada. El planteamiento nos llevó a la Ec. (3.2)
Z x2 p
A = 2π x 1 + ẏ 2 dx
x1

La función f vendrá dada por p


f =x 1 + ẏ 2
y empleamos las ecuaciones de Euler Lagrange (3.16) para lo cual calculamos

∂f ∂f xẏ
=0 ; =p
∂y ∂ ẏ (1 + ẏ 2 )
46 CAPÍTULO 3. CÁLCULO VARIACIONAL Y MULTIPLICADORES DE LAGRANGE

con lo cual la Ec. (3.16) nos da


" #
d xẏ xẏ 
p = 0 ⇒ p = cte ≡ a ⇒ x2 ẏ 2 = a2 1 + ẏ 2
dx (1 + ẏ 2 ) (1 + ẏ 2 )

⇒ ẏ 2 x 2 − a2 = a2

despejando ẏ Z
a a dx
ẏ = p ; y= p
(x2 − a2 ) (x2 − a2 )
esta integral nos da x
y = a cosh−1 +b
a
donde a y b son constantes de integración que se determinan requiriendo que la curva pase por los puntos
(x1 , y1 ) y (x2 , y2 ). Esta ecuación se puede invertir para escribir
 
y−b
x = a cosh
a

que se reconoce como la ecuación de la catenaria, que es la curva que se forma cuando una cuerda flexible
cuelga libremente entre dos puntos fijos en un campo gravitacional uniforme.
Nótese que si definimos x′ = x/a y y ′ = y/a obtenemos

x′ = cosh y ′ − b/a

obtenemos una ecuación con un solo parámetro b/a. Es decir, un reescalamiento de la curva nos deja un solo
parámetro relevante.
Para algunos pares de puntos fijos se puede encontrar un conjunto único de constantes de integración a
y b. Para otros puntos es posible encontrar dos catenarias a través de los puntos fijos en tanto que en otros
casos no hay solución para los valores de a y b. Adicionalmente, solo hemos demostrado que la curva deja a
la superficie en un valor estacionario, de modo que la catenaria no siempre representa un valor mı́nimo, en
algunos casos representa un punto de inflexión. Para algunas combinaciones de pares de puntos fijos el mı́nimo
absoluto en la superficie de revolución se genera a partir de una curva compuesta de segmentos de lı́nea recta.
Esta clase de solución no se puede encontrar con el formalismo presentado aquı́, ya que en nuestra formulación
las f (α, x) y las η (x) se consideran contı́nuas hasta la segunda derivada, en tanto que la curva descrita arriba
no es derivable en los puntos de “quiebre” entre segmentos.
Las anteriores consideraciones muestran las restricciones que se derivan de nuestra formulación sobre la
condición variacional estacionaria.

3.4. Ligaduras y multiplicadores de Lagrange (opcional)


A continuación estudiaremos un método sistemático para tratar problemas en los que se pretende encontrar
los extremos de una función en donde sus argumentos están sujetos a ligaduras. La técnica de los multiplicadores
de Lagrange que ilustraremos aquı́, no está necesariamente asociada a problemas variacionales, pero se puede
combinar con estos últimos, especialmente cuando tenemos ligaduras integrales.
Supongamos que queremos encontrar el extremo de una función de tres variables independientes x1 , x2 , x3 ;
en tal caso la condición de extremo (o punto de silla) es

df = 0 (3.30)

es decir
∂f ∂f ∂f
df = dx1 + dx2 + dx3 = 0 (3.31)
∂x1 ∂x2 ∂x3
3.4. LIGADURAS Y MULTIPLICADORES DE LAGRANGE (OPCIONAL) 47

dado que las variables son independientes, podemos variar por ejemplo x1 sin variar x2 y x3 de modo que
dx2 = dx3 = 0 con lo cual ∂x1 f = 0. Procediendo idénticamente con las otras variables vemos que la condición
necesaria y suficiente para tener un extremo es
∂f ∂f ∂f
= = =0 (3.32)
∂x1 ∂x2 ∂x3
sin embargo ocurre con frecuencia que las variables que se utilizan a priori para describir al sistema no son
independientes. En muchos casos la ligadura se puede escribir en forma de una ecuación de la forma

ϕ (x1 , x2 , x3 ) = 0 (3.33)

en este caso la Ec. (3.32) no necesariamente se cumple ya que las variables no se pueden mover independiente-
mente. Una forma de tratar el problema es despejar una variable de modo que nos quedamos con dos variables
independientes y hacemos el tratamiento normal con dos variables independientes. Sin embargo, este despeje
puede ser muy difı́cil en la práctica, por lo cual exploraremos un método alternativo conocido como el método
de los multiplicadores indeterminados de Lagrange.
De la Ec. (3.33), es claro que dϕ = 0, de modo que se cumple una relación similar a (3.31) que escribiremos
en la forma
∂ϕ ∂ϕ ∂ϕ
− dx3 = dx1 + dx2
∂x3 ∂x1 ∂x2
con lo cual tenemos
∂f ∂f ∂x f ∂ϕ
df = dx1 + dx2 + 3 dx3
∂x1 ∂x2 ∂x3 ϕ ∂x3
 
∂f ∂f ∂x3 f ∂ϕ ∂ϕ
= dx1 + dx2 − dx1 + dx2
∂x1 ∂x2 ∂x3 ϕ ∂x1 ∂x2
 
∂f ∂f ∂ϕ ∂ϕ ∂x f
df = dx1 + dx2 + λ dx1 + dx2 ; λ ≡ − 3 (3.34)
∂x1 ∂x2 ∂x1 ∂x2 ∂x3 ϕ

donde hemos supuesto que ∂x3 ϕ 6= 0. Nótese que con este procedimiento, hemos logrado que la expresión de
df quede en términos solo de los diferenciales independientes dx1 y dx2 . Escribamos ahora
 
∂f ∂f ∂f ∂ϕ ∂ϕ ∂ϕ
df + λdϕ = dx1 + dx2 + dx3 + λ dx1 + dx2 + dx3
∂x1 ∂x2 ∂x3 ∂x1 ∂x2 ∂x3

puesto que df = dϕ = 0 tenemos que df + λdϕ = 0. Teniendo en cuenta esto y redistribuyendo términos, se
tiene      
∂f ∂ϕ ∂f ∂ϕ ∂f ∂ϕ
+λ dx1 + +λ dx2 + +λ dx3 = 0 (3.35)
∂x1 ∂x1 ∂x2 ∂x2 ∂x3 ∂x3
ahora tenemos en cuenta que dos de las variables son independientes, digamos x1 , x2 . Nótese que el multipli-
cador λ en la Eq. (3.34) ha sido definido de modo que

∂f ∂ϕ
+λ =0 (3.36)
∂x3 ∂x3
siempre que ∂x3 ϕ 6= 0. La Eq. (3.35) queda de la forma
   
∂f ∂ϕ ∂f ∂ϕ
+λ dx1 + +λ dx2 = 0
∂x1 ∂x1 ∂x2 ∂x2

y dado que x1 y x2 se pueden variar independientemente, cada término entre paréntesis debe anularse
   
∂f ∂ϕ ∂f ∂ϕ
+λ =0 ; +λ =0 (3.37)
∂x1 ∂x1 ∂x2 ∂x2
48 CAPÍTULO 3. CÁLCULO VARIACIONAL Y MULTIPLICADORES DE LAGRANGE

cuando se cumplen las Ecs. (3.36, 3.37) se tiene que df = 0 y f es un extremo (o punto de silla). Si añadimos la
ecuación de ligadura (3.33) tendremos cuatro ecuaciones con cuatro incógnitas x1 , x2 , x3 , λ. Nótese sin embargo
que en general nuestro interés es calcular los xi , de modo que λ no necesita ser hallado. Por esta razón, a λ se
le denomina multiplicador indeterminado de Lagrange. Es claro que el método falla cuando todos los
coeficientes de λ se anulan en el extremo i.e. si

∂ϕ
= 0 para i = 1, 2, 3;
∂xi xi =xi,0

donde (x1,0 , x2,0 , x3,0 ) es el punto donde se ubica el extremo de f . En este caso resulta imposible despejar λ.
En lo anterior hemos identificado a f como la función que toma un valor extremo y ϕ la ecuación que
expresa la ligadura. Sin embargo, la forma de las Ecs. (3.36, 3.37) nos muestran que podemos intercambiar los
papeles de estas funciones.

3.4.1. Generalización a un conjunto arbitrario de variables y de ligaduras


Supongamos que tenemos una función con n variables f = f (x1 , . . . , xn ) y que dichas variables están
sujetas a m ligaduras de la forma

ϕk (x1 , . . . , xn ) = 0 ; k = 1, . . . , m (3.38)
con m ≤ n. Multipliquemos cada ecuación de ligadura por un factor λk

λk ϕk (x1 , ..., xn ) = 0 ; k = 1, . . . , m (no suma)

es claro que
m n m
" n #
X X ∂f X X ∂ϕk
df + λk dϕk = dxi + λk dxi
∂xi ∂xi
k=1 i=1 k=1 i=1
m n
( m
)
X X ∂f X ∂ϕk
df + λk dϕk = + λk dxi
∂xi ∂xi
k=1 i=1 k=1
Pm
y dado que df = dϕk = 0 tenemos que df + k=1 λk ϕk = 0 de modo que
n
( m
)
X ∂f X ∂ϕk
+ λk dxi = 0 (3.39)
∂xi ∂xi
i=1 k=1

como los xi no son independientes, los términos entre paréntesis no necesariamente son nulos. No obstante,
podemos ahora elegir las m − n primeras variables como independientes, en tanto que las m últimas están
determinadas por las ligaduras (3.38). Ahora aprovechamos el carácter indeterminado de los λk para eliminar
las coordenadas dependientes, lo cual haremos exigiendo que los λk tomen valores tales que se satisfagan las
ecuaciones
Xm
∂f ∂ϕk
+ λk = 0 ; i = n − m + 1, ..., n (3.40)
∂xi ∂xi
k=1
para las últimas m variables. Al reemplazar (3.40) en (3.39) se obtiene
n−m
( m
)
X ∂f X ∂ϕk
+ λk dxi = 0
∂xi ∂xi
i=1 k=1

y como las coordenadas involucradas en esta ecuación son las independientes, podemos afirmar que cada
término entre paréntesis es cero de modo que
X ∂ϕk m
∂f
+ λk = 0 ; i = 1, ..., m − n (3.41)
∂xi ∂xi
k=1
3.5. PROBLEMAS VARIACIONALES CON LIGADURAS (OPCIONAL) 49

y uniendo las Ecs. (3.40, 3.41) se obtiene simplemente


m
X ∂ϕk
∂f
+ λk = 0 ; i = 1, ..., n (3.42)
∂xi ∂xi
k=1

siendo m el número de ligaduras y n el número de variables xi . Hay un multiplicador λk por cada ligadura ϕk .
Las Ecs. (3.42) junto con las ligaduras (3.38) nos dan un conjunto de n + m ecuaciones con n + m incógnitas
(las n variables y los m multiplicadores λk ).

Minimización de la superficie de un cilindro con volumen constante


Encontraremos el radio R y la altura H de un cilindro circular recto, que minimice su área superficial total,
manteniendo constante el volumen V0 del cilindro.
La función a minimizar es el área superficial total del cilindro que depende de las variables R y H

f (R, H) = 2πR2 + 2πRH (3.43)

la ecuación de ligadura (3.38) corresponde en este caso a la restricción de mantener el volumen constante, y
se puede escribir como
ϕ (R, H) = πR2 H − V0 = 0 (3.44)
puesto que solo hay una ecuación de ligadura, hay un solo multiplicador indeterminado λ. Reemplazando (3.43,
3.44) en (3.42) las ecuaciones para f (R, H) con multiplicadores para las variables R y H son
∂f (R, H) ∂ϕ ∂f (R, H) ∂ϕ
+λ = 0 ; +λ =0
∂H ∂H ∂R ∂R
2πR + λπR2 = 0 ; πR + 2πλRH = 0
2 + λR = 0 ; 1 + 2λH = 0

en la última lı́nea hemos tomado la solución no trivial R 6= 0, con lo cual se obtiene


2
λ=− ; R = 4H
R
reemplazando esto último en la ecuación de ligadura (3.44)

π (4H)2 H = V0 ⇒
r r
3 V0 4V0
H = ; R=
16π π

3.5. Problemas variacionales con ligaduras (opcional)


Tomemos de nuevo el problema variacional en el cual buscamos un camino que haga que la integral (3.20)
Z 2
J= f (y1 (x) , . . . , yn (x) , ẏ1 (x) , . . . , ẏn (x) , x) dx (3.45)
1

sea estacionaria. Siendo las yi coordenadas generalizadas que solo pueden depender del parámetro x. La codición
de estacionaridad es
Z 2
δJ = δ f (y1 (x) , . . . , yn (x) , ẏ1 (x) , . . . , ẏn (x) , x) dx = 0 (3.46)
1

asumamos sin embargo, que el problema debe respetar ciertas restricciones que se manifiestan en ecuaciones
de ligadura de la forma
ϕk (y1 , y2 , . . . , yn ; x) = 0 ; k = 1, 2, . . . , m (3.47)
50 CAPÍTULO 3. CÁLCULO VARIACIONAL Y MULTIPLICADORES DE LAGRANGE

multiplicando cada una de las ecuaciones (3.47) por un multiplicador indeterminado que en general depende
del parámetro, i.e. λk = λk (x), sumando sobre k e integrando en el mismo rango que en la ecuación 3.45, se
obtiene
Z 2Xm
λk (x) ϕk (y1 , y2 , . . . , yn ; x) dx = 0
1 k=1

es claro por tanto que


Z m
2X
δ λk (x) ϕk (y1 , y2 , . . . , yn ; x) dx = 0 (3.48)
1 k=1

en algunas ocasiones, las ligaduras de por sı́ adquieren forma integral i.e.
Z 2
ϕk (y1 , y2 , . . . , yn ; x) dx = cte ; k = 1, 2, . . . , m
1

en este caso podemos multiplicar cada una de estas ecuaciones por un λk (que en este caso no dependerı́a del
parámetro x), sumar sobre k y aplicar la variación quedando
Z m
2X
δ λk ϕk (y1 , y2 , . . . , yn ; x) dx = 0 (3.49)
1 k=1

nótese que las Ecs. (3.48, 3.49) son esencialmente idénticas excepto por la dependencia de λk del parámetro x
en la Ec. (3.48). Sumando cualquiera de estas dos ecuaciones con la Ec. (3.46) resulta
Z " m
#
2 X
δ f (yi , ẏi , x) + λk ϕk (yi ; x) dx = 0
1 k=1

redefiniendo
m
X
g (yi , ẏi , x) ≡ f (yi , ẏi , x) + λk ϕk (yi ; x)
k=1

tenemos que
Z 2
δ g (yi , ẏi , x) dx = 0
1

y con el mismo procedimiento que nos llevó de la Ec. (3.20) a la Ec. (3.23), obtenemos
Z 2 n Z
X 2   
∂g d ∂g
δ g (yi , ẏi , x) dx = − δyi dx = 0 (3.50)
1 1 ∂yi dx ∂ ẏi
i=1

en esta caso no podemos decir que cada integrando es cero ya que los desplazamientos virtuales δyi no son
independientes. De nuevo, usamos el carácter indeterminado de los multiplicadores de Lagrange para exigir
que los términos asociados a las coordenadas dependientes se anulen
  
∂g d ∂g
− = 0 , i = n − m + 1, . . . , n (3.51)
∂yi dx ∂ ẏi

con lo cual la Ec. (3.50) queda

X Z 2
n−m
∂g
 
d ∂g

− δyi dx = 0
1 ∂yi dx ∂ ẏi
i=1
3.5. PROBLEMAS VARIACIONALES CON LIGADURAS (OPCIONAL) 51

y dado que las coordenadas que quedan son independientes, podemos afirmar que cada integrando es cero, y
junto a las Ecs. (3.51) esto nos lleva a
  
∂g d ∂g
− = 0 , i = 1, . . . , n (3.52)
∂yi dx ∂ ẏi
m
X
g (yi , x) ≡ f (yi , ẏi , x) + λk ϕk (yi ; x) (3.53)
k=1

los multiplicadores de Lagrange tienen aplicaciones en múltiples escenarios de la Fı́sica más allá de los que
utilizaremos en el presente texto (ver por ejemplo la Ref. [7]).

Minimización del area lateral de un sólido de revolución

Figura 3.2: Sólido de revolución generado por la función f (x) definida en el intervalo [x0 , xf ], cuando se rota
alrededor del eje X.

Sea una función f (x) definida en un intervalo [x0 , xf ] de longitud L, de tal manera que genera un sólido de
revolución alrededor del eje X como el de la Fig. 3.2. Queremos encontrar una función f (x) de tal manera que
el sólido generado posea la mı́nima área lateral, pero de tal forma que el volumen V0 permanezca constante.
Un diferencial de área lateral, es el área lateral del cilindro de radio f (x) y altura dx como se vé en la Fig.
3.2, i.e. dA = 2πf (x) dx. El área lateral es entonces
Z xf
2π f (x) dx = A (3.54)
x0

Un diferencial de volumen del sólido, es el volumen del cilindro de radio f (x) y altura dx de modo que
dV = πf (x)2 dx. La ligadura de volumen constante queda entonces en la forma
Z xf
π f (x)2 dx = V0 (3.55)
x0

en este caso la función f (x) que se pretende optimizar es la coordenada generalizada y x es el parámetro del
cual depende. Tenemos entonces las asignaciones
df (x)
y (x) → f (x) , ẏ → ≡ f˙
dx
52 CAPÍTULO 3. CÁLCULO VARIACIONAL Y MULTIPLICADORES DE LAGRANGE

Para evitar confusiones, conviene hacer un cambio de notación en la Ecs. (3.52, 3.53)
       X m
∂G d ∂G
− = 0 ; G f, f˙, x ≡ F f, f˙, x + λk ϕk (yi ; x) (3.56)
∂f dx ∂ f˙
k=1
dado que la cantidad a optimizar es el área lateral, y el volumen actúa como la ligadura, podemos escribir
Z xf   Z xf  
J ≡A= F f, f˙, x dx ; ϕ f, f˙, x dx = V0 (3.57)
x0 x0

comparando las Ecs. (3.57) con las Ecs. (3.54, 3.55), tenemos que
   
˙ ˙
F f, f , x = F (f ) = 2πf ; ϕ f, f , x = ϕ (f ) = πf 2 (3.58)
es decir F y ϕ solo dependen de la coordenada generalizada y no dependen explı́citamente del parámetro x ni
de f˙. Sustituyendo (3.58) en la segunda de las Ecs. (3.56), tenemos entonces
 
G f, f˙, x = G (f ) = 2πf + λπf 2

que al reemplazar en la primera de las Ecs. (3.56) nos da


1
2π + 2πλf = 0 ; f =−
λ
dado que λ es constante en el caso de ligaduras
integrales, tenemos que f (x) = −λ−1 = cte y el sólido de
revolución es un cilindro cuyo radio es λ−1 . Nótese que efectivamente f (x) y −f (x) generan el mismo sólido
de revolución. Definiremos entonces f (x) ≡ R > 0. El radio del cilindro se puede determinar de la ligadura
(3.55) r
Z xf
2 2 V0
π R dx = πR L = V0 ⇒ f (x) ≡ R =
x0 πL

3.6. Ejercicios
1. Encuentre el radio R y la altura H de un cilindro circular recto, que minimice su área lateral, manteniendo
constante el volumen V0 del cilindro.
2. Sea una elipse descrita por la ecuación
 x 2  y 2
+ = 1.
a b
Encuentre el rectángulo inscrito de mayor área. Muestre que el cociente entre el área de este rectángulo
y el área de la elipse es 2/π.
3. Sea f (x) el generador de un sólido de revolución alrededor del eje X como en la Fig. 3.2. Encuentre la
función f (x) que genere un sólido de revolución con el mı́nimo volumen, manteniendo fijo el valor del
área lateral.
4. Para un sólido de revolución como el de la Fig. 3.2, con densidad ρ constante, los momentos de inercia
con respecto a los ejes X e Y vienen dados por (ver problema 1 pág 410, y Ref. [8])
Z Z xf
πρ xf 4 IX
IX = f (x) dx ; IY = + πρ x2 f (x)2 dx
2 x0 2 x0

utilizando ligadura de masa constante para el sólido encuentre (a) La función f (x) que minimiza IX , (b)
la función f (x) que minimiza a IY . (c) ¿A que sólidos de revolución corresponden estas funciones?.
5. Encuentre la curva f (x) de longitud L, limitada por abajo por el eje X, que pasa por los puntos (−a, 0)
y (a, 0), y que encierra la mayor área. Este tipo de problemas se conocen como problemas isoperimétricos
o problemas de Dido.
Capı́tulo 4

Principio variacional de Hamilton y


ecuaciones de Lagrange

En el capı́tulo 2, las ecuaciones de Lagrange se derivaron de un principio diferencial (principio de D’Alembert),


puesto que se basaba en desplazamientos virtuales infinitesimales de cada coordenada generalizada del sistema,
a partir de cierta configuración instantánea. En el presente capı́tulo, derivaremos las ecuaciones de Lagrange de
un principio integral en el cual a partir de cierta configuración instantánea, se considerarán desplazamientos
finitos de cada coordenada generalizada en cierto intervalo de tiempo, y se realizarán variaciones virtuales
infinitesimales de estos movimientos.
Dado que las coordenadas generalizadas dan en general todas las variables independientes del sistema para
determinar la configuración de éste, es útil describir el movimiento del sistema a través de dichas variables
usando el tiempo como parámetro. Si tenemos n coordenadas generalizadas qi es útil construir un hiperespacio
cartesiano n dimensional donde cada eje coordenado representa a una de las qi . Una configuración instantánea
del sistema estará representada por un punto en este hiperespacio, que llamaremos espacio de configura-
ciones. Ahora bien, la evolución del sistema (el paso del tiempo) se representa a través del movimiento de
este punto en el espacio de configuraciones, dibujando una curva en dicho espacio. En este espı́ritu cuando
hablemos del movimiento del sistema entre los tiempos t1 y t2 estaremos hablando del movimiento del
punto en el espacio de configuraciones, y la trayectoria de movimiento del sistema será la curva trazada
por este punto. Por supuesto el tiempo actúa como parámetro en esta hipercurva y a cada punto de la trayec-
toria puede estar asociado mas de un valor del tiempo1 . El espacio de configuraciones no tiene necesariamente
ninguna conexión con el espacio fı́sico tridimensional, sus coordenadas no necesariamente definen longitudes
y las n−uplas, en este espacio no necesariamente definen vectores euclidianos. De la misma forma la hiper-
curva que define la trayectoria de movimiento del sistema no necesariamente está asociada a la trayectoria de
una partı́cula real, tengamos en cuenta que un punto en el hiperespacio de configuraciones y su movimiento,
describen la configuración y movimiento de todo el sistema.
De las condiciones para derivar las ecuaciones de Lagrange, surge de manera natural la siguiente definición:
Un sistema monogénico, es aquél para el cual todas las fuerzas (excepto tal vez las de ligadura) son
derivables de un potencial escalar generalizado que es función de las coordenadas generalizadas, las velocidades
generalizadas y el tiempo, en el sentido de las Ecs. (2.26, 2.27). Nótese que esta definición se traduce en el
hecho de que para esta clase de sistemas, el Lagrangiano contiene toda la información Fı́sica del sistema. Por
ejemplo, un sistema con fuerzas disipativas no es monogénico ya que la fuerza de rozamiento viscosa descrita
por la ecuación (2.36) no se puede escribir en términos de un potencial generalizado, esto se traduce en el hecho
de que el Lagrangiano no contiene toda la dinámica del sistema y dicha información debe ser completada con
la función de disipación de Rayleigh como se puede ver en la Ec. (2.38).
Volviendo a los sistemas monogénicos, cuando el potencial generalizado solo es función de las coordena-
das generalizadas, tenemos un sistema conservativo. A continuación enunciaremos un principio asociado al
1
Decimos que el tiempo es un parámetro porque no construı́mos un eje asociado al tiempo en el espacio de configuraciones. El
movimiento del parámetro tiempo regula el barrido del punto sobre la curva en el espacio de configuraciones.

53
54 CAPÍTULO 4. PRINCIPIO VARIACIONAL DE HAMILTON Y ECUACIONES DE LAGRANGE

movimiento del sistema, cuando éste es monogénico


Principio de Hamilton: El movimiento en el espacio de configuraciones de un sistema monogénico desde
un punto P1 en el tiempo t1 hasta un punto P2 en el tiempo t2 , es tal que la integral de lı́nea
Z t2
I≡ L (q1 , . . . , qn , q̇1 , . . . , q̇n , t) dt (4.1)
t1

tiene un valor estacionario para la trayectoria real del movimiento.


A la integral anterior se le llama la acción y el Lagrangiano se define en la forma usual L ≡ T − U . Esto
significa que entre todas las trayectorias posibles que el sistema puede seguir en el espacio de configuraciones
entre los tiempos t1 y t2 , el sistema viajará a través de la trayectoria que haga que el valor de la integral (4.1)
sea estacionario. Para una integral de lı́nea, el término estacionario significa que el valor de la integral cuando
se toma un cierto camino, tiene el mismo valor dentro de infinitesimales de primer orden que cuando se toman
caminos vecinos a éste (caminos que difieren del original por desplazamientos generalizados infinitesimales).
Insistimos en que todas las trayectorias de las que hablamos aquı́, son realmente hipertrayectorias en el espacio
de configuraciones y no están asociadas en general a ninguna trayectoria real. Para integrales de lı́nea este es
el equivalente en funciones ordinarias a puntos con derivada cero. En este caso en lugar de un punto tenemos
una trayectoria entera.
De acuerdo con el principio de Hamilton, la trayectoria del sistema es tal que la variación de la acción para
valores fijos de t1 y t2 es nula
Z t2
δI = δ L (q1 , . . . , qn , q̇1 , . . . , q̇n , t) dt = 0 (4.2)
t1

cuando las ligaduras son holónomas el principio de Hamilton es condición necesaria y suficiente para la vali-
dez de las ecuaciones de Lagrange. Una ventaja de esta formulación es que la acción es invariante ante una
transformación de un sistema de coordenadas generalizadas a otro. Adicionalmente, veremos que el formalis-
mo variacional permitirá incluı́r las ligaduras en el formalismo y tratar algunos problemas con ligaduras no
holónomas. Finalmente, una formulación variacional es más adecuada en el tratamiento de campos y sistemas
contı́nuos.

4.1. Aplicación del cálculo de variaciones al principio de Hamilton


En el principio de Hamilton el sistema debe ser monogénico de modo que el Lagrangiano no depende
de derivadas temporales de q mas altas que la primera i.e. L = L (qi , q̇i , t). La condición de extremos fijos
está implı́cita en su enunciado, y finalmente el único parámetro es el tiempo. De lo anterior es claro que el
problema de la estacionaridad de la acción es un problema variacional como el tratado en la sección 3.2 del
capı́tulo 3. Comparando las ecuaciones (3.20) y (4.1), vemos que podemos utilizar las ecuaciones (3.25) con
las siguientes asignaciones
x → t, yi → qi , f (yi , ẏi , x) → L (qi , q̇i , t)
con lo cual las Ecs. (3.25) conducen a las ecuaciones de Lagrange
 
d ∂L ∂L
− = 0 ; i = 1, . . . , n (4.3)
dt ∂ q̇i ∂qi
al derivar estas ecuaciones debemos suponer que las coordenadas generalizadas son todas independientes, lo
cual siempre es posible cuando las ligaduras son holónomas.

4.2. Extensión del principio de Hamilton a algunos sistemas no holónomos


Si recordamos el procedimiento hecho en las secciones (3.2.1) y (3.2.2) observaremos que en la deducción
de las ecuaciones de Lagrange a partir del principio de Hamilton, el hecho de que la ligadura sea holónoma
4.2. EXTENSIÓN DEL PRINCIPIO DE HAMILTON A ALGUNOS SISTEMAS NO HOLÓNOMOS 55

solo se usa en el último paso cuando se considera que todas las coordenadas generalizadas (y sus despla-
zamientos virtuales) son independientes entre sı́. Sin embargo, cuando las ligaduras son no holónomas, las
coordenadas generalizadas ya no serán independientes y no es posible reducirlas por medio de ecuaciones de
la forma fα (q1 , .., qn , t) = 0. De modo que en general tendremos que trabajar con un sistema coordenado no
independiente.
Desde el punto de vista del principio variacional, esto influye en la forma en que se construyen los caminos
variados. Un desplazamiento δy (o δq), nos lleva de un punto en el camino real a otro punto sobre un camino
variado, cuando las coordenadas son independientes es el camino variado final el que importa y no la forma
como se construye. Pero cuando tenemos coordenadas no independientes relacionadas entre sı́ por ligaduras,
la forma en que se construye el camino influye ya que los desplazamientos virtuales en general no respetan las
ligaduras. Por tanto resulta importante si el camino variado fué construı́do con desplazamientos que respetan
o no las ligaduras.
Un conjunto de ligaduras no holónomas para el cual es susceptible el tratamiento variacional, es el conjunto
de ligaduras de la forma
n
X
alk dqk + alt dt = 0 ; l = 1, . . . , m (4.4)
k=1

es decir una relación lineal entre los diferenciales de las coordenadas y el tiempo. El ı́ndice l determina el
número de ecuaciones l = 1, . . . , m. Los coeficientes alk , alt pueden ser funciones de las coordenadas y el
tiempo. Estas ligaduras son en general no integrables a menos que se cumplan las relaciones

∂f ∂f
alk = ; alt = (4.5)
∂qk ∂t

para alguna función f = f (qi , t). En tal caso la ligadura es realmente holónoma. Tomaremos el caso general
en donde las relaciones (4.5) no necesariamente se cumplen. En principio se podrı́a pensar en construir un
camino variado a través de desplazamientos virtuales infinitesimales del camino real que sean compatibles con
la ligadura (4.4). Sin embargo se ha demostrado que no se puede construir tal camino variado, a menos que
las ligaduras sean integrables en cuyo caso dichas ligaduras son realmente holónomas. Construiremos de todas
formas un principio variacional en el cual los desplazamientos virtuales generarán los caminos variados aunque
no sea en forma compatible con las ligaduras. Como los desplazamientos virtuales son fijos en el tiempo, las
ligaduras para los desplazamientos virtuales se escriben
n
X
alk δqk = 0 ; l = 1, ..., m (4.6)
k=1

el camino variado en general no satisface las ecuaciones (4.4). La idea es ahora reducir los desplazamientos
virtuales a los independientes. Para eliminar los desplazamientos virtuales sobrantes se utiliza el método de los
multiplicadores indeterminados de Lagrange. Para ello multiplicamos la ecuación (4.6) por una cantidad
indeterminada λl que puede ser función de las coordenadas y del tiempo
n
X
λl alk δqk = 0 (4.7)
k=1

por supuesto, hay m cantidades λl una para cada ecuación de ligadura. Si asumimos que el principio de
Hamilton es también válido para sistemas no holónomos2 , y usamos las Ecs. (3.23), entonces el principio de
Hamilton conduce a
Z 2 X n   
∂L d ∂L
− dt − δqk = 0 (4.8)
1 ∂qk dt ∂ q̇k
k=1

2
La naturaleza de la ligadura no aparece en el principio de Hamilton. Solo se exige que el sistema sea monogénico.
56 CAPÍTULO 4. PRINCIPIO VARIACIONAL DE HAMILTON Y ECUACIONES DE LAGRANGE

con el fin de poder introducir los λl dentro del principio de Hamilton, sumamos la Ec. (4.7) sobre los valores
de l e integramos en el tiempo entre t1 y t2
Z 2 "X n X m
#
dt λl alk δqk = 0 (4.9)
1 k=1 l=1

ahora sumamos (4.8) y (4.9) obteniéndose


Z 2 X n
"   m
#
d ∂L ∂L X
dt − + λl alk δqk = 0 (4.10)
1 dt ∂ q̇k ∂qk
k=1 l=1

las δqk siguen siendo dependientes, ya que están ligadas por las m ecuaciones (4.6). De modo que las n − m
primeras de ellas se pueden elegir en forma independiente, en tanto que las m últimas están determinadas por
las Ecs. (4.6). Para eliminar los desplazamientos sobrantes, aprovechamos la arbitrariedad en las cantidades
λl . Exigiremos entonces que estas cantidades satisfagan las ecuaciones
  m
d ∂L ∂L X
− + λl alk = 0 ; k = n − m + 1, . . . , n (4.11)
dt ∂ q̇k ∂qk
l=1

es decir, para las últimas m coordenadas generalizadas. Reemplazando (4.11) en (4.10) se obtiene
" #
Z 2 n−mX d  ∂L  ∂L X m
dt − + λl alk δqk = 0
1 dt ∂ q̇k ∂qk
k=1 l=1

pero ahora las δqk que intervienen son las independientes, de modo que se puede afirmar que
  m
d ∂L ∂L X
− + λl alk = 0 ; k = 1, . . . , n − m. (4.12)
dt ∂ q̇k ∂qk
l=1

las Ecs. (4.11, 4.12) nos dan el sistema completo de ecuaciones de Lagrange para sistemas no holónomos
  m
d ∂L ∂L X
− + λl alk = 0 ; k = 1, . . . , n. (4.13)
dt ∂ q̇k ∂qk
l=1

este sistema tiene n ecuaciones con n + m incógnitas (n coordenadas y m multiplicadores). Las m ecuaciones
faltantes serı́an las ecuaciones de ligadura (reales) Ecs. (4.4), que enlazan las qk . No obstante, es más conveniente
para la solución del sistema tener estas ligaduras en forma de ecuaciones diferenciales de primer orden
n
X
alk q̇k + alt = 0 ; l = 1, . . . , m (4.14)
k=1

de modo que las ecuaciones (4.13, 4.14) definen el sistema completo de n + m ecuaciones e incógnitas.

4.2.1. Significado fı́sico de los multiplicadores de Lagrange: fuerzas de ligadura


Ahora nos preguntamos por el significado de los multiplicadores de Lagrange. Para ello supongamos que
quitamos las ligaduras del sistema y las sustituı́mos por fuerzas aplicadas que mantienen intacta la dinámica
de éste. Las ecuaciones de movimiento quedan entonces de la forma
 
d ∂L ∂L
− = QLk ; k = 1, ..., n (4.15)
dt ∂ q̇k ∂qk

donde QLk son las fuerzas generalizadas asociadas a las fuerzas aplicadas que emulan a las de ligadura. Na-
turalmente, estas fuerzas aplicadas deben ser iguales a las de ligadura para mantener intacta la dinámica del
4.2. EXTENSIÓN DEL PRINCIPIO DE HAMILTON A ALGUNOS SISTEMAS NO HOLÓNOMOS 57

sistema3 . Por otro lado, la invarianza de la dinámica también requiere que las ecuaciones (4.13) y (4.15) sean
idénticas. Esto conduce a
Xm
QLk = − λl alk ; k = 1, ..., n (4.16)
l=1
esto significa que esta formulación tiene una información adicional que no habı́amos obtenido con las anteriores
formulaciones: las fuerzas de ligadura. Para ver con mayor claridad la relación entre los λl y las fuerzas reales
de ligadura, aplicamos la definición de fuerza generalizada a las Ecs. (4.16)
N
X X m
∂ri
FL
i · =− λl alk ; k = 1, ..., n (4.17)
∂qk
i=1 l=1

donde FL i representa las fuerzas reales de ligadura. Vemos que en la relación interviene una suma sobre todas
las fuerzas reales de ligadura y otra suma sobre todos los multiplicadores, la relación entre multiplicadores y
fuerzas reales de ligadura es entonces bastante indirecta.

4.2.2. Formalismo de los multiplicadores para ligaduras holónomas


Por supuesto las ligaduras no holónomas descritas por (4.4) no son las más generales pero cubren una
gran cantidad de casos que se presentan en los sistemas reales. Por otro lado, las ligaduras (4.4) incluyen a las
ligaduras holónomas cuando las ecuaciones se vuelven integrables. Efectivamente, una ligadura de la forma

fl (q1 , . . . , qn , t) = 0 ; l = 1, . . . , m (4.18)

es equivalente a la ecuación diferencial


!
X ∂fl ∂fl
dqk + dt = 0 ; l = 1, . . . , m (4.19)
∂qk ∂t
k

que es igual a (4.4) con las asignaciones4


∂fl ∂fl
alk = ; alt = (4.20)
∂qk ∂t
reemplazando estas relaciones en (4.13) se obtiene
  m
X
d ∂L ∂L ∂fl
− =− λl ; k = 1, . . . , n. (4.21)
dt ∂ q̇k ∂qk ∂qk
l=1

de modo que la Ec. (4.21) corresponde a las ecuaciones de Lagrange con multiplicadores indeterminados en
el caso de ligaduras holónomas. Las fuerzas generalizadas provenientes de ligaduras holónomas se escriben
entonces
Xm
∂fl
QLk ≡ − λl (4.22)
∂qk
l=1
estas mismas ecuaciones se pueden obtener partiendo P directamente de la forma de la ligadura holónoma
fl (q, t) = 0 e introduciendo un término de la forma l λl fl = 0 en el principio de Hamilton, con un procedi-
miento similar al realizado para ligaduras no holónomas.
3
Para llegar a la Ec. (4.15), podemos seguir el procedimiento de la sección 2.2, pero de modo que en la Ec. (2.4) no se excluyan
las fuerzas de ligadura de la formulación. Seguimos entonces el procedimiento que nos lleva de (2.4) hasta (2.17), de tal modo que
(a) (a)
Qj en ésta última ecuación de puede descomponer como Qj = Qj + QL j , donde Qj proviene de las fuerzas aplicadas originales,
(a) (a) bj U como en las Ecs.
y QL j está asociada a las nuevas fuerzas aplicadas que emulan a las de ligadura. Si Qj = −∂qj V ó Qj = O
(2.21, 2.27), podemos construı́r un lagrangiano L = T − U donde el potencial incluye solo a las fuerzas aplicadas originales, con lo
cual se llega a la Ec. (4.15).
4
La ecuación (4.19) es eqivalente a (4.18), siempre y cuando al integrar (4.19) exijamos que la constante de integración sea nula.
58 CAPÍTULO 4. PRINCIPIO VARIACIONAL DE HAMILTON Y ECUACIONES DE LAGRANGE

La introducción de multiplicadores de Lagrange en ligaduras holónomas se justifica en uno de estos casos (1)
Comenzamos con coordenadas no independientes y queremos eliminar las dependientes5 (2) queremos hallar
las fuerzas de ligadura, es necesario tener en cuenta que los multiplicadores de Lagrange solo extraen el valor
de la magnitud de las fuerzas de ligadura, la dirección se debe determinar por consideraciones fı́sicas. Esto se
debe a la arbitrariedad para definir el signo del multiplicador, en realidad se puede hacer el cambio λl → −λl
(siempre y cuando sea para todos los λl ), y la formulación es igualmente consistente.

4.3. Relación entre el principio diferencial de D’Alembert y el Principio


variacional de Hamilton
Aunque no es evidente, la version del principio de Hamilton tanto para sistemas holónomos como no
holónomos, también requiere que el trabajo virtual de las fuerzas de ligadura sea nulo. Para ver esto, escribamos
el principio de Hamilton en la forma
Z t2 Z t2 Z t2
δ L dt = δ T dt − δ U dt = 0
t1 t1 t1

siguiendo los procedimientos variacionales ya descritos teniendo en cuenta que el potencial generalizado es
función de las coordenadas generalizadas, las velocidades generalizadas y el tiempo, se tiene
Z t2 n 
Z t2 X  
∂U d ∂U
δ T dt = − δqk dt
t1 t1 ∂qk dt ∂ q̇k
k=1

ahora teniendo en cuenta (2.26) y (2.27) resulta


Z t2 Z t2 n
X
δ T dt = − Qk δqk dt (4.23)
t1 t1 k=1

en esta forma el principio de Hamilton dice que la diferencia de la integral temporal de la energı́a cinética entre
dos caminos vecinos es igual a menos la integral temporal del trabajo realizado en los desplazamientos virtuales
entre los caminos. El trabajo calculado proviene solo de las fuerzas que derivan del potencial generalizado (ya
que implı́citamente el potencial del Lagrangiano solo contiene fuerzas aplicadas y no de ligadura). Por tanto, se
requiere que las ligaduras no realicen trabajos virtuales a fin de que las fuerzas generalizadas asociadas a dichas
ligaduras no entren en el miembro derecho de la Ec. (4.23). En consecuencia, si queremos mantener el principio
de Hamilton tanto para el caso holónomo como el no holónomo, es necesario que las fuerzas adicionales de
ligadura no holónomas no trabajen en desplazamientos virtuales δqk .
Otra manera de ver que las fuerzas de ligadura no entran en el principio variacional de Hamilton, se obtiene
partiendo de las ecuaciones (4.6) de ligadura para desplazamiento virtual
n
X
alk δqk = 0 , l = 1, . . . , m (4.24)
k=1

multiplicando estas ecuaciones por −λl y sumando sobre l, obtenemos


m n n
" m #
X X X X
− λl alk δqk = 0 ⇒ − λl alk δqk = 0 (4.25)
l=1 k=1 k=1 l=1

y sustituyendo (4.16) en (4.25) se obtiene X


QL
k δqk = 0 (4.26)
k
5
Cuando las ligaduras son holónomas, siempre es formalmente posible encontrar las coordenadas mı́nimas independientes. Sin
embargo, en algunos casos especı́ficos la tarea puede ser muy difı́cil. Los multiplicadores de Lagrange son un método sistemático
alternativo para llegar a las coordenadas independientes mı́nimas.
4.4. APLICACIÓN DEL PRINCIPIO DE HAMILTON CON COORDENADAS DEPENDIENTES 59

que nos conduce a la nulidad de los trabajos virtuales de las fuerzas de ligadura.
Por supuesto esta demostración se restringe a ligaduras holónomas o no holónomas que cumplan la condición
(4.24). En nuestro caso, la ligadura no-holónoma que más usaremos será la correspondiente a la condición de
rodadura, que claramente cumple con la condición (4.24)6 y no realiza trabajo virtual.

4.4. Ejemplos de aplicación del principio de Hamilton a sistemas con coor-


denadas dependientes
4.4.1. Bloque deslizante sobre una semiesfera
Comencemos con un ejemplo de ligadura holónoma. Sea una semiesfera de radio a, cuya base está montada
en la tierra. Una masa M está en el tope de la semiesfera y no sufre fricción. La masa desliza debido a un
ligero desplazamiento. Sea z el eje vertical y el plano xz será el plano de movimiento. Si medimos el ángulo θ a
partir del eje z, el Lagrangiano y las ligaduras los podemos escribir en coordenadas cartesianas o polares. Para
tener en cuenta las ligaduras es necesario introducir coordenadas generalizadas que no son independientes y
que estén relacionadas con las ligaduras, usemos entonces las coordenadas r y θ de las cuales solo una de ellas
es realmente independiente, la ligadura de que r es constante se debe a la fuerza normal. El Lagrangiano y las
ligaduras en coordenadas cartesianas es
1  p
L = M ẋ2 + ż 2 − M gz ; F1 (x, y) = a − x2 + z 2 = 0
2
x = r sin θ ; ẋ = ṙ sin θ + r θ̇ cos θ ; z = r cos θ ; ż = ṙ cos θ − r θ̇ sin θ

en tanto que el Lagrangiano y las ligaduras en coordenadas polares resulta


1  2 
L = M ṙ + r 2 θ̇ 2 − M gr cos θ
2
f1 (r, θ) = a − r = 0 (4.27)

la ligadura nos muestra que la coordenada r no es independiente. Ası́ que podemos reducir a θ el conjunto de
coordenadas generalizadas independientes. No obstante, escribiremos las ecuaciones de Lagrange usando las
dos coordenadas r,θ. Calcularemos además las fuerzas generalizadas asociadas a las ligaduras con base en la
Ec. (4.22)
 
d ∂L ∂L ∂f1
= M r̈ ; = M r θ̇ 2 − M g cos θ ; QLr = −λ1 = λ1
dt ∂ ṙ ∂r ∂r
 
d ∂L d   ∂L ∂f1
= M r 2 θ̇ = M r 2 θ̈ + 2M r ṙ θ̇ ; = M gr sin θ ; QLθ = −λ1 =0
dt ∂ θ̇ dt ∂θ ∂θ

aplicando las Ecs. (4.21, 4.22) se tiene

M r̈ − M r θ̇ 2 + M g cos θ = λ1 (4.28)
2
M r θ̈ + 2M r ṙθ̇ − M gr sin θ = 0 (4.29)

las ecuaciones de Lagrange (4.28, 4.29) junto con la ecuación de ligadura (4.27) forman un sistema de 3
ecuaciones y tres incógnitas (r, θ, λ1 ), cuya solución es única bajo las condiciones iniciales adecuadas. Hay un
solo multiplicador λ1 ya que solo tenemos una ligadura. Aplicando la ligadura llegamos a r = a y ṙ = r̈ = 0,
y sustituyendolo en la ecuaciones (4.28, 4.29) obtenemos

−M aθ̇ 2 + M g cos θ = λ1 ; M a2 θ̈ − M ga sin θ = 0


g λ1 g
θ̇ 2 − cos θ = − ; θ̈ = sin θ (4.30)
a Ma a
6
Ver ejercicios 1, 2, de la Pág. 66.
60 CAPÍTULO 4. PRINCIPIO VARIACIONAL DE HAMILTON Y ECUACIONES DE LAGRANGE

este es un problema de dos ecuaciones con dos incógnitas que tiene solución única bajo las condiciones iniciales
adecuadas. Una solución parcial se puede obtener con el ansatz7

θ̇ 2 = A − B cos θ (4.31)

Derivando (4.31) se obtiene


B
2θ̇ θ̈ = B θ̇ sin θ ⇒ θ̈ =
sin θ
2
comparando esta expresión con la segunda de las Ecs. (4.30) resulta B = 2g/a con lo cual el ansatz (4.31) nos
da
2g
θ̇ 2 = A − cos θ
a
Usando condiciones iniciales de la forma θ = θ̇ = 0 en t = 08 nos da A = 2g/a de modo que9

2g 2g
θ̇ 2 = − cos θ + (4.32)
a a
ahora reemplazando (4.32) en la primera de las Ecs. (4.30) se tiene que

2g 2g g λ1
− cos θ + − cos θ = −
a a a Ma
g λ1
(2 − 3 cos θ) = −
a Ma
con lo cual queda finalmente
λ1 = M g (3 cos θ − 2)
usando los métodos tradicionales de solución se puede ver que el multiplicador corresponde numéricamente al
valor de la fuerza de ligadura normal. Esto también se puede ver haciendo uso de las Ecs. (4.17, 4.20), teniendo
en cuenta que hay una sola fuerza de ligadura y un solo multiplicador

∂r ∂f1
N· = −λ1
∂qk ∂qk

aplicando esta ecuación para qk = r y usando las Ecs. (4.27) resulta

∂ (rur ) ∂f1
N· = −λ1 ⇒ (N ur ) · ur = λ1
∂r ∂r
λ1 = N

donde hemos usado el hecho de que la fuerza normal va a lo largo de ur . Se puede ver que estrictamente
el multiplicador solo nos puede proporcionar la magnitud de la normal ya que la fuerza de ligadura (vecto-
rial) aparece en un producto punto que nos hace perder información sobre la dirección, a esto se le suma la
ambigüedad del signo del multiplicador.
Este problema ilustra muchas caracterı́sticas de la técnica de multiplicadores de Lagrange
7
Este ansatz está inspirado en el hecho de que θ̈ = (g/a) sin θ se asemeja a la ecuación de un péndulo simple (con θ̈ → θ̈
y θ → −θ) de oscilaciones no necesariamente pequeñas, en tal problema θ̇2 se puede obtener por conservación de la energı́a
mecánica de lo cual se obtendrı́a una expresión similar a nuestro ansatz Ec. (4.31).
8
Naturalmente, θ̇ debe ser ligeramente distinto de cero para que exista movimiento. Sin embargo, usamos estas condiciones
teniendo en cuenta que en ausencia de rozamiento, la velocidad angular se puede aproximar arbitrariamente a cero.
9
La Ec. (4.32) también se puede obtener ası́: θ̈ = ddtθ̇ = ddθθ̇ dθ
dt
= θ̇ ddθθ̇ . De la segunda de las Ecs. (4.30) y usando la expresión
anterior tenemos que
Z θ Z Z θ θ
g θ g
θ̈′ dθ′ = sin θ′ dθ′ ⇒ θ̇′ dθ̇′ = − cos θ′
0 a 0 0 a 0

con lo cual se llega a la Ec. (4.32).


4.4. APLICACIÓN DEL PRINCIPIO DE HAMILTON CON COORDENADAS DEPENDIENTES 61

1. Las ecuaciones de Lagrange solo se pueden solucionar teniendo en cuenta las ecuaciones de ligadura, para
formar el sistema de n + m ecuaciones e incógnitas.

2. Obsérvese que el método para calcular las fuerzas generalizadas de ligadura conduce automáticamente
a encontrar las coordenadas espúreas. En este caso existe un multiplicador que elimina la coordenada
sobrante r.

3. La fuerza de ligadura pudo ser hallada y está asociada a λ1 . Debe tenerse en cuenta sin embargo, que no
hay una relación uno a uno entre multiplicadores y fuerzas generalizadas de ligadura, en realidad cada
fuerza generalizada de ligadura es una combinación lineal de todos los λi como lo muestran las Ecs. (4.16,
4.22). La relación entre fuerzas reales de ligadura y multiplicadores es más indirecta todavı́a.

4.4.2. Aro sobre plano inclinado con condición de rodadura


Veamos un ejemplo con la condición de rodadura, como es un aro de radio “a” que rueda sin deslizar sobre
un plano inclinado que está fijo en el suelo. La ligadura implı́cita en la rodadura es realmente holónoma10 pero
la técnica de cálculo será idéntica al caso de ligaduras no holónomas de la forma (4.4). La otra ligadura de que
el aro está sobre el plano inclinado está implı́cita en la escogencia de las coordenadas generalizadas
Definimos el eje x paralelo a la superficie del plano inclinado hacia abajo y un ángulo θ que barre el radio
vector del aro. Como coordenadas generalizadas se escoge x, θ. La condición de rodadura provee una ligadura
entre ambas
dx − a dθ = 0 (4.33)
la energı́a cinética tiene una parte traslacional y una rotacional
1 1 1  
T = M ẋ2 + I θ̇ 2 = M ẋ2 + K 2 θ̇ 2
2 2 2
escribirlo en términos del radio de giro K, permite resolver de una vez el mismo problema con figuras tales
como el aro, la esfera, el cilindro, el disco e incluso figuras como el elipsoide de revolución (ver ejercicio 3, Pág.
67). De momento haremos K = a (aro con densidad constante). La energı́a potencial es

V = M g (l − x) sin φ0

siendo l la longitud del plano inclinado y φ0 su inclinación. El Lagrangiano queda


1  
L = M ẋ2 + a2 θ̇ 2 − M g (l − x) sin φ0 (4.34)
2
con lo cual tenemos
 
d ∂L ∂L
= M ẍ ; = M g sin φ0
dt ∂ ẋ ∂x
 
d ∂L ∂L
= M a2 θ̈ ; =0
dt ∂ θ̇ ∂θ

dado que hay una ecuación de ligadura, se requiere solo un multiplicador de Lagrange. Comparando (4.33) con
(4.4) los coeficientes que acompañan a la ligadura son

a1θ = −a ; a1x = 1 ; a1t = 0 (4.35)

las fuerzas generalizadas de ligadura se obtienen de (4.16) y (4.35)

QL L
x = −λ1 a1x = −λ1 ; Qθ = −λ1 a1θ = aλ1
10
Esto se debe a que esta es una condición de rodadura en donde el aro se restringe a moverse en un plano. Cuando esta
restricción deja de ser cierta, la ligadura es realmente no-holónoma, como se aprecia en los ejercicios 1, 2, Pág. 66.
62 CAPÍTULO 4. PRINCIPIO VARIACIONAL DE HAMILTON Y ECUACIONES DE LAGRANGE

de modo que las ecuaciones de Lagrange junto con las ecuaciones de ligadura quedan

M ẍ − M g sin φ0 = −λ1 ; M a2 θ̈ = aλ1 ; aθ̇ = ẋ (4.36)

constituye un conjunto de tres ecuaciones para x, θ,λ1 . Diferenciando la ligadura respecto al tiempo se obtiene
aθ̈ = ẍ, sustituyendo en la segunda de las Ecs. (4.36) se tiene que M ẍ = λ1 al sustituir esto en la primera de
las Ecs. (4.36) queda
g sin φ0
ẍ =
2
con lo cual
g sin φ0 M g sin φ0
θ̈ = ; λ1 = (4.37)
2a 2
puesto que hay un solo multiplicador, podemos obtener la magnitud de la fuerza de ligadura usando una sola
fuerza generalizada de ligadura, digamos QL L
x . La fuerza (real) de ligadura está dada por F = N + Fr siendo
N la normal y Fr la fuerza de rozamiento estático. Utilizando las ecuaciones (4.16, 4.17) tenemos que

∂r ∂r
QL L
x =F · = (N + Fr ) · = −λ1 a1x
∂x ∂x
es fácil ver que r = xux , por tanto ∂x r = ux , utilizando esto y la Ec. (4.35) resulta11

(N + Fr ) · ux = −λ1

ahora teniendo en cuenta que N = N uy y que Fr = − kFr k ux se tiene que

M g sin φ0
− kFr k = −λ1 ⇒ Fr =
2
donde hemos usado la Ec. (4.37). Nótese que hemos obtenido información sobre la fuerza de rozamiento pero
no sobre la normal. Esto era de esperarse, ya que la fuerza de rozamiento estático es la que genera la condición
de rodadura, que fue la ecuación que usamos como ligadura.

4.4.3. Esfera en un hueco cilı́ndrico


Una esfera de radio ρ está restringida a rodar sin deslizar en la mitad inferior de la superficie interna de
un hueco cilı́ndrico de radio interior R (ver Fig. 4.1). Determine el Lagrangiano, la ecuación de ligadura y las
ecuaciones de Lagrange con multiplicadores indeterminados.
Utilizaremos las coordenadas θ y φ indicadas en la figura 4.1. Estas coordenadas no son independientes ya
que la condición de rodadura establece una relación entre ellas. El centro de masa de la esfera se mueve en
un arco circular con radio R − ρ y velocidad angular θ̇, de modo que la velocidad al cuadrado del centro de
h i2
masa de la esfera es v 2 = (R − ρ) θ̇ . Las energı́as cinética y potencial en estas coordenadas se escriben en
la forma
1 h i2 1
T = m (R − ρ) θ̇ + I φ̇2 ; V = mg [R − (R − ρ) cos θ]
2 2
siendo m la masa de la esfera y tomamos V = 0 en el punto más bajo del cilindro hueco12 . I es el momento
de inercia de la esfera con respecto a su diámetro, cuyo valor es (2/5) mρ2 , el Lagrangiano queda entonces en
la forma
1 1
L = T − V = m (R − ρ)2 θ̇ 2 + mρ2 φ̇2 − mg [R − (R − ρ) cos θ]
2 5
11
A priori podemos pensar que la posición debe ser r = xux + auy que es la posición del centro de masa. Sin embargo, la fuerza
de rozamiento se aplica sobre el punto de contacto sobre la superficie de modo que r = xux es el punto de aplicación de dicha
fuerza (y también de la normal). En todo caso, esta diferencia no altera las derivadas.
12
Podrı́amos tomar el cero de potencial en el punto más bajo del centro de masa de la esfera, pero esto supone un corrimiento
del potencial en una constante, lo cual es Fı́sicamente irrelevante.
4.4. APLICACIÓN DEL PRINCIPIO DE HAMILTON CON COORDENADAS DEPENDIENTES 63

Figura 4.1: Esfera de radio ρ, que rueda sin deslizar en la mitad inferior de una superficie cilı́ndrica de radio
R.

la condición de rodadura nos da la ligadura

f (θ, φ) = Rθ − ρφ = 0 (4.38)

existe entonces un solo multiplicador de Lagrange y las ecuaciones de Lagrange con multiplicadores quedan
   
∂L d ∂L ∂f ∂L d ∂L ∂f
− =λ ; − =λ
∂θ dt ∂ θ̇ ∂θ ∂φ dt ∂ φ̇ ∂φ
que explı́citamente nos da

−mg (R − ρ) sin θ − m (R − ρ)2 θ̈ = λR (4.39)


2
− mρ2 φ̈ = −λρ (4.40)
5
de (4.40) se obtiene
2
λ = mρφ̈ (4.41)
5
y usando (4.38), encontramos  
2 R 2
λ = mρ θ̈ = mRθ̈ (4.42)
5 ρ 5
sustituyendo (4.42) en (4.39) se encuentra la ecuación de movimiento con respecto a θ.
 
2 2
−mg (R − ρ) sin θ − m (R − ρ) θ̈ = mRθ̈ R
5
 
2 2 2
−g (R − ρ) sin θ = R + (R − ρ) θ̈
5
g (R − ρ) sin θ
θ̈ = − h i
2 2 2
5 R + (R − ρ)
θ̈ = −ω 2 sin θ
64 CAPÍTULO 4. PRINCIPIO VARIACIONAL DE HAMILTON Y ECUACIONES DE LAGRANGE

ω es la frecuencia de pequeñas oscilaciones dada por


v
u g (R − ρ)
u
ω = th i
2 2 2
5 R + (R − ρ)

la ecuación para θ es la de un péndulo simple de amplias oscilaciones. Una vez resuelto θ (t), la ecuación de φ
se obtiene directamente de (4.38), ası́ mismo la solución para el multiplicador se obtiene de (4.42). ¿Cuál es la
asociación entre fuerzas de ligadura y el multiplicador en este problema?.

4.5. Caracterı́sticas básicas de una formulación variacional


Una ventaja notable de la formulación variacional es su independencia con respecto a un cambio en las
coordenadas generalizadas13 , ya que el Lagrangiano es independiente de esta escogencia. Por otro lado a
partir del principio de Hamilton se puede ver fácilmente porque la adición de una derivada total de la forma
dF (q, t) /dt en el Lagrangiano no afecta la dinámica, cuando este término se integra en el tiempo, el resultado
solo depende de los puntos inicial y final los cuales son fijos. Esto equivale a añadir una constante a la acción,
que claramente no afecta la condición de estacionaridad.
Muchas teorı́as de la Fı́sica mas allá de la mecánica subyacen en un principio variacional. Con frecuencia
ocurre que la necesidad de modificar el contenido Fı́sico de una teorı́a sugiere la forma de hacer el mismo cambio
en otras teorı́as. Tal es el caso de la cuantización de partı́culas que indicó como construı́r posteriormente el
proceso de quantización de los campos, basados en un principio variacional y una formulación Lagrangiana.

4.6. Principio variacional para Lagrangianos que contienen a q̈ (opcional)


Ciertos problemas de la mecánica clásica están descritos por Lagrangianos que contienen derivadas tem-
porales de qi más altas que la primera, este es el caso en ciertas aplicaciones de la teorı́a del caos. Es usual
denominar como mecánica generalizada a este tipo de problemas. En particular cuando el Lagrangiano es de
la forma L (q, q̇, q̈, t) se suele hablar de “mecánica de la sacudida”. Asumiremos que para un Lagrangiano de la
forma L (q, q̇, q̈, t), el principio de Hamilton se cumple con variación cero en los extremos tanto en las qi como
en las q̇i , en cuyo caso hablaremos de un principio variacional de Hamilton extendido.
Veremos entonces como son las ecuaciones de movimiento para un Lagrangiano de la forma

L = L(qi , q̇i , q̈i , t) (4.43)

bajo el postulado de que se cumple el principio variacional de Hamilton extendido. La acción queda entonces
de la forma Z 2
I= L(qi , q̇i , q̈i , t)dt
1
y se tiene que
Z n 
2X 
∂I ∂L ∂qi ∂L ∂ q̇i ∂L ∂ q̈i
dα = dα + dα + dα dt (4.44)
∂α 1 ∂qi ∂α ∂ q̇i ∂α ∂ q̈i ∂α
i=1
Asumiremos suma sobre ı́ndices repetidos cuando los ı́ndices aparezcan. De momento omitiremos los ı́ndices
para simplificar los cálculos. En analogı́a con la Ec. (3.17, 3.18) tenemos

∂I ∂q
dα = δI ; δq = dα
∂α ∂α
con lo cual la Ec. (4.44) queda
13
Debe aclararse sin embargo, que el espacio de configuraciones y la trayectoria en dicho espacio, sı́ dependen de las coordenadas
generalizadas empleadas.
4.6. PRINCIPIO VARIACIONAL PARA LAGRANGIANOS QUE CONTIENEN A Q̈ (OPCIONAL) 65

Z 2 
∂L ∂L ∂ q̇ ∂L ∂ q̈
δI = δq + dα + dα dt (4.45)
1 ∂q ∂ q̇ ∂α ∂ q̈ ∂α
Integrando por partes el término de la mitad nos da en analogı́a con la Ec. (3.11)
Z Z Z 2  
2
∂L ∂ q̇ 2
∂L ∂ 2 q ∂L ∂q 2 ∂q d ∂L
dt = dt = − dt (4.46)
1 ∂ q̇ ∂α 1 ∂ q̇ ∂α∂t ∂ q̇ ∂α 1 1 ∂α dt ∂ q̇
el primer término a la derecha es cero debido a la condición de extremo fijo en las qi . sustituyendo (4.46) en
la expresión (4.45) resulta
Z 2   
∂L d ∂L ∂L ∂ q̈
δI = δq − δq + dα dt (4.47)
1 ∂q dt ∂ q̇ ∂ q̈ ∂α
donde hemos usado de nuevo la definición δq = (∂q/∂α) dα. El último integrando requiere dos integraciones
por partes
Z Z Z 2  
2
∂L ∂ q̈ 2
∂L ∂ 2 q̇ ∂L ∂ q̇ 2 ∂ q̇ d ∂L
dt = dt = − dt
1 ∂ q̈ ∂α 1 ∂ q̈ ∂α ∂t ∂ q̈ ∂α 1 1 ∂α dt ∂ q̈
y usando la condición de extremo fijo en las q̇i , vemos que se elimina el primer término a la derecha. Una
segunda integración por partes nos da

Z 2    Z 2 2   
∂ q̇ d ∂L ∂ q d ∂L
− dt = − dt
1 ∂α dt ∂ q̈ 1 ∂t∂α dt ∂ q̈
   Z 2  
d ∂L ∂q 2 ∂q d2 ∂L
= − − − dt
dt ∂ q̈ ∂α 1 1 ∂α dt2 ∂ q̈
el primer término a la derecha se elimina por la condición de extremo fijo en los qi . Por tanto
Z 2 Z 2   
∂L ∂ q̈ ∂q d2 ∂L
dt = 2
dt (4.48)
1 ∂ q̈ ∂α 1 ∂α dt ∂ q̈
reemplazando (4.48) en (4.47) y usando la definición de δq se tiene que
Z 2      
∂L d ∂L d2 ∂L
δI = δq − δq + 2 δq dt
1 ∂q dt ∂ q̇ dt ∂ q̈
factorizando δq’s, y colocando los ı́ndices de nuevo, resulta
Z n 
2X   
∂L d ∂L d2 ∂L
δI = − + 2 δqi dt = 0
1 ∂qi dt ∂ q̇i dt ∂ q̈i
i=1
puesto que las qi son independendientes, las variaciones δqi son independientes y podemos aplicar el lema
fundamental del cálculo variacional y ver que δI = 0 requiere que tanto el integrando como los coeficientes de
δqi se anulen separadamente, llegando entonces a las ecuaciones de movimiento:
   
∂L d ∂L d2 ∂L
− + 2 =0 ; i = 1, 2, ..., n. (4.49)
∂qi dt ∂ q̇i dt ∂ q̈i
Nótese que para utilizar el principio variacional de Hamilton extendido, el espacio de configuraciones debe
ser de dimensión 2n, con qi y q̇i en los ejes, ya que la condición completa de variación cero en los extremos
requiere esta extensión del espacio. Además estas condiciones de variación cero conducen a la invarianza de
las ecuaciones de movimiento, bajo el siguiente tipo de transformaciones gauge del Lagrangiano
dF (q, q̇, t)
L′ = L + (4.50)
dt
66 CAPÍTULO 4. PRINCIPIO VARIACIONAL DE HAMILTON Y ECUACIONES DE LAGRANGE

Tomemos como ejemplo sencillo de aplicación el siguiente Lagrangiano

1 k
L = − mq q̈ − q 2 (4.51)
2 2
para el cual tenemos
     
∂L 1 d ∂L d2 ∂L d2 1 1
= − mq̈ − kq ; − =0 ; = 2 − mq = − mq̈
∂q 2 dt ∂ q̇ dt2 ∂ q̈ dt 2 2
al reemplazar estas relaciones en las ecuaciones de movimiento (4.49) tenemos

−mq̈ − kq = 0
Que corresponde a la ley de Hooke. Nótese que el Lagrangiano (4.51) a pesar de su apariencia extraña,
nos da las ecuaciones del oscilador armónico cuando usamos este “formalismo de sacudida” de las ecuaciones
de Lagrange. Para entender porqué, utilizaremos la invarianza gauge en (4.50), para obtener el Lagrangiano
(4.51) a partir del Lagrangiano usual para el oscilador armónico simple LSHO

 
d mq q̇ mq̇ 2 kq 2 mq q̈ mq̇ 2
L (q, q , q̈, t) = LSHO (q, q̇, t) + − = − − −
dt 2 2 2 2 2
1 k 2
L (q, q , q̈, t) = − mq q̈ − q
2 2
es muy importante enfatizar que los Lagrangianos L y LSHO son equivalentes solo bajo el principio de Hamilton
extendido con variación cero en q, q̇. De otra forma el Gauge (4.50) ya no serı́a válido.
De lo anterior se vé que se requiere un principio variacional especı́fico o equivalentemente, un tipo especı́fico
de ecuaciones de movimiento, para que un Lagrangiano dado tenga toda la información fı́sica del sistema.
Ası́ mismo, las transformaciones gauge posibles para el Lagrangiano dependen del principio variacional que se
postule, o de las ecuaciones de movimiento que se asuman.

4.7. Ejercicios
1. Supongamos un disco de radio R que rueda sobre un plano horizontal XY , de manera que permanece
siempre vertical. Sean (x, y) las coordenadas del centro del disco. Definimos también un ángulo de rotación
φ alrededor del eje del disco, y un ángulo θ entre el eje X y el eje del disco (ver Fig. 4.2). Si el disco
rueda sin deslizar, demuestre que la condición de rodadura se manifiesta en una ligadura de la forma

dx − R sin θ dφ = 0 ; dy + R cos θ dφ = 0 (4.52)

2. Supongamos que tenemos un conjunto de ecuaciones diferenciales lineales de ligadura del tipo
n
X
gk (x1 , . . . , xn ) dxk = 0 (4.53)
k=1

este tipo de ligaduras son holónomas solo si existe una función integrante f (x1 , . . . , xn ) que convierta a
estas ecuaciones en diferenciales exactas i.e.
n
X n
X ∂f ∂f
gk (x1 , . . . , xn ) dxk = df = dxk ⇒ gk = (4.54)
∂xk ∂xk
k=1 k=1

multiplicando la última ecuación por f y derivando el producto parcialmente con respecto a xj se obtiene

∂ ∂f ∂f ∂2f
(f gk ) = +f (4.55)
∂xj ∂xj ∂xk ∂xj ∂xk
4.7. EJERCICIOS 67

Figura 4.2: Disco vertical que rueda sin deslizar sobre el plano XY .

invirtiendo el rol de los ı́ndices j, k, se obtiene una ecuación similar, y el miembro derecho de tal ecuación
es idéntico al miembro derecho de la Ec. (4.55) si las segundas derivadas parciales son contı́nuas. Por
tanto, la función integrante debe cumplir la condición14

∂ (f gk ) ∂ (f gj )
= ; j, k = 1, . . . , n (4.56)
∂xj ∂xk

demuestre que no se puede encontrar una función integrante para la ligadura de rodadura Ec. (4.52). Sin
embargo, tal función integrante sı́ existe cuando θ es constante en la Ec. (4.52), como ocurre por ejemplo
con un disco que rueda sobre un plano inclinado.

3. Resolver el ejercicio de la sección 4.4.2, sustituyendo el aro por una esfera, un cilindro, un disco y un
elipsoide de revolución. Asuma constante la densidad de cada figura.

4. Demuestre que el gauge (4.50), deja invariantes las ecuaciones de movimiento (4.49), que se derivan del
principio de Hamilton extendido, asociado al “formalismo de la sacudida”. Demuéstrelo (a) apelando
directamente a las ecuaciones diferenciales, (b) apelando al principio variacional de Hamilton extendido.

5. En la sección 2.8.6 Pág. 32, se estudió la dinámica de un aro que rueda sin deslizar sobre una cuña que
desliza sin rozamiento sobre el suelo. Trate la ligadura de rodadura utilizando el método de multiplica-
dores de Lagrange. Contraste los resultados con los obtenidos en la sección 4.4.2, Pág. 61, en la cual la
cuña está fija en el suelo.
14
En las condiciones (4.54, 4.56) podemos agregar la coordenada temporal digamos xn+1 ≡ t, y las Ecs. (4.54, 4.56) serı́an
válidas para j, k = 1, . . . , n + 1. Nótese que esta es la estructura de las Ecs. (4.4), Pág. (55).
68 CAPÍTULO 4. PRINCIPIO VARIACIONAL DE HAMILTON Y ECUACIONES DE LAGRANGE

Figura 4.3: Esfera de masa m y radio r que rueda sin deslizar sobre un cilindro fijo de radio R.

6. Una esfera de masa m y radio r rueda sin deslizar sobre un cilindro fijo de radio R, como se indica en
la Fig. 4.3. Si la esfera comienza a rodar sin deslizar desde el punto más alto del cilindro y partiendo
del reposo. (a) Plantee las ecuaciones de Lagrange con multiplicadores que den cuenta de la fuerza de
ligadura del cilindro sobre la esfera. (b) Encuentre el punto donde la esfera se separa del cilindro. (c)
Resuelva el mismo problema reemplazando la esfera por un aro y por un cilindro, cada uno con masa m
y radio r.
Capı́tulo 5

Simetrı́as y cantidades conservadas en el


formalismo de Lagrange

5.1. Teoremas de conservación y propiedades de simetrı́a


Las estrategias planteadas hasta el momento nos permiten encontrar las ecuaciones diferenciales que deter-
minan la dinámica de un sistema con n grados de libertad. Como estas ecuaciones son de segundo orden en el
tiempo, se requieren 2n constantes de integración que usualmente se determinan con las condiciones iniciales
en las coordenadas y velocidades generalizadas. Desafortunadamente, la mayorı́a de problemas no son inte-
grables completamente. No obstante, hemos aprendido del formalismo Newtoniano, que incluso para sistemas
no integrables es posible extraer mucha información valiosa del sistema aunque las ecuaciones de movimiento
no estén completamente resueltas. En general, esta información se traduce en principios de conservación que
debemos reexaminar en este nuevo formalismo.
La solución completa de una ecuación de segundo orden requiere formalmente de dos procesos de integra-
ción, con frecuencia ocurre que podemos hacer un “primer proceso de integración” pero el último proceso de
integración no se puede llevar a cabo fácilmente. En otras palabras, podemos obtener ecuaciones de la forma
f (q, q̇, t) = cte
que son ecuaciones diferenciales de primer orden. Estas estructuras se conocen como primeras integrales de las
ecuaciones de movimiento. Mucha información se puede extraer de estas primeras integrales, en particular las
leyes de conservación.
Consideremos un sistema de partı́culas puntuales bajo la influencia de fuerzas que se derivan de potenciales
que solo dependen de la posición. En este caso podemos escribir
∂L ∂T ∂V ∂T ∂ X1 
≡ − = = mk ẋ2k + ẏk2 + żk2
∂ ẋi ∂ ẋi ∂ ẋi ∂ ẋi ∂ ẋi 2
k
∂L
= mi ẋi = pxi
∂ ẋi
que corresponde a la componente x del momento lineal de la partı́cula i−ésima. Esto sugiere la forma de elabo-
rar el concepto de momento generalizado cuando usamos coordenadas generalizadas. El momento generalizado
pj asociado a la coordenada generalizada qj se define como
∂L
pj ≡ (5.1)
∂ q̇j
por razones que veremos posteriormente, a pj también se le conoce como momento canónicamente conjugado
a qj . Nótese que pj no tiene necesariamente dimensiones de momento lineal1 . Cuando tenemos potenciales
1
Sin embargo, es claro de la definición (5.1), que pj q̇j tiene dimensiones de energı́a. Por tanto, pj qj tiene dimensiones de energı́a
por tiempo, es decir de momento angular.

69
70 CAPÍTULO 5. SIMETRÍAS Y CANTIDADES CONSERVADAS (LAGRANGE)

dependientes de la velocidad incluso en coordenadas cartesianas el momento generalizado difiere del momen-
to mecánico. Un ejemplo notable es el de un conjunto de partı́culas en un campo electromagnético, cuyo
Lagrangiano es2
XN N
X N
X
1 2
L= mi ṙi − qi φ (ri ) + qi A (ri ) · ṙi
2
i=1 i=1 i=1
qi en este caso denota carga eléctrica. El momento generalizado es
∂L
pxi = = mi ẋi + qi Ax (ri ) (5.2)
∂ ẋi
que es el momento mecánico asociado a la partı́cula mas un término adicional que depende del campo.
En algunas ocasiones el Lagrangiano no depende de una cierta coordenada qj , pero sı́ depende de su
velocidad generalizada asociada q̇j . En este caso se dice que qj es una coordenada cı́clica o ignorable, y la
ecuación de Lagrange asociada a esta coordenada se reduce a
 
d ∂L
=0 (5.3)
dt ∂ q̇j

de la definición de momento generalizado se observa que


dpj
= 0 ⇒ pj = cte (5.4)
dt
de lo cual resulta un teorema de conservación: el momento generalizado canónicamente conjugado a
una coordenada cı́clica se conserva. Vale recalcar que la validez de este teorema depende de que las
coordenadas generalizadas sean independientes entre sı́, ya que de ello dependen las ecuaciones de Lagrange
(sin multiplicadores λ). Por ejemplo, podemos apreciar en la Ec. (4.34), que en el ejemplo del aro que rueda
sin deslizar sobre un plano inclinado fijo en el suelo, el Lagrangiano no contiene a la coordenada θ, sin embargo
la cantidad pθ no es una constante de movimiento debido a que el ángulo aparece en la ecuación de ligadura
dx − a dθ = 0.
Nótese otra diferencia importante entre el concepto de momento mecánico y el de momento generalizado.
El primero se asocia a una partı́cula y el segundo se asocia a una coordenada generalizada. Por otro lado, ya se
ha mencionado que una coordenada generalizada no necesariamente está asociada a una partı́cula y por tanto
el momento conjugado tampoco lo estará.
Los momentos generalizados conservados constituyen primeras integrales de movimiento, pues al pasar de
(5.3) a (5.4) hemos pasado de una ecuación diferencial de segundo orden a una de primer orden, lo cual equivale
a hacer una integración. Formalmente, la velocidad generalizada de una coordenada cı́clica puede ser reempla-
zada por el momento conservado, de modo que la variable cı́clica desaparece completamente del Lagrangiano,
este procedimiento desarrollado por Routh, será discutido en el capı́tulo de formulación Hamiltoniana sección
6.9.
Las condiciones de conservación del momento generalizado son mas generales que las que se derivan en
mecánica Newtoniana para el momento lineal y angular. Por ejemplo, un momento conservado aparece incluso
cuando la ley de acción y reacción no es válida. En particular, este es el caso cuando están presentes fuerzas
electromagnéticas. Supongamos que tenemos una partı́cula inmersa en un campo electromagnético, tal que los
potencial electrodinámicos no dependen de x. De esta forma x no aparece en el Lagrangiano (aunque sı́ aparece
ẋ) y el momento canónico px viene dado por la Ec. (5.2)

px = mẋ + qAx = cte

De la teorı́a electrodinámica clásica, es bien conocido que cuando A y φ no dependen de x, la cantidad qAx
es la componente x del momento lineal del campo electromagnético asociado con la carga q, el momento
2
Nótese que cuando al sistema de partı́culas le añadimos el campo, no es necesario diferenciar para una partı́cula entre la
contribución debida a las fuerzas internas y las externas, ya que ambas contribuciones están contenidas en el campo.
5.1. TEOREMAS DE CONSERVACIÓN Y PROPIEDADES DE SIMETRÍA 71

mecánico mẋ está asociado únicamente a la carga. Por tanto, el momento canónico px es una cantidad mixta
que está asociada tanto a la carga como al campo, esto no supone ninguna contradicción ya que como dijimos,
el momento canónico está realmente asociado a la coordenada y no a la partı́cula (ni al campo).

Example 2 Para el problema de la sección 2.8.6 del aro que rueda sin deslizar sobre un plano inclinado, que
a su vez se desliza sobre el suelo sin rozamiento, el Lagrangiano está dado por la Ec. (2.47) Pág. 33
1
L = mṠ 2 + (m + M ) ξ˙2 + mξ̇ Ṡ cos α − mg [R cos α + (l − S) sin α] (5.5)
2
Se observa que en este Lagrangiano la coordenada ξ es cı́clica, y por tanto su momento canónicamente con-
jugado es constante. Esto nos conduce a una primera integral de movimiento (ecuación diferencial de primer
orden)
∂L
pξ = = (m + M ) ξ˙ + mṠ cos α = K
∂ ξ˙
esta expresión se puede encontrar también al integrar una de las ecuaciones de Lagrange que resultaron en el
problema, Ec. (2.49), Pág. 33.

Para el anterior ejemplo, es importante mencionar que el Lagrangiano 5.5, está escrito en coordenadas real-
mente independientes y por esta razón el momento conjugado pξ es realmente una constante de movimiento.
Ya mencionamos que en un problema similar, obtuvimos un Lagrangiano Ec. (4.34), que contiene una coor-
denada cı́clica que no conduce a la conservación de su momento canónico, en virtud de que las coordenadas
generalizadas en tal problema no eran independientes. Por otro lado, el ejemplo anterior también muestra con
claridad que la invarianza de un momento conjugado equivale a un proceso de integración que nos lleva a
una ecuación diferencial de primer orden. Sin embargo, en este ejemplo particular este proceso de integración
es trivial y se podı́a ejecutar sin mayores dificultades desde las ecuaciones de Lagrange mismas. Es necesario
decir no obstante, que el proceso que nos lleva de las ecuaciones de Lagrange (de segundo orden) a primeras
integrales de movimiento (ecuaciones de primer orden), puede ser muy complejo en general, y esto justifica la
introducción del concepto de coordenada cı́clica y de la conservación de su momento conjugado asociado.
Veremos ahora que los teoremas usuales de conservación están contenidos en la regla general sobre coor-
denadas cı́clicas.

5.1.1. Momento lineal y coordenadas globales de traslación


Pensemos primero en una coordenada generalizada qj cuyo cambio dqj represente una traslación del sistema
como un todo en cierta dirección3 . Esto implica que el corrimiento del sistema como un todo debe ser compatible
con las ligaduras. En algunos casos las fuerzas externas podrı́an imponer ligaduras sobre el sistema que impidan
esta clase de movimiento, con lo cual qj no serı́a una coordenada generalizada independiente.
Supondremos entonces que (a) qj es una coordenada generalizada independiente. Asumiremos además
que (b) La coordenada qj no aparece en la energı́a cinética, (c) el potencial no depende de las velocidades
generalizadas, esto excluye de la formulación por ejemplo a las fuerzas electromagnéticas. La ecuación de
Lagrange asociada a esta coordenada queda
   
d ∂ (T − V ) ∂ (T − V ) d ∂T ∂V
− = + =0
dt ∂ q̇j ∂qj dt ∂ q̇j ∂qj
la derivada total en el tiempo del momento generalizado está dada por
   
d ∂L d ∂T ∂V
ṗj = = =− = Qj (5.6)
dt ∂ q̇j dt ∂ q̇j ∂qj
3
Por ejemplo, un conjunto de partı́culas colineales insertadas en una varilla sin masa. Una coordenada qj puede ser una
coordenada cartesiana cuyo eje va a lo largo de la varilla. Un desplazamiento dqj implica que el sistema se mueve como un todo
gracias a la ligadura de cuerpo rı́gido entre las partı́culas. El corrimiento de una coordenada cartesiana del centro de masa de un
sistema es otro ejemplo.
72 CAPÍTULO 5. SIMETRÍAS Y CANTIDADES CONSERVADAS (LAGRANGE)

a continuación veremos que esta es la ecuación de movimiento para el momento lineal total a lo largo de qj .
Es decir que Qj es la componente de la fuerza (en el sentido Newtoniano) en la dirección qj , en tanto que pj
es la componente del momento lineal a lo largo de tal dirección. La fuerza generalizada Qj viene dada por
N
X ∂ri
Qj = Fi · (5.7)
∂qj
i=1

nótese que al ser qj una variable de traslación, sus unidades sı́ deben ser de longitud y se puede definir
unı́vocamente un vector unitario de traslación n, a lo largo de dqj . Como dqj representa una traslación del
sistema a lo largo de cierto eje, la diferencia entre los vectores ri (qj ) y ri (qj + dqj ) va a lo largo de n, y tiene
como magnitud dqj
∂ri ri (qj + ∆qj ) − ri (qj ) dqj n
= lı́m = =n (5.8)
∂qj ∆q j →0 ∆qj dqj
obsérvese que se ha escrito n y no ni ya que al ser una traslación del sistema como un todo, cada partı́cula se
desplaza en la misma dirección que las otras. De aquı́ resulta
N
X
Qj = Fi · n = n · F
i=1

por lo tanto, Qj representa la componente de la fuerza total sobre el sistema a lo largo de la dirección n de
traslación. Para ver el significado del momento canónico, calculemos pj
N
! N
∂L ∂T ∂ 1X 2
X ∂ ṙi
pj = = = mi ṙi = mi ṙi ·
∂ q̇j ∂ q̇j ∂ q̇j 2 ∂ q̇j
i=1 i=1
N
X ∂ri
pj = mi vi ·
∂qj
i=1

donde hemos usado (2.12). Teniendo en cuenta (5.8) llegamos a


X
pj = n · mi vi
i

que corresponde a la componente del momento mecánico lineal total del sistema a lo largo de la dirección de
traslación. Vemos que en este caso, el momento generalizado asociado a una sola coordenada qj resultó estar
asociado al momento lineal de todo el sistema, esto no es de extrañar, ya que qj representó una traslación
para el sistema como un todo. Esto enfatiza el hecho de que el momento generalizado está asociado a una
coordenada y no a una partı́cula. El mismo comentario vale para la fuerza generalizada. En realidad, todas las
variables generalizadas en la formulación Lagrangiana están asociadas a coordenadas en lugar de partı́culas.
A este hecho se debe en parte la facilidad de extender este formalismo a campos y sistemas contı́nuos.
Vale la pena mencionar que en el presente tratamiento solo se asumió que el potencial no dependı́a de la
velocidad generalizada q̇j pero podrı́a depender de las velocidades generalizadas de otras coordenadas. Por
otro lado, para sistemas aislados cuyo potencial no dependa de q̇j las demás condiciones se satisfacen (para
una dirección arbitraria de la traslación), ya que al no existir fuerzas externas no hay ligaduras externas que
signifiquen una violación de las ligaduras cuando el sistema se traslada como un todo. Adicionalmente, debido
a la homogeneidad del espacio, una traslación del sistema como un todo es equivalente para un sistema aislado
a un corrimiento del origen, de lo cual es claro que la energı́a cinética no puede depender de qj . Nótese que
si el sistema no es aislado, un corrimiento del origen no necesariamente es equivalente a un corrimiento del
sistema, ya que el corrimiento del sistema lo puede estar acercando o alejando de ciertos objetos externos,
en tanto que un corrimiento en el origen no. Si por ejemplo ubicamos un plano infinito de masa o de carga
uniformemente distribuı́da por ejemplo sobre el plano XY , es claro que una traslación en x e y cumplirá las
condiciones aquı́ expuestas, pero un corrimiento en z probablemente no.
5.1. TEOREMAS DE CONSERVACIÓN Y PROPIEDADES DE SIMETRÍA 73

Si ahora suponemos (d) que la coordenada de traslación qj es cı́clica, qj no podrı́a aparecer en el potencial
de modo que
∂V
− ≡ Qj = 0 = ṗj
∂qj
lo cual nos da la conservación de la componente del momento lineal total del sistema a lo largo de la dirección
de traslación. De modo que si cierta componente de la fuerza (Newtoniana) total del sistema es nula, la
correspondiente componente del momento lineal es constante. Esta condición también la cumplen los sistemas
aislados para una dirección arbitraria de la traslación, en virtud de la homogeneidad del espacio, por tanto
vemos que el momento total del sistema se debe conservar para sistemas aislados cuyo potencial no dependa
de las velocidades generalizadas. En este caso hablamos del teorema de conservación del momento lineal. Sin
embargo, es un hecho experimental que el momento lineal total de un sistema aislado se conserva incluso si no
se cumple dicha condición (aunque con un concepto extendido de momento), con lo cual la conservación del
momento adquiere el carácter de principio.

5.1.2. Momento angular y coordenadas globales de rotación

Figura 5.1: Rotación infinitesimal del sistema como un todo, caracterizada por el desplazamiento angular dqj .

De manera similar al caso anterior, veremos que si dqj corresponde a una rotación del sistema como un todo
alrededor de cierto eje, el momento generalizado corresponde al momento angular del sistema a lo largo del
eje de rotación en tanto que Qj corresponde a la componente del torque en la dirección de dicho eje. Cuando
la variable qj se vuelve cı́clica se llega a la conservación del momento angular.
Asumiremos las mismas condiciones del caso anterior pero para una coordenada qj que produce la rotación
del sistema como un todo alrededor de un eje fijo. La Fig. 5.1 muestra la rotación en una cantidad dqj de
la partı́cula i−ésima del sistema, donde por comodidad y sin pérdida de generalidad se ha colocado el eje de
74 CAPÍTULO 5. SIMETRÍAS Y CANTIDADES CONSERVADAS (LAGRANGE)

rotación a lo largo del eje Z. ri (qj ) es la posición de esa partı́cula cuando la coordenada generalizada vale qj y
ri (qj + dqj ) es la posición de la partı́cula i−ésima cuando la rotación dqj se ha realizado, θ es el ángulo entre
ri y el eje de rotación y Ri el radio del cı́rculo descrito por la partı́cula i alrededor del eje de rotación. Como
hemos asumido que T es independiente de qj y que V es independiente de q̇j llegamos de nuevo a (5.6), y la
fuerza generalizada Qj está dada de nuevo por (5.7) pero en este caso la derivada adquiere un sentido diferente

∂ri
kdri k = Ri dqj = ri sin θ dqj ⇒ = ri sin θ
∂qj

la dirección de dri y por lo tanto la de ∂ri /∂qj es perpendicular a n (vector unitario a lo largo del eje de
rotación). Adicionalmente dado que ri no cambia de magnitud, se tiene que dri (y por tanto ∂ri /∂qj ) es también
perpendicular a ri . Por tanto, ∂ri /∂qj es perpendicular a n y a ri y su magnitud es ri sin θ = knk kri k sin θ,
de lo cual se deduce que
∂ri
= n × ri (5.9)
∂qj
la fuerza generalizada queda entonces
N
X N
X
Qj = Fi · (n × ri ) = n · (ri × Fi )
i=1 i=1

donde hemos usado la identidad a · (b × c) = b · (c × a). Vemos que Ni ≡ ri × Fi es el torque de la partı́cula


i−ésima, medido con respecto al origen definido en la Fig. 5.1. De modo que
N
X
Qj = n · Ni = n · N
i=1

la fuerza generalizada corresponde entonces a la componente del torque total del sistema a lo largo del eje de
rotación4 . Veamos el momento conjugado

XN X N X N X N
∂L ∂T ∂ ṙi ∂ri
pj = = = mi vi · = mi vi · = mi vi · (n × ri ) = n · (ri × mi vi )
∂ q̇j ∂ q̇j ∂ q̇j ∂qj
i=1 i=1 i=1 i=1
N
X
pj = n · Li = n · L
i=1

el momento canónico es entonces la componente del momento angular total en la dirección del eje de rotación.
Si la variable qj se vuelve ignorable, se llega a la conservación de la componente del momento angular total en
la dirección del eje de rotación. La variable qj es en este caso una variable angular y por tanto, adimensional.
Vemos que las condiciones anteriores se cumplen para un sistema aislado. La discusión es muy similar al
caso traslacional salvo que esta vez apelamos a la isotropı́a del espacio y no a la homogeneidad. Recordemos
que la homogeneidad nos dice que la estructura del espacio es la misma si cambiamos el origen del sistema
coordenado, en tanto que la isotropı́a nos menciona que la estructura del espacio se vé igual si hacemos una
reorientación de los ejes coordenados (sin cambiar el origen).

5.1.3. Consideraciones generales sobre simetrı́as asociadas a coordenadas cı́clicas y can-


tidades conservadas
Es sencillo ver que el hecho de que una variable sea cı́clica está asociado con algún tipo de simetrı́a del
sistema. Por ejemplo, si la traslación del sistema como un todo no afecta al problema, lo que estamos diciendo
es que el sistema es invariante bajo traslaciones en cierta dirección, y por lo tanto dicha invarianza ante la
4
Es importante notar que esta afirmación es válida siempre y cuando el origen con respecto al cual se mide el torque, sea tal
que el eje de rotación pase por dicho origen, como se aprecia en la Fig. 5.1.
5.2. FUNCIÓN ENERGÍA Y CONSERVACIÓN DE LA ENERGÍA 75

operación de traslación conduce a la conservación del momento lineal en la dirección de dicha traslación. Por
otra parte si un sistema permanece invariante ante una rotación alrededor de cierto eje, la componente del
momento angular a lo largo de dicho eje se conserva. Los teoremas de conservación están fuertemente ligados a
las simetrı́as del sistema. Si el sistema es esféricamente simétrico, el momento angular del sistema se conserva
en todas direcciones. Estas consideraciones de simetrı́a para llegar a primeras integrales es aplicable incluso a
sistemas muy complejos en los cuales no es posible resolver la dinámica completa.
Veamos una aplicación: supongamos que tenemos un sistema de partı́culas inmerso en un potencial generado
por una distribución homogénea de masa, carga etc. que forma un plano infinito (el plano XY ). Claramente
la traslación de este sistema (si es localizado) a lo largo de x e y no afecta la dinámica de éste, pero una
traslación en z puede posiblemente afectarlo. Por otro lado también hay una clara invarianza cuando rotamos
al sistema alrededor de z. Sin conocer los detalles del sistema, deducimos que px , py y Lz se conservan. Si en
vez del plano XY , la distribución externa solo ocupa al semiplano infinito x ≥ 0, entonces solo permanece la
invarianza de py . La relación estrecha entre las simetrı́as y las constantes de movimiento, constituye uno de los
principios mas profundos y fructı́feros en la Fı́sica y adquiere una dimensión aún mayor a la luz del Teorema
de Noether que discutiremos más adelante.

5.2. Función energı́a y conservación de la energı́a


Por supuesto, también es de esperarse que el teorema de conservación de la energı́a se pueda obtener del
formalismo Lagrangiano, cuando las fuerzas del sistema son derivables de un potencial que solo depende de la
posición. Por otro lado, hemos visto que la ausencia de una coordenada generalizada en el Lagrangiano conduce
a la conservación de un momento generalizado, es natural entonces preguntarse si la ausencia explı́cita de la
variable tiempo conduce a algún teorema de conservación. La analogı́a no es tan directa puesto que no hemos
asociado un momento generalizado relacionado con la variable tiempo ni tiene sentido una variable ṫ, en ese
sentido no podemos hablar del tiempo como una coordenada generalizada. Más bien, el tiempo se considera
un parámetro que además de aparecer explı́citamente, regula la evolución de las coordenadas.
Al igual que en el caso de los momentos, veremos que del formalismo Lagrangiano sale un teorema de
conservación más general que incluye a la conservación de la energı́a como caso particular.
Consideremos un Lagrangiano que es función de las coordenadas generalizadas, velocidades generalizadas
y el tiempo (la dependencia temporal explı́cita puede provenir de las variaciones de fuentes exteriores, o de
ligaduras dependientes del tiempo), con lo cual la derivada total respecto al tiempo es
n n
dL X ∂L dqj X ∂L dq̇j ∂L
= + + (5.10)
dt ∂qj dt ∂ q̇j dt ∂t
j=1 j=1

a partir de las ecuaciones de Lagrange  


∂L d ∂L
= (5.11)
∂qj dt ∂ q̇j
y reemplazándolo en (5.10)

Xn    n
dL d ∂L dqj X ∂L dq̇j ∂L
= + + ⇒
dt dt ∂ q̇j dt ∂ q̇j dt ∂t
j=1 j=1
Xn   
dL d ∂L ∂L
= q̇j +
dt dt ∂ q̇j ∂t
j=1

lo cual se puede reescribir en la forma


  
n
d X ∂L  ∂L
q̇j − L + =0 (5.12)
dt ∂ q̇j ∂t
j=1
76 CAPÍTULO 5. SIMETRÍAS Y CANTIDADES CONSERVADAS (LAGRANGE)

la cantidad entre paréntesis se denomina función energı́a, y se denota por h


   
Xn Xn
∂L
h (q, q̇, t) ≡  q̇j −L= q̇j pj  − L (5.13)
∂ q̇j
j=1 j=1

la función energı́a es idéntica en valor al Hamiltoniano, cuya formulación veremos más adelante. Sin embargo,
se denota con una letra diferente (el Hamiltoniano se denota como H) ya que las dos funciones difieren en
cuanto a los argumentos que utilizan, h es función de qj , q̇j , t; en tanto que H es función de qj , pj , t siendo
pj el momento conjugado a qj . Aplicando (5.13), la ecuación (5.12) se escribe

dh ∂L
=− (5.14)
dt ∂t
de lo cual se ve en forma inmediata que si el Lagrangiano no es función explı́cita del tiempo, es decir su
dependencia temporal aparece solo a través de q (t), y q̇ (t), la función energı́a es una constante de movimiento.
h es en consecuencia, una primera integral de movimiento y se le denomina integral de Jacobi.
En este punto conviene clarificar que para que una cierta cantidad sea constante de movimiento, es necesario
y suficiente que su derivada total con respecto al tiempo (y no necesariamente la parcial) sea nula. Para ver
la razón de esto, recordemos el significado de cada una de estas derivadas, la derivada parcial corresponde a
dejar las coordenadas y velocidades generalizadas fijas y solo se mueve el parámetro tiempo, el hecho de que
la derivada parcial se anule significa entonces que la cantidad en cuestión se mantiene constante en un proceso
virtual en el cual las coordenadas y velocidades generalizadas del sistema se mantuvieran fijas y solo variara el
parámetro tiempo, es decir solo evolucionan las influencias exteriores al sistema5 . Una cantidad es constante
de movimiento cuando se mantiene constante su valor en un proceso real, y en un proceso real las coordenadas
y velocidades generalizadas también evolucionan a medida que transcurre el tiempo, en consecuencia es la
derivada total la que describe correctamente la evolución de una cierta cantidad con el tiempo. En particular,
la cantidad será constante de movimiento si y solo si su derivada total es cero.
Más adelante veremos que para el Hamiltoniano (que coincide numéricamente con la función energı́a) las
derivadas temporales total y parcial coinciden (ver Ec. 6.38, Pág. 101). Naturalmente esto también será válido
para la función energı́a, de modo que en este caso muy particular la anulación de la derivada parcial nos
conduce a que h sea constante de movimiento. Debemos enfatizar sin embargo, que en general las derivadas
total y parcial con respecto al tiempo de una cantidad arbitraria pueden ser muy diferentes.

5.2.1. Relación entre energı́a y función energı́a


Bajo ciertas circunstancias, la función h es la energı́a total del sistema. Para determinar bajo que circuns-
tancias, recordemos que la energı́a cinética se puede escribir de la forma

T = T0 (q) + T1 (q, q̇) + T2 (q, q̇)

donde T0 es independiente de las velocidades generalizadas, T1 es lineal en las velocidades generalizadas, y


T2 es una función cuadrática de éstas (ver Ec. 2.24, Pág. 2.24). Para un amplio número de sistemas, una
descomposición similar es posible con el Lagrangiano completo

L (q, q̇, t) = L0 (q, t) + L1 (q, q̇, t) + L2 (q, q̇, t) (5.15)

donde L2 es una función homogénea de segundo grado (no simplemente cuadrática) en q̇. L1 es homogénea
de primer grado en q̇, y L0 es independiente de q̇ (i.e. homogénea de grado cero en q̇). No hay ninguna razón
de primeros principios para asumir que el Lagrangiano tenga esta forma, pero esta estructura aparece en una
gran cantidad de problemas. Por ejemplo, el Lagrangiano adquiere esta forma cuando el potencial no depende
5
Vale decir que en este caso estamos hablando de un proceso virtual muy diferente al definido para el principio de D’Alembert.
Pues en el escenario actual es el tiempo el que evoluciona y se fijan las coordenadas de las partı́culas, en tanto que para el principio
de D’Alembert es todo lo contrario.
5.2. FUNCIÓN ENERGÍA Y CONSERVACIÓN DE LA ENERGÍA 77

en forma explı́cita de la velocidad. Sin embargo, aún para ciertos potenciales dependientes de la velocidad,
esta separación es posible como se puede ver para el caso mas caracterı́stico del potencial de una carga en un
campo electromagnético.
Aplicaremos ahora el teorema de Euler, que nos dice que si f (x1 , . . . , xp ) es una función homogénea de
grado n en las variables xi entonces
Xp
∂f
xi = nf (5.16)
∂xi
i=1

aplicando la definición de la función h, Ec. (5.13), para Lagrangianos de la forma (5.15), resulta
       
n
X Xn n
X n
X
∂L  ∂L0  ∂L1  ∂L2 
h= q̇j −L= q̇j − L0 +  q̇j − L1 +  q̇j − L2
∂ q̇j ∂ q̇j ∂ q̇j ∂ q̇j
j=1 j=1 j=1 j=1

y aplicando el teorema de Euler (5.16), para funciones homogéneas

h = 0 − L0 + L1 − L1 + 2L2 − L2
h = L2 − L0 (5.17)

Si las transformaciones de coordenadas descritas en (2.5) no dependen explı́citamente del tiempo, la estructura
de la energı́a cinética descrita en (2.24), resulta T = T2 . Si adicionalmente, el potencial no depende de las
velocidades generalizadas, se tendrı́a que L2 = T , y L0 = −V , de tal manera que

h=T +V =E

y la función energı́a corresponde en este caso a la energı́a total del sistema. Esta energı́a no necesariamente se
conserva puesto que el potencial puede ser función explı́cita del tiempo. Cuando se asume adicionalmente a
las condiciones anteriores, que el potencial no depende explı́citamente del tiempo, la Ec. (5.14) nos conduce a
la conservación de h y en este caso a la conservación de la energı́a total del sistema. Nótese sin embargo, que
las condiciones de conservación de h son en general, muy diferentes de las condiciones para la conservación
de la energı́a. h no necesariamente corresponde a la energı́a, y cuando corresponde a la energı́a del sistema
no necesariamente se conserva. Es particularmente importante el hecho de que mientras el valor numérico del
Lagrangiano es independiente de las coordenadas generalizadas empleadas, la función h depende en valor y en
forma funcional del sistema coordenado elegido. Mas aún, esta cantidad puede ser conservada para una cierta
escogencia de coordenadas y no serlo para otra, o ser la energı́a total en un sistema coordenado y no serlo en
otro. En realidad, para un mismo sistema fı́sico, diferentes funciones h pueden ser generadas de acuerdo con
el sistema de coordenadas elegido, esto se puede ver de la definición (5.13) ya que q̇j y pj son muy diferentes
cuando cambiamos de sistema coordenado. Volveremos sobre este punto en la sección 6.7.1, en el lenguaje del
Hamiltoniano.
Uno de los casos más comunes en mecánica clásica es aquel en el cual la energı́a cinética es de la forma
T = mq̇i2 /2 ó p2i /2m y la energı́a potencial depende solo de las coordenadas generalizadas. En este caso, h es
la energı́a total del sistema y se conserva.

5.2.2. Función energı́a con fuerzas disipativas


Un caso interesante ocurre cuando tenemos fuerzas disipativas que se pueden generar de una función de
disipación ̥. Tomando de nuevo como punto de partida la Ec. (5.10) y teniendo en cuenta que las ecuaciones
de Lagrange con fuerzas disipativas tipo Rayleigh vienen dadas por (2.38) vemos que la Ec. (5.11) debe ser
corregida para obtener
 
∂L d ∂L ∂̥
= +
∂qj dt ∂ q̇j ∂ q̇j
78 CAPÍTULO 5. SIMETRÍAS Y CANTIDADES CONSERVADAS (LAGRANGE)

con esto la Ec. (5.12) queda en la forma


  
d  X ∂L  ∂L X ∂̥
q̇j − L + + q̇j = 0
dt ∂ q̇j ∂t ∂ q̇j
j j

y junto con (5.13) adquieren la forma


dh ∂L X ∂̥
+ =− q̇j
dt ∂t ∂ q̇j
j

la definición de ̥ dada por la Ec. (2.37), nos muestra que esta función es homogénea de grado 2 en las q̇’s.
Aplicando de nuevo el teorema de Euler, resulta
dh ∂L
= −2̥ − (5.18)
dt ∂t
Si L no es función explı́cita del tiempo y el sistema es tal que h es la energı́a del sistema, la Ec. (5.18) nos dice
que 2̥ es la rata de disipación de energı́a
dE
= −2̥ (5.19)
dt
que concuerda con lo demostrado en la sección 2.5, aunque allı́ fué probado en circunstancias menos generales.

5.3. Teorema de Noether para sistemas discretos (opcional)


Veremos a continuación que la relación entre simetrı́as y leyes de conservación se puede englobar de una
forma muy general en el celebrado teorema de Noether, que contiene a los casos ya estudiados como casos
particulares. En términos simples este teorema asocia a cada simetrı́a contı́nua del sistema una cantidad
conservada. Veamos su enunciado preciso.

Theorem 3 Teorema de Noether: Sea un Lagrangiano de la forma L = L (q, q̇, t). Supongamos que las ecua-
ciones de movimiento de Lagrange Ecs. (4.3), son invariantes bajo una transformación contı́nua de coordenadas
de la forma [t, q] → [t′ (t) , q′ (q,t)]. Entonces existe una integral de movimiento i.e. una cantidad conservada
asociada a dicha invarianza.

Demostración: Dado un Lagrangiano L (q, q̇, t) que depende de las coordenadas qi (i = 1, ..., n), sus
derivadas temporales q̇i y el tiempo t, podemos introducir unas nuevas coordenadas con la transformación

t′ ≡ t′ (t) ; qi′ ≡ qi′ (q,t) (5.20)

esta transformación debe ser invertible ya que de lo contrario, el nuevo conjunto coordenado no serı́a indepen-
diente. Parametrizaremos las nuevas coordenadas en la forma:

t′ ≡ t + δt (t) , qi′ ≡ qi + δqi (q,t) (5.21)


inicialmente las transformaciones δt y δqi son arbitrarias, por notación se tiene que:
dqi dq ′
q̇i ≡ ; q̇i′ ≡ ′i
dt dt
podemos conectar estas cantidades a través de las relaciones
dqi′ dqi′ dt d (qi + δqi ) dt
q̇i′ = ′
= ′
= (5.22)
dt dt dt dt dt′
y teniendo en cuenta que
 −1  −1  −1
dt dt′ d [t + δt] d 1
= = = 1+ δt = d
(5.23)
dt′ dt dt dt 1 + dt δt
5.3. TEOREMA DE NOETHER PARA SISTEMAS DISCRETOS (OPCIONAL) 79

podemos reemplazar (5.23) en (5.22) y se tiene que


 
′ d 1
q̇i = q̇i + δqi d

dt 1 + dt δt
de modo que:  
d 1
δq̇i ≡ q̇i′ − q̇i = q̇i + δqi d
 − q̇i
dt 1 + dt δt
Si consideramos transformaciones infinitesimales de modo que δqi y δt se convierten en cantidades diferen-
ciales, se tiene que:
       
d d d d d d
δq̇i ≈ q̇i + δqi 1 − δt − q̇i = q̇i − q̇i δt + δqi − δqi δt − q̇i
dt dt dt dt dt dt
d d
δq̇i ≈ δqi − q̇i δt (5.24)
dt dt
donde hemos despreciado términos de orden cuadrático en δt, δq.
Dado que la Fı́sica no puede cambiar con esta transformación de coordenadas, la acción debe permanecer
invariante:
Z t2 Z t′ (t2 )
     
S (t1 , t2 ) ≡ L [q (t) , q̇ (t) , t] dt = S ′ t′ (t1 ) , t′ (t2 ) ≡ L′ q′ t′ , q̇′ t′ , t′ dt′
t1 t′ (t1 )

para que esto se cumpla, se requiere de la siguiente igualdad


     dt
L′ q′ , q̇′ , t′ ≡ L q q′ , t′ , q̇ q′ , q̇′ , t′ , t t′ (5.25)
dt′
para verificarlo basta con hacer una transformación de coordenadas y tiempo a la acción
Z t2 Z t′ (t2 ) Z t2
   
L [q (t) , q̇ (t) , t] dt → L′ q′ t′ , q̇′ t′ , t′ dt′ = L [q, q̇, t] dt
t1 t′ (t1 ) t1

donde en la última igualdad hemos aplicado justamente (5.25) y los lı́mites de integración cambian por el
hecho de que cambia el diferencial del cual dependen éstos.
Si la forma de las ecuaciones de movimiento es invariante ante esta transformación de coordenadas, se dice
que dicha transformación es simétrica. En el caso más simple, el lagrangiano como tal es invariante:
 
L′ q′ , q̇′ , t′ = L q′ , q̇′ , t′
esto sin embargo, no es necesario, ya hemos visto que es suficiente que se cumpla la relación.
  d 
L′ q′ , q̇′ , t′ = L q′ , q̇′ , t′ + ′ Ω q′ , t′ (5.26)
dt
es decir, que ambas funciones lagrangianas pueden diferir en una derivada total con respecto al nuevo parámetro
de tiempo. Si insertamos la ecuación (5.26) en (5.25), se tiene:
    dt  d 
L q q′ , t′ , q̇ q′ , q̇′ , t′ , t t′ = L q′
, q̇′ ′
, t + Ω q′ ′
, t (5.27)
dt′ dt′
de lo cual queda:

 
 ′ ′
 ′ ′ ′
  dt′ ′
d ′ ′
 dt′′ ′ ′
L q q , t , q̇ q , q̇ , t , t t = L q , q̇ , t + Ω q ,t
dt dt′ dt
 dt ′ d 
L [q, q̇, t] = L q′ , q̇′ , t′ + Ω q′ , t′
dt dt
80 CAPÍTULO 5. SIMETRÍAS Y CANTIDADES CONSERVADAS (LAGRANGE)

que junto con (5.23) nos da la ecuación:

 dt′ d 
L [q, q̇, t] − L q′ , q̇′ , t′ = Ω q′ , t′
 dt
 dt
 d d 
L [q, q̇, t] − L q′ , q̇′ , t′ 1 + δt = Ω q′ , t′
dt dt
de modo que
  d d 
L [q, q̇, t] − L q′ , q̇′ , t′ = L q′ , q̇′ , t′ δt + Ω q′ , t′ (5.28)
dt dt
y dado que la transformación es contı́nua, es posible considerar transformaciones infinitesimales en (5.21).
Definiendo

L q′ , q̇′ , t′ − L [q, q̇, t] ≡ δL
y tomando (5.21), la ecuación (5.28) se convierte en:

d d
−δL ≡ L [q, q̇, t] − L (q + δq, q̇ + δq̇, t + δt) = L (q + δq, q̇ + δq̇, t + δt) δt + Ω (q + δq, t + δt)
dt dt
pero por expansión de Taylor
d d 
L (q + δq, q̇ + δq̇, t + δt) δt = L (q, q̇, t) δt + O δ2
dt dt
despreciando términos cuadráticos en δq, δq̇ y/o δt, resulta
d d
−δL = L (q, q̇, t) δt + Ω (q + δq, t + δt)
dt dt
En particular, si escojemos δq = δt = 0, se tiene que q = q′ y t = t′ , además usando (5.24) se obtiene δq̇ =
d
0, de modo que q̇ = q̇′ . Con estas consideraciones y usando la Ec. (5.27) se tendrı́a que dt Ω (q, t) = 0. Podemos
añadir este cero para reescribir −δL como
d d
−δL = L (q, q̇, t) δt + [Ω (q + δq, t + δt) − Ω (q, t)]
dt dt
d d
δL = −L (q, q̇, t) δt − δΩ (q, t) (5.29)
dt dt
por otro lado, dado que estamos escribiendo L en función de q, q̇, t la regla de la cadena para δL nos da
Xn  
∂L ∂L ∂L
δL = δqi + δq̇i + δt (5.30)
∂qi ∂ q̇i ∂t
i=1

igualando (5.29) con (5.30) y usando (5.24) resulta:

n 
X 
∂L ∂L ∂L d d
δqi + δq̇i + δt + L δt = − δΩ (q, t)
∂qi ∂ q̇i ∂t dt dt
i=1
Xn     
∂L ∂L d d ∂L d d
δqi + δqi − q̇i δt + +L δt = − δΩ (q, t)
∂qi ∂ q̇i dt dt ∂t dt dt
i=1
Xn   Xn    
∂L ∂L d ∂L d ∂L d d
+ δqi − q̇i δt + +L δt = − δΩ (q, t)
∂qi ∂ q̇i dt ∂ q̇i dt ∂t dt dt
i=1 i=1
n   " n
#
X ∂L ∂L d ∂L X ∂L d d
+ δqi + δt + L − q̇i δt = − δΩ (q, t) (5.31)
∂qi ∂ q̇i dt ∂t ∂ q̇i dt dt
i=1 i=1
5.3. TEOREMA DE NOETHER PARA SISTEMAS DISCRETOS (OPCIONAL) 81

la Ec. (5.31) describe la condición que un δΩ debe cumplir para un Lagrangiano dado, a fin de que las
ecuaciones de movimiento (4.3), permanezcan invariantes ante una transformación infinitesimal dada por
(5.21)6 . El problema se reduce usualmente a la existencia (o no existencia) de una solución para la función
δΩ en la Ec. (5.31) para una transformación especı́fica de la forma (5.21). En particular, si se cumplen las
condiciones
d (δΩ) d (δt)
=0 y =0 (5.32)
dt dt
entonces la Ec. (5.29) nos lleva a que δL = 0. Por tanto, bajo estas condiciones la función Lagrangiana misma
permanecerı́a invariante bajo la transformación de coordenadas. Si la Ec. (5.31) se satisface, entonces al usar
las ecuaciones de movimiento  
∂L d ∂L
=
∂qi dt ∂ q̇i
se obtiene: " #
n 
X    n
X
d ∂L ∂L d ∂L ∂L d d
+ δqi + δt + L − q̇i δt = − δΩ (q, t) (5.33)
dt ∂ q̇i ∂ q̇i dt ∂t ∂ q̇i dt dt
i=1 i=1

el primer y tercer términos a la izquierda de (5.33) se pueden escribir en la forma


n     ( n   ) X n   n  
X d ∂L ∂L d d X ∂L ∂L d X d ∂L
+ δqi = 2 δqi − δqi − δqi (5.34)
dt ∂ q̇i ∂ q̇i dt dt ∂ q̇i ∂ q̇i dt dt ∂ q̇i
i=1 i=1 i=1 i=1
" n
# (" n
# ) n
!
X ∂L d d X ∂L dL d X ∂L
L− q̇i δt = L− q̇i δt − δt + δt q̇i (5.35)
∂ q̇i dt dt ∂ q̇i dt dt ∂ q̇i
i=1 i=1 i=1

reemplazando (5.34) y (5.35) en (5.33) se obtiene


( n   ) X n   n  
d X ∂L ∂L d X d ∂L ∂L
2 δqi − δqi − δqi + δt +
dt ∂ q̇i ∂ q̇i dt dt ∂ q̇i ∂t
i=1 i=1 i=1
(" n
# ) n
!
d X ∂L dL d X ∂L d
+ L− q̇i δt − δt + δt q̇i + δΩ (q, t) = 0
dt ∂ q̇i dt dt ∂ q̇i dt
i=1 i=1

organizando los términos que aparecen bajo la derivada temporal total resulta

( n n
! ) n   n  
d X ∂L X ∂L X ∂L d X d ∂L
2 δqi +
L− q̇i δt + δΩ (q, t) − δqi − δqi +
dt ∂ q̇i ∂ q̇i ∂ q̇i dt dt ∂ q̇i
i=1 i=1 i=1 i=1
n
!
∂L dL d X ∂L
+ δt − δt + δt q̇i = 0
∂t dt dt ∂ q̇i
i=1

simplificando términos
( n n
! ) ( n   )
d X ∂L X ∂L d X ∂L
2 δqi + L − q̇i δt + δΩ (q, t) − δqi +
dt ∂ q̇i ∂ q̇i dt ∂ q̇i
i=1 i=1 i=1
" n
!#
∂L dL d X ∂L
+ − + q̇i δt = 0
∂t dt dt ∂ q̇i
i=1
6
Vale la pena mencionar que al Lagragiano lo podemos ver en este teorema, como una función arbitraria que depende de un
parámetro t, de unas coordenadas qi y de q̇i , de tal manera que las ecuaciones que rigen el comportamiento de las coordenadas
qi con respecto al parámetro t, sean las Ecs. (4.3). El sistema no tiene que ser mecánico y de hecho no tiene que ser un sistema
Fı́sico.
82 CAPÍTULO 5. SIMETRÍAS Y CANTIDADES CONSERVADAS (LAGRANGE)

de nuevo agrupamos los términos con derivada temporal total


( n n
! ) " n
! #
d X ∂L X ∂L ∂L d X ∂L dL
δqi + L − q̇i δt + δΩ (q, t) + + q̇i − δt = 0 (5.36)
dt ∂ q̇i ∂ q̇i ∂t dt ∂ q̇i dt
i=1 i=1 i=1

usando regla de la cadena para dL/dt y las ecuaciones de Lagrange, evaluamos el término proporcional a δt
n
! n
! n n
∂L d X ∂L dL ∂L d X ∂L X ∂L X ∂L ∂L
+ q̇i − = + q̇i − q̇i − q̈i −
∂t dt ∂ q̇i dt ∂t dt ∂ q̇i ∂qi ∂ q̇i ∂t
i=1 i=1 i=1 i=1
X n   X n Xn X n
d ∂L ∂L ∂L ∂L
= q̇i + q̈i − q̇i − q̈i
dt ∂ q̇i ∂ q̇i ∂qi ∂ q̇i
i=1 i=1 i=1 i=1
n
X n n n
∂L X ∂L X ∂L X ∂L
= q̇i + q̈i − q̇i − q̈i = 0
∂qi ∂ q̇i ∂qi ∂ q̇i
i=1 i=1 i=1 i=1

por tanto la ecuación (5.36) se reduce a:


( n n
! )
d X ∂L X ∂L
δqi + L− q̇i δt + δΩ (q, t) =0
dt ∂ q̇i ∂ q̇i
i=1 i=1

es decir que la cantidad !


n
X n
X
∂L ∂L
δqi + L− q̇i δt + δΩ (q, t) = cte (5.37)
∂ q̇i ∂ q̇i
i=1 i=1

es una constante de movimiento o cantidad conservada (integral de movimiento). En sı́ntesis, si para una
transformación especı́fica de coordenadas de la forma (5.21), existe un valor de δΩ (q, t) que satisfaga la Ec.
(5.31), dicho valor de δΩ nos conducirá a una constante de movimiento de la forma (5.37). Recordemos que la
condición (5.31) equivale a la invarianza de las ecuaciones de movimiento ante la transformación (5.21).

5.3.1. Comentarios sobre el teorema de Noether


1. Es importante enfatizar en que dicho teorema solo es válido para transformaciones contı́nuas del espacio
tiempo, ya que en la demostración es fundamental el uso de transformaciones infinitesimales.

2. Aunque Ω (q, t) es una función arbitraria, esta debe ser derivable hasta segundo orden en todas sus varia-
bles y esta segunda derivada debe ser contı́nua. Ya que en una parte de la demostración se intercambian
las segundas derivadas.

3. El teorema implica la invarianza de la acción (i.e. de las ecuaciones de movimiento). Sin embargo, no
implica la invarianza del lagrangiano mismo, esta solo se cumple si d (δΩ) /dt = 0, d (δt) /dt = 0.

4. En teorı́a de campos (ver sección 18.3) se puede hacer una demostración similar con las siguientes
correspondencias: q → Φ (q) , q̇ →∂µ Φ (q) , L → L donde Φ (q) representa los campos (un arreglo
vectorial de ellos), ∂µ Φ (q) representa sus derivadas con respecto al espacio y el tiempo, y L representa
una densidad Lagrangiana con Z
L≡ L d3 q,

5. A pesar de que la función Ω actúa como un “gauge” para el Lagrangiano, vemos que la cantidad conser-
vada depende del cambio de esta función δΩ evaluado entre los dos sistemas coordenados. Esto es lógico
ya que δΩ surge de manera natural a partir de la transformación de coordenadas que se hizo. En realidad
esta cantidad se debe fijar a través de la Ec. (5.31) con el fin de que la transformación en cuestión deje
invariantes a las ecuaciones de movimiento.
5.4. EJEMPLOS DE APLICACIÓN DEL TEOREMA DE NOETHER 83

6. Nótese que la solución para δΩ en la Ec. (5.31), no tiene porqué ser única. Por otro lado, puede ocurrir que
no exista solución, en este caso la transformación de coordenadas no es una transformación de simetrı́a
del sistema y no tendrı́amos una cantidad conservada.

7. Es necesario distinguir entre la transformación de coordenadas [t, q] → [t′ , q′ ] y la transformación gauge


L′ = L + dΩ/dt. Nótese que esta última solo es válida en un sistema coordenado fijo.

8. Una condición esencial para la validez del teorema, es que el nuevo parámetro t′ , dependa únicamente
del antiguo parámetro t′ = t′ (t), y no de las antiguas coordenadas, como se vé en las Ecs. (5.20).
Esto es importante para la consistencia de la teorı́a, puesto que el parámetro debe ser completamente
independiente de las coordenadas, de modo que solo él regule la evolución de las coordenadas, conservando
la independencia entre éstas.

9. En esta demostración se ha supuesto que el Lagrangiano depende de q, q̇ y t. No se habla sobre Lagran-


gianos con dependencia de las derivadas de orden superior. Por ejemplo, esta demostración no es válida
para un Lagrangiano de la forma L (q, q̇, q̈, t) como el discutido en la sección 4.6.

10. El teorema implica que las simetrı́as del sistema deben reflejarse en su acción S.

11. Una estrategia muy fructı́fera para el uso del teorema de Noether es la siguiente: para una transformación
de coordenadas especı́fica, buscamos las condiciones requeridas para que la Ec. (5.31) tenga solución,
con la solución ası́ obtenida vamos a la Ec. (5.37) para encontrar la constante de movimiento que se
genera. Las condiciones que se necesiten para que (5.31) tenga solución, serán entonces las condiciones
fı́sicas que debe tener mi sistema para que la transformación de coordenadas sea una transformación de
simetrı́a para mi sistema, y por ende para que la cantidad generada en (5.37) sea realmente conservada.

5.4. Ejemplos de aplicación del teorema de Noether


5.4.1. Invarianza ante traslación temporal y conservación de la energı́a
Supongamos que las ecuaciones de movimiento de un sistema fı́sico son invariantes ante una translación
temporal. ¿Que condición debe satisfacer el Lagrangiano y cual es la cantidad conservada?.
Una traslación temporal se puede escribir como: δq = δq̇ = 0, δt (t) = δτ = cte. De la ecuación (5.31)
resulta:

" n
#
∂L X ∂L d d
δτ + L − q̇i δτ = − δΩ (q, t)
∂t ∂ q̇i dt dt
i=1
∂L d
δτ = − δΩ (q, t) (5.38)
∂t dt
si L no depende explı́citamente del tiempo entonces δΩ es constante y además la Ec. (5.29) nos indica que el
Lagrangiano mismo es invariante ante la transformación en cuestión. Por tanto, la cantidad conservada dada
por la Ec. (5.37) serı́a !
n
X n
X
∂L ∂L
δqi + L − q̇i δτ + δΩ = ca
∂ q̇i ∂ q̇i
i=1 i=1
teniendo en cuenta que δqi = 0 y como δτ y δΩ son constantes resulta:
n
! n
!
X ∂L X
h (qi , q̇i , t) ≡ q̇i − L = pi q̇i − L ≡ H = cte
∂ q̇i
i=1 i=1

es decir, la función energı́a del sistema (Función Hamiltoniana), es la constante de movimiento. Cuando la
función energı́a (el Hamiltoniano) corresponde a la energı́a del sistema llegamos a la conservación de la energı́a.
84 CAPÍTULO 5. SIMETRÍAS Y CANTIDADES CONSERVADAS (LAGRANGE)

Vale decir que de acuerdo con nuestras condiciones, la energı́a se conserva incluso para algunos sistemas no
aislados, pues si los campos externos son independientes del tiempo, el Lagrangiano no dependerá del tiempo
que es la condición requerida para llegar a la conservación de esta cantidad (además de las condiciones para
que la función energı́a, sea la energı́a del sistema).
En la discusión anterior asumimos que el Lagrangiano no depende explı́citamente del tiempo, con lo cual
el Lagrangiano mismo permanece invariante ante la traslación temporal. Vale la pena preguntarse si podemos
encontrar una condición más general en la cual las ecuaciones de movimiento permanezcan invariantes ante
dicha transformación, pero no necesariamente el Lagrangiano mismo. Asumamos en consecuencia que el La-
grangiano puede depender explı́citamente del tiempo, dado que L = T − V , usualmente la energı́a cinética
no depende explı́citamente del tiempo (a menos que la transformación a coordenadas generalizadas dependa
explı́citamente del tiempo), si asumimos que en cambio la energı́a potencial es dependiente del tiempo, la Ec.
(5.38) queda

∂V 1 d
= δΩ
∂t δτ dt
en general no es posible encontrar un δΩ que satisfaga esta ecuación, ya que ∂V
∂t no tiene que ser una derivada
total. Efectivamente en este caso la función energı́a no es constante de movimiento y no hay garantı́a de que
se pueda encontrar alguna función que sı́ sea constante de movimiento.
En las tres secciones siguientes asumiremos que la función Lagrangiana del sistema en coordenadas carte-
sianas está dada por
1
L = mṙ2 − V (r) (5.39)
2
y encontraremos las condiciones para que las traslaciones espaciales, las rotaciones y las transformaciones de
Galileo sean transformaciones de simetrı́a del sistema. Ası́ mismo encontraremos las cantidades conservadas
asociadas a cada simetrı́a y veremos que los resultados son consistentes con los ya obtenidos.

5.4.2. Invarianza ante traslación espacial y conservación del momento lineal


En analogı́a con la sección anterior, la idea es exigir invarianza ante translaciones espaciales y ver a que
condiciones lleva esta exigencia. Tomaremos como punto de partida el Lagrangiano (5.39).
Por simplicidad asumamos que solo hay traslación a lo largo del eje x3 . Las transformaciones correspon-
dientes a traslaciones espaciales son:

δx1 = δx2 = 0 , δx3 = cte , δt = 0 (5.40)

Para δt = 0 la Ec. (5.31) se reduce a:

n 
X 
∂L ∂L d d
+ δxi = − δΩ (x, t) (5.41)
∂xi ∂ ẋi dt dt
i=1

si existe un δΩ que cumpla esta condición se tiene de (5.37) que:

n
X ∂L
δxi + δΩ (q, t) = ca (5.42)
∂ ẋi
i=1

para la forma de nuestro Lagrangiano Ec. (5.39) se tiene que

∂L ∂V ∂L
=− ; = mẋi (5.43)
∂xi ∂xi ∂ ẋi
5.4. EJEMPLOS DE APLICACIÓN DEL TEOREMA DE NOETHER 85

esto es válido para la invarianza traslacional, rotacional y galileana ya que hasta ahora solo hemos usado
δt = 0. En el caso de la invarianza traslacional, usando (5.41), (5.40) y (5.43), se tiene:
n
X ∂V d
− δxi = − δΩ (x, t)
∂xi dt
i=1
X n  
∂V ∂ ∂
− δx3 = − δΩ (x, t) ẋi − δΩ (x, t)
∂x3 ∂xi ∂t
i=1
n 
X 
∂ ∂V ∂
δΩ (x, t) ẋi = δx3 − δΩ (x, t) (5.44)
∂xi ∂x3 ∂t
i=1

claramente, la expresión de la derecha no contiene a los ẋi , por lo tanto los coeficientes de la izquierda tampoco
pueden contenerlos i.e.

δΩ (x, t) = 0 ⇒ δΩ (x, t) = δΩ (t)
∂xi
de modo que la condición (5.44) se reduce a:

∂V d
δx3 = δΩ (t)
∂x3 dt
debido a la forma de nuestro Lagrangiano, el potencial V solo es función de la posición de modo que a la
izquierda tenemos un término que solo depende de la posición y a la derecha otro que solo depende del tiempo,
∂V
de lo cual se sigue que ∂x 3
debe ser independiente de (x,t), es decir es constante. Integrando7 :
 
∂V
δx3 t = δΩ (5.45)
∂x3
con este valor de δΩ las ecuaciones de movimiento son invariantes en forma ante una transformación espacial
de x3 . Es decir, que cuando se cumple (5.45), la traslación espacial es una transformación de simetrı́a, la
constante de movimiento se sigue de (5.42)
∂L
δx3 + δΩ (t) = ca
∂ ẋ3
 
∂V ca
mẋ3 + t = ≡ cb
∂x3 δx3
∂V
recordando que la fuerza se escribe como Fi = − ∂x i
. tendremos en general que

mẋ3 − F3 t = cb

ahora bien, si tenemos una invarianza similar asocida a δx1 y δx2 , la cantidad conservada es:
e = p − Ft = mṙ − Ft = cb
P (5.46)

es decir que el momento lineal p, es una función lineal del tiempo. Recordemos que bajo las condiciones
aquı́ establecidas, las componentes de la fuerza deben ser constantes de modo que F es un campo de fuerzas
constante y homogéneo.
Volviendo a la invarianza en solo δx3 , vemos que la exigencia de dicha invarianza nos lleva a que ∂3 V = −F3
sea constante. Es decir, a que la componente de la fuerza en esa dirección sea constante. Si en particular
suponemos que F3 = 0, se sigue que la cantidad conservada es justamente la componente del momento en esa
dirección.
∂L
= mẋ3 = p3 = cb (5.47)
∂ ẋ3
7
Una posible constante de integración se puede absorber en δΩ.
86 CAPÍTULO 5. SIMETRÍAS Y CANTIDADES CONSERVADAS (LAGRANGE)

adicionalmente, se puede ver de (5.45) que cuando F3 = 0, ⇒ δΩ = 0 y el Lagrangiano como tal es invariante.
Por supuesto, la invarianza del vector momento se seguirá si cada componente de la fuerza se anula.
Por tanto, vemos que el principio de conservación del momento se sigue de la invarianza del Lagrangiano
ante una traslación espacial, pero no de la invarianza de las ecuaciones de movimiento. Cuando solo esta última
se cumple para todas las coordenadas, F es un campo de fuerzas constante y homogéneo.
La existencia de un campo constante y homogéneo ilustra la diferencia entre homogeneidad local y homo-
geneidad global del espacio. El espacio que ocupa el campo es localmente homogéneo, porque ningún punto de
dicho espacio se puede distinguir de otro por una medición local (en nuestro caso, se obtendrı́a el mismo valor
de la fuerza en cada punto). Sin embargo, esta fuerza tiene que ser generada por alguna fuente (las placas de
un condensador, una masa distante etc.) la existencia de dicha fuente destruye la homogeneidad global del
espacio. Por tanto, la homogeneidad local del espacio implica que el momento es una función lineal del tiempo
en tanto que la homogeneidad global implica su conservación8 .

5.4.3. Invarianza ante rotaciones espaciales y la conservación del momento angular


Al exigir invarianza ante rotaciones espaciales, supondremos por simplicidad que la rotación se realiza en
el plano X − Y , es decir alrededor del eje Z. Las transformaciones correspondientes son:
    ′ 
cos φ − sin φ x1 x1
=
sin φ cos φ x2 x′2

Si consideramos que la rotación está descrita por un ángulo infinitesimal δφ constante, la transformación a
primer orden en δφ queda:
    ′ 
1 −δφ x1 x1
=
δφ 1 x2 x′2

x′1 = x1 − (δφ) x2
x′2 = x1 δφ + x2

de modo que

δx1 = x′1 − x1 = − (δφ) x2


δx2 = x′2 − x2 = (δφ) x1
δx3 = δt = 0 (5.48)

Recordemos que las ecuaciones (5.41, 5.42, 5.43), solo emplearon la condición δt = 0, y la estructura (5.39) del
Lagrangiano, de modo que son aplicables en este contexto. A partir de (5.41) se obtiene:
n 
X 
∂L ∂L d d
+ δxi = − δΩ (x, t) (5.49)
∂xi ∂ ẋi dt dt
i=1

para la forma de nuestro Lagrangiano se aplican las Ecs. (5.43). Usando (5.43) y (5.48), los miembros de la
izquierda de (5.49) se escriben como
Xn  
∂L ∂L ∂L ∂L ∂V ∂V
δxi = δx1 + δx2 + δx3 = x2 − x1 δφ
∂xi ∂x1 ∂x2 ∂x3 ∂x1 ∂x2
i=1
Xn  
∂L d ∂L d ∂L d
δxi = δx1 + δx2 = −mẋ1 (δφ) ẋ2 + mẋ2 (δφ) ẋ1 = 0
∂ ẋi dt ∂ ẋ1 dt ∂ ẋ2 dt
i=1
8
Por supuesto la homogeneidad global absoluta no existe, ya que toda fuerza debe tener sus fuentes en alguna parte. Sin
embargo, si las fuentes están a distancias mucho mayores que todas las distancias tı́picas de mi problema, podemos pensar que las
fuentes están “en el infinito”, en cuyo caso adquiere sentido la homogeneidad global como una buena aproximación.
5.4. EJEMPLOS DE APLICACIÓN DEL TEOREMA DE NOETHER 87

aplicando estas relaciones en (5.49)


 
∂V ∂V d
x2 − x1 δφ = − δΩ (x, t) (5.50)
∂x1 ∂x2 dt
d
(r × ∇V )3 δφ = δΩ (x, t) (5.51)
dt
∂ ∂
(r × ∇V )3 δφ = ẋi δΩ (x, t) + δΩ (x, t) (5.52)
∂xi ∂t
∂ ∂
(r × ∇V )3 δφ − δΩ (x, t) = ẋi δΩ (x, t) (5.53)
∂t ∂xi

pero dado que los términos de la izquierda no dependen de ẋi los coeficientes de ẋi a la derecha deben anularse
con lo cual ∂xi δΩ = 0 i.e. δΩ (x, t) = δΩ (t). Con lo cual la Ec. (5.53) queda

d
(r × ∇V )3 δφ = δΩ (t) (5.54)
dt
Por tanto, el miembro de la izquierda depende de coordenadas espaciales y el de la derecha solo del tiempo,
de tal forma que cada miembro debe ser constante, lo cual nos lleva a:

(r × ∇V )3 = cte (5.55)

La Ec. (5.55), es la condición que se requiere para que las ecuaciones de Lagrange sean invariantes bajo una
rotación sobre el plano X − Y , este término corresponde a menos la tercera componente del torque. Es decir
que la invarianza de las ecuaciones de Lagrange ante las rotaciones espaciales alrededor de un eje, requiere que
la componente del torque a lo largo de dicho eje sea uniforme y constante. Esto es análogo a la condición de
que la fuerza sea constante y uniforme para que las ecuaciones de Lagrange sean invariantes ante traslaciones
espaciales. Integrando (5.54) obtenemos el valor de δΩ (t)

δΩ (t) = − (δφ) (r × F)3 t = − (δφ) τ3 t (5.56)

reemplazando (5.43, 5.48, 5.56) en (5.37), la constante de movimiento queda

∂L ∂L
δx1 + δx2 − (δφ) τ3 t = ca
∂ ẋ1 ∂ ẋ2
−mẋ1 (δφ) x2 + mẋ2 (δφ) x1 − (δφ) τ3 t = ca
−mẋ1 x2 + mẋ2 x1 − τ3 t = cb
(r × p)3 − τ3 t = cb

si asumimos que hay invarianza ante rotaciones en tres ejes mutuamente perpendiculares, la constante de
movimiento es
L − ~τ t = cb (5.57)
que es el análogo de (5.46) en el caso de invarianza traslacional. En este caso el momento angular es función
lineal del tiempo.
Volviendo a la invarianza ante rotaciones con respecto a x3 , vemos que si la tercera componente del torque
es cero la Ec. (5.54) nos dice que
d
(r × ∇V )3 = 0 ⇒ δΩ (x, t) = 0
dt
y δΩ es una constante, esto nos lleva a la invarianza del Lagrangiano puesto que se cumplen las condiciones
(5.32). Reemplazando τ3 = 0 en (5.57) la constante de movimiento es

L3 = cb (5.58)
88 CAPÍTULO 5. SIMETRÍAS Y CANTIDADES CONSERVADAS (LAGRANGE)

que es el análogo de (5.47) para traslaciones espaciales. Luego la conservación del momento angular total se
sigue de la invarianza del Lagrangiano ante rotaciones en tres ejes independientes.
Nótese la analogı́a con las traslaciones espaciales, la invarianza de las ecuaciones de movimiento ante
traslaciones tenı́a como condición que las fuerzas fueran constantes y la invarianza del Lagrangiano mismo
nos llevaba a la conservación del momento lineal. En este caso la invarianza rotacional de las ecuaciones de
movimiento requiere torques constantes y uniformes, y la invarianza del Lagrangiano mismo nos lleva a la
conservación del momento angular. Es de anotar que en ambos casos cuando las ecuaciones quedan invariantes
pero no el Lagrangiano, las cantidades conservadas no son el momento lineal o el momento angular sino las
cantidades definidas en (5.46, 5.57).

5.4.4. Transformaciones de Galileo


Cuando los fenómenos fı́sicos se ven desde dos sistemas de referencia inerciales S y S ′ , es necesario conciliar
las observaciones de cada uno, para lo cual es necesario conocer la forma en que se conectan las coordenadas
cartesianas de espacio y tiempo de los dos sistemas en cuestión. Las transformaciones de Galileo nos proveen
esa conexión.
Asumamos una partı́cula de masa m con coordenadas xi , t con respecto al sistema de referencia S, y
coordenadas x′i , t′ con respecto al sistema de referencia S ′ . Por simplicidad asumiremos que el sistema S ′ viaja
con velocidad constante v3 a lo largo del eje X3 del sistema S, con lo cual las transformaciones de Galileo se
escriben en la forma siguiente
x′1 = x1 ; x′2 = x2 ; x′3 = x3 + v3 t ; t′ = t
δx1 = δx2 = δt = 0 ; δx3 = x′3 − x3 = v3 t
para transformaciones infinitesimales (i.e. velocidades relativas infinitesimales) tenemos:

x′3 = x3 + (δv3 ) t ; (δv3 ) = cte


δx1 = δx2 = δt = 0 ; δx3 = (δv3 ) t (5.59)
la condición para que esta sea una transformación de simetrı́a, se encuentra tomando de nuevo la Ec. (5.31) y
aplicándole las Ecs. (5.59) y (5.43)
Xn  
∂L ∂L d d
+ δxi = − δΩ (q, t)
∂xi ∂ ẋi dt dt
i=1
 
∂L ∂L d d
+ (δv3 ) t = − δΩ (q, t) (5.60)
∂x3 ∂ ẋ3 dt dt
  Xn
∂V ∂δΩ ∂
− t + mẋ3 (δv3 ) = − ẋi − δΩ (5.61)
∂x3 ∂xi ∂t
i=1

escribiendo explı́citamente la sumatoria y reorganizando términos


 
∂V ∂ ∂δΩ ∂δΩ ∂δΩ
− (δv3 ) t + δΩ + m (δv3 ) + ẋ3 + ẋ1 + ẋ2 = 0 (5.62)
∂x3 ∂t ∂x3 ∂x1 ∂x2
en virtud de la independencia de los ẋi , los coeficientes de ẋ1 , ẋ2 , ẋ3 y los términos independientes de ẋi en
(5.62) deben ser nulos, por lo tanto.
∂δΩ ∂δΩ ∂δΩ ∂V ∂
= =0 ; = −m (δv3 ) ; t (δv3 ) = δΩ (5.63)
∂x1 ∂x2 ∂x3 ∂x3 ∂t
de modo que δΩ solo es función de x3 y t. Integrando la segunda de las Ecs. (5.63) resulta

δΩ = −mx3 (δv3 ) + f (t) (5.64)


∂ d
⇒ δΩ = f (t)
∂t dt
5.4. EJEMPLOS DE APLICACIÓN DEL TEOREMA DE NOETHER 89

y la tercera de las Ecs. (5.63) queda entonces

∂V d ∂V 1 d
t (δv3 ) = f (t) ⇒ (δv3 ) = f (t) (5.65)
∂x3 dt ∂x3 t dt

1 d ∂V
y como t dt f (t) solo depende del tiempo y ∂x3 (δv3 ) solo del espacio, se tiene que

∂V
= cte
∂x3

ya que δv3 es constante. La condición Fı́sica requerida para la existencia de δΩ es entonces que la componente
F3 de la fuerza sobre la partı́cula sea constante y uniforme. Con esta condición, podemos integrar fácilmente
(5.65) y se obtiene
∂V t2
f (t) = (δv3 ) + C (5.66)
∂x3 2
reemplazando (5.66) en (5.64)
 
1 ∂V 2
δΩ = −mx3 + t (δv3 ) + C
2 ∂x3
la constante se puede absorber en la cantidad conservada. Nuevamente usamos (5.37) para encontrar la cantidad
conservada y le aplicamos las Ecs. (5.43, 5.59)

n
X ∂L
δxi + δΩ (q, t) = ca
∂ ẋi
i=1
∂L
δx3 + δΩ (q, t) = ca
∂ ẋ3
 
1 ∂V 2
mẋ3 (δv3 ) t + −mx3 + t (δv3 ) = cb
2 ∂x3
1 ∂V 2
mẋ3 t − mx3 + t = c1
2 ∂x3

y la cantidad conservada queda finalmente

1
mẋ3 t − mx3 − F3 t2 = c1 (5.67)
2

De nuevo enfatizamos que F3 debe ser constante. Si adicionalmente, el Lagrangiano L también tiene invarianza
traslacional a lo largo de X3 , tendremos que ∂3 V = F3 = 0, y la cantidad conservada se reduce a:

mẋ3 t − mx3 = c1 ⇒
p3
x3 − ẋ3 t = c2 = x3 − t
m

el valor de la constante en la última ecuación se determina fácilmente haciendo t = 0 y se obtiene

p3
c2 = x3 (0) = x3 − t (5.68)
m
y como F3 = 0, la partı́cula se mueve con velocidad constante en la dirección x3 . Efectivamente, la Ec. (5.68)
describe un movimiento uniforme en la dirección de X3 , ya que p3 es constante en virtud de la invarianza
translacional del Lagrangiano a lo largo de X3 . Recordemos que ẋ3 se refiere a la velocidad de la partı́cula, en
tanto que v3 ó δv3 se refiere a la velocidad del sistema S ′ con respecto a S.
90 CAPÍTULO 5. SIMETRÍAS Y CANTIDADES CONSERVADAS (LAGRANGE)

5.5. Ejercicios
1. Sea L (qi , q̇i , q̈i ) un Lagrangiano asociado al “formalismo de la sacudida” (ver sección 4.6). Para este
Lagrangiano definamos una coordenada cı́clica qk como una coordenada que no aparece en el Lagrangiano,
pero aparece q̇k y/o q̈k . Defina una cantidad adecuada (un momento canónico extendido conjugado a qk )
que sea constante de movimiento cuando qk es cı́clica. Sugerencia: Observe la ecuación de movimiento
(4.49), cuando está asociada a una coordenada cı́clica.

2. Supongamos que el potencial U de un sistema fı́sico depende de las velocidades generalizadas. (a) De-
muestre que el momento pθ canónicamente conjugado a una coordenada global de rotación θ del sistema
como un todo, viene dada por
N
X
p θ = Lθ − n· (ri × ∇vi U )
i=1

donde n es un vector unitario en la dirección del eje de rotación y ∇vi es el operador diferencial definido
como
∂ ∂ ∂
∇vi ≡ ux + uy + uz
∂vix ∂viy ∂viz
siendo vix la componente x de la velocidad de la i−ésima partı́cula, y lo mismo para las otras componentes.
Finalmente, Lθ es el momento angular mecánico total a lo largo del eje de rotación i.e.
N
X
Lθ = n· (ri × pi )
i=1

(b) Aplique estos resultados a un sistema de partı́culas inmerso en un campo electromagnético.

3. Una partı́cula se mueve sobre un aro sin masa de radio R. El aro está siempre vertical y gira alrededor de
un eje vertical que pasa por su diámetro, con velocidad angular constante ω. Supondremos que las únicas
fuerzas exteriores son las de gravedad. (a) Encuentre un Lagrangiano y las ecuaciones de movimiento. (b)
Encuentre posibles constantes de movimiento. (c) Demuestre que si ω > ω0 para un cierto valor crı́tico
ω0 , existe una solución tal que la partı́cula permanece fija en el aro en un punto que no es el más bajo.
Pero si ω < ω0 , el único punto estacionario para la partı́cula es el punto más bajo del aro. Encuentre el
valor de ω0 .

4. Para el péndulo esférico del problema 4 Pág. 4. (a) Encuentre los momentos canónicamente conjugados a
las coordenadas generalizadas que utilizó. ¿Alguno de ellos es constante de movimiento?. (b) Encuentre
la función energı́a, ¿se conserva?, ¿es igual a la energı́a del sistema?. Recuerde que sus respuestas pueden
depender de las coordenadas generalizadas utilizadas.

5. Demuestre que si existe una función Gi tal que

∂L dGi
= (5.69)
∂qi dt

para una coordenada generalizada qi , entonces pi − Gi es una constante de movimiento, siendo pi el


momento canónicamente conjugado a qi . Si Gi existe, ¿Es única?.

6. Sea una carga puntual q no relativista de masa m inmersa en un campo eléctrico constante y homogéneo
E. Un campo eléctrico constante y homogéneo E, se puede describir por cualquiera de los siguientes
conjuntos de potenciales

φ = −E · r ; A = 0 (5.70)
′ ′
φ = 0 ; A = −Et (5.71)
5.5. EJERCICIOS 91

correspondientes a diferentes gauges. (a) Tomando la convención (5.70), demuestre que se conserva la
cantidad p− qEt, donde p es el vector cuyas componentes son los momentos canónicamente conjugados a
las coordenadas cartesianas. (b) Demuestre que si tomamos la convención (5.71), la cantidad conservada
es el momento canónicamente conjugado p. (c) Demuestre que en ambos casos la cantidad conservada se
reduce a mẋ − qEt. Este ejercicio muestra que el momento canónicamente conjugado a las coordenadas
de una partı́cula en un campo electromagnético, ası́ como su contenido fı́sico pueden depender del gauge.

7. Sea una carga puntual q no relativista de masa m inmersa en un campo magnético constante y homogéneo
B. Un campo magnético constante y homogéneo B, se puede describir con los potenciales
1
A= B×r ; φ=0 (5.72)
2
demuestre que se conserva la cantidad
q
p− r×B (5.73)
2
siendo p las componentes de los momentos canónicamente conjugados. Demuestre que en términos de la
velocidad, esta cantidad conservada se puede escribir como

mẋ − qr × B (5.74)

8. Una partı́cula de masa m, se mueve en una dimensión sometida a la fuerza


k −t/τ
F (x, t) = e
x2
donde k y τ son constantes positivas. Encuentre el Lagrangiano, los momentos conjugados y la fun-
ción energı́a. Compare la función energı́a con la energı́a total del sistema y encuentre las cantidades
conservadas si las hay.

9. Obtenga el valor de la constante de movimiento asociada a la invarianza galileana Ec. (5.67), en términos
de las condiciones iniciales de dos maneras: (a) haciendo t = 0 en la Ec. (5.67). (b) Teniendo en cuenta
que F3 es constante de modo que hay un movimiento uniformemente acelerado en X3 , y reemplazando
las expresiones de x3 (t) y ẋ3 (t) para un movimiento uniformememnte acelerado, en la Ec. (5.67).
Capı́tulo 6

Ecuaciones de Movimiento de Hamilton

La formulación Hamiltoniana no tiene un contentido Fı́sico nuevo, y no es particularmente ventajosa para


la solución de problemas concretos en mecánica. El poder de este formalismo consiste en que es fácilmente
extendible a otras áreas de la Fı́sica, en Mecánica Clásica este formalismo permite desarrollos posteriores como
son la teorı́a de Hamilton Jacobi, la teorı́a de perturbaciones y el caos. Asumiremos ligaduras holónomas y
sistemas monogénicos.

6.1. Consideraciones generales


Dado que las ecuaciones de Lagrange constituyen un conjunto de n ecuaciones diferenciales de segundo
orden, 2n constantes de movimiento se requieren para su completa solución, ellas pueden ser por ejemplo los
valores de las coordenadas y velocidades generalizadas en un cierto tiempo, o el valor de las coordenadas en dos
tiempos distintos. La dinámica del sistema se puede describir con una trayectoria en el espacio n dimensional
de configuraciones, donde el tiempo actúa como un parámetro que traza la curva. En este formalismo, hay
una ecuación asociada a cada una de las n coordenadas y su correspondiente velocidad generalizada. En su
forma más simple, las ecuaciones requieren que las n coordenadas sean independientes. Para el formalismo
Hamiltoniano, la independencia de las n coordenadas es esencial.
La idea fundamental detrás del formalismo Hamiltoniano, es la de convertir las n ecuaciones de segundo
orden, en 2n ecuaciones de primer orden. Naturalmente, el número de ecuaciones diferenciales debe duplicarse
puesto que las ecuaciones de primer orden solo requieren una condición inicial y el número de condiciones
iniciales totales (2n) debe conservarse. Las 2n ecuaciones diferenciales parciales deben escribirse en términos
de 2n variables independientes. De esta forma, la descripción de la dinámica del sistema se hará ahora en un
sistema coordenado 2n dimensional (espacio de fase) cuyas coordenadas serán las 2n variables independientes.
Es natural aunque no obligatorio, pensar que las primeras n coordenadas sean las coordenadas generalizadas
qk , veremos adicionalmente que las ecuaciones de movimiento quedan altamente simétricas si se eligen como
las otras n coordenadas los momentos canónicamente conjugados definidos a través de la ecuación (5.1).

∂L (q, q̇, t)
pj ≡ (6.1)
∂ q̇j

a las cantidades (qj , pj ) se les conoce como variables canónicas. La combinación de ecuaciones de primer
orden y variables (q, p) resulta particularmente motivante, puesto que ya se discutió que muchas primeras
integrales de movimiento conducen a cantidades conservadas, esto implica que al ser las ecuaciones de Hamilton
de primer orden tales primeras integrales deben aparecer de manera más directa1 . Además si una variable qi es
cı́clica, su momento canónicamente conjugado es constante y dado que los momentos conjugados son parte del
conjunto de variables independientes, estas constantes aparecen de manera más directa en el formalismo.
1
Al ser las ecuaciones de Lagrange de segundo orden, se requiere realizar un proceso de integración para llegar a primeras
integrales, las cuales son de primer orden.

92
6.2. TRANSFORMACIONES DE LEGENDRE 93

En las ecuaciones de Lagrange las variables q, q̇ fueron tratadas todas como independientes, pero cada
ecuación involucraba a q y q̇. Dado que ahora queremos escribir un formalismo en términos de las variables
qk , pk , t, debemos realizar un cambio de variables del conjunto (qk , q̇k , t) al conjunto (qk , pk , t). Por simplicidad
consideremos primero un Lagrangiano que depende de una sola coordenada generalizada y una sola velocidad
generalizada L (q, q̇). Un diferencial de esta función se escribe como
∂L ∂L
dL = u dq + v dq̇ ; u ≡ ; v≡
∂q ∂ q̇
donde u y v son funciones de q y q̇. Para poder escribir con base en esto una función H (q, p), requerimos
escribir un diferencial de esta función en la forma
∂H ∂H
dH = u′ dq + v ′ dp ; u′ ≡ ; v′ ≡
∂q ∂p
donde u′ , v ′ son funciones de q y p. El procedimiento matemático para realizar la transformación de la función
L (Lagrangiano) a la función H (Hamiltoniano), se denomina una transformación de Legendre.

6.2. Transformaciones de Legendre


Escribiremos el problema en una notación más general. Sea f (x, y) de modo que el diferencial de f se
escribe como
∂f ∂f
df = u dx + v dy ; u ≡ ; v≡ (6.2)
∂x ∂y
queremos cambiar la base de variables de (x, y) a (u, y). Por tanto un diferencial de una función g (u, y) se
escribe en términos de los diferenciales du y dy. Definamos g como una función de u y de y definida por

g = f − ux (6.3)

escribamos el diferencial de g

dg = df − u dx − x du = u dx + v dy − u dx − x du
dg = v dy − x du

este diferencial tiene entonces la forma deseada. Las variables x y v son ahora funciones de u y y de la forma
∂g ∂g
x=− ; v=
∂u ∂y
que son los análogos de (6.2). Un ejemplo de uso frecuente de la transformación de Legendre en Fı́sica aparece
en la termodinámica. Para un gas experimentando un proceso reversible, se puede demostrar que el cambio
diferencial de energı́a dU se puede escribir como
∂U ∂U
dU = T dS − P dV ; T = ; P =−
∂S ∂V
siendo T, S, P, V la temperatura, la entropı́a, la presión y el volumen respectivamente. A partir de la función
energı́a interna U (S, V ) se puede generar la entalpı́a H (S, P ), a través de una transformación de Legendre

H = U + P V ⇒ dH = dU + P dV + V dP = T dS − P dV + P dV + V dP
∂H ∂H
dH = T dS + V dP ; T = ; V =
∂S ∂P
las energı́as libres de Helmholtz y de Gibbs, están dadas por otras transformaciones de Legendre

F ≡ U − TS ; G ≡ H − TS
94 CAPÍTULO 6. ECUACIONES DE MOVIMIENTO DE HAMILTON

6.3. Generación del Hamiltoniano y Ecuaciones de Hamilton


La única diferencia importante entre las transformaciones de Legendre arriba descritas y las requeridas
para generar una función de (qk , pk , t), con base en una función de (qk , q̇k , t), es que en el último caso un
número n de variables debe ser transformado. Comencemos por escribir el diferencial total de L
∂L ∂L ∂L
dL = dqk + dq̇k + dt (6.4)
∂qk ∂ q̇k ∂t
donde emplearemos de aquı́ en adelante, convención de suma sobre ı́ndices repetidos. De las ecuaciones de
Lagrange y la definición de momento conjugado se tiene
 
d ∂L ∂L
ṗk = = (6.5)
dt ∂ q̇k ∂qk
de modo que (6.4) se escribe como
∂L
dL = ṗk dqk + pk dq̇k +
dt (6.6)
∂t
La función Hamiltoniana o Hamiltoniano se genera por medio de la siguiente transformación de Legendre

H (q, p, t) ≡ q̇k pk − L (q, q̇, t) (6.7)

la forma diferencial de H se obtiene de su definición (6.7) y de la forma diferencial del Lagrangiano (6.6)

dH = pk dq̇k + q̇k dpk − dL


∂L
dH = pk dq̇k + q̇k dpk − ṗk dqk − pk dq̇k − dt
∂t
∂L
dH = q̇k dpk − ṗk dqk − dt (6.8)
∂t
y el diferencial adquiere la forma deseada, puesto que los diferenciales dq̇k han sido removidos por la trans-
formación de Legendre, y en su lugar aparecen los diferenciales dpk . Puesto que exigiremos que H sea función
exclusiva de las variables (qk , pk , t), el diferencial de H también se puede escribir de la forma
∂H ∂H ∂H
dH = dqk + dpk + dt (6.9)
∂qk ∂pk ∂t
comparando (6.8) con (6.9), y teniendo en cuenta que todas las variables qk , pk son todas independientes entre
sı́, se obtiene un conjunto de 2n + 1 ecuaciones
∂H
q̇k = ; k = 1, . . . , n
∂pk
∂H
−ṗk = ; k = 1, . . . , n (6.10)
∂qk
∂L ∂H
− = (6.11)
∂t ∂t
Las Ecs. (6.10), son conocidas como ecuaciones de movimiento de Hamilton, y constituyen el conjunto de
2n ecuaciones de primer orden que se buscaba. El primer conjunto de ecuaciones se puede considerar como el
inverso de las Ecs. (6.1) que definen al momento conjugado, con lo cual se puede pensar que no dan ninguna
información nueva. Esto es cierto desde el punto de vista de la resolución de problemas, pero dentro del
formalismo ambos conjuntos de ecuaciones tienen gran significado si el Hamiltoniano puede ser conocido de
alguna manera.
Como se puede ver comparando (5.13) con (6.7), la función energı́a h y el hamiltoniano H son numérica-
mente idénticos, pero se usa un sı́mbolo diferente para cada una puesto que h es función de q,q̇,t en tanto que
el Hamiltoniano debe ser función exclusiva de q,p,t. El procedimiento para utilizar las ecuaciones de Hamilton
se ve más bien laborioso ya que comprende las siguientes etapas
6.4. ALGORITMO MATRICIAL PARA LA OBTENCIÓN DEL HAMILTONIANO 95

1. Con un conjunto de coordenadas generalizadas independientes se construye el Lagrangiano L (q, q̇, t) =


T −V

2. Se definen los momentos conjugados a través de (6.1) como funciones de q,q̇,t

3. Se usa (6.7) para construir el Hamiltoniano. Sin embargo, la Ec. (6.7) deja al Hamiltoniano como función
mixta de q, q̇, p, t

4. Las ecuaciones (6.1) se invierten para obtener q̇ en función de q, p, t. Este proceso de inversión presenta
varias dificultades que veremos más adelante.

5. Los resultados anteriores se aplican para eliminar las q̇ de H con el fin de expresar esta función únicamente
en términos de q, p, t

6.4. Algoritmo matricial para la obtención del Hamiltoniano


Afortunadamente, en mucho casos reales es posible abreviar los pasos descritos en la sección anterior, gracias
a la caracterı́stica ya mencionada para muchos Lagrangianos de ser separables en tres términos homogéneos
de orden cero, uno y dos en las q̇ (ver Ec. 5.15). Recordando que h es numéricamente igual a H, retomaremos
el análisis realizado en la sección 5.2.1, de modo que la Ec. (5.15) conduce a (5.17)

h = H = L2 − L0 (6.12)

También aprendimos en la sección 5.2.1, que si además las transformaciones que llevan a las coordenadas
generalizadas no dependen explı́citamente del tiempo, y las fuerzas derivan de un potencial que no depende
de las q̇, la función energı́a (y por tanto el Hamiltoniano), será la energı́a total

h= H = T +V (6.13)

Ahora haremos una suposición un tanto mas restrictiva (pero suficientemente general) que la que se asume en
(5.15). Asumiremos que el Lagrangiano tiene la estructura

1
L = L0 (q, t) + q̇i ai (q, t) + q̇i q̇k Tik (q, t) (6.14)
2
En tal caso y teniendo en cuenta la Ec. (6.7), el Hamiltoniano H viene dado por la siguiente prescripción

1
H = pn q̇n − L0 (q, t) − q̇i ai (q, t) − q̇i q̇k Tik (q, t) (6.15)
2
si se cumple cualquiera de las relaciones (6.12, 6.13, 6.15), los pasos 3 y 4 arriba indicados se abreviarı́an. En
particular, bajo la suposición (6.15), los pasos del 2 al 5 se pueden realizar de una vez al menos formalmente.
Para ello escribiremos (6.14) en forma matricial

ė + 1 qT
L (q, q̇, t) = L0 (q, t) + qa ė q̇ (6.16)
2
donde q̇, a son matrices columna (no vectores Euclidianos!), T es una matriz n × n, que sin pérdida de
ė es la traspuesta de q̇. Los elementos de las matrices son en
generalidad se puede tomar como simétrica2 y q
2
Un término cuadrático en q̇ tı́pico del Lagrangiano es de la forma M12 q̇1 q̇2 . En la suma sobre ı́ndices de q̇i Tij q̇j aparecen dos
términos relacionados con este coeficiente de modo que M12 q̇1 q̇2 = (q̇1 T12 q̇2 + q̇2 T21 q̇1 ) /2 (teniendo en cuenta el factor 1/2 en la
Ec. 6.16). Esto implica que la única restricción sobre T es que M12 = (T12 + T21 )/2 . En consecuencia, los elementos de la matriz
se pueden definir de muchas maneras, en particular podemos elegir T12 = T21 = M12 , y lo mismo para los otros coeficientes, en
cuyo caso la matriz será simétrica.
96 CAPÍTULO 6. ECUACIONES DE MOVIMIENTO DE HAMILTON

general funciones de q y t. La transformación de Legendre que define al Hamiltoniano Ec. (6.15), se puede
escribir matricialmente como
 
ė ė ė 1 ė
H = qp − L = qp − L0 (q, t) + qa + qTq̇
2
1
ė (p − a) − qT ė q̇ − L0 (q, t)
H = q (6.17)
2
derivando (6.14) se obtienen los momentos conjugados
 
∂L ∂ 1
pn = = L0 (q, t) + q̇i ai (q, t) + q̇i q̇k Tik (q, t)
∂ q̇n ∂ q̇n 2
1 1
pn = an (q, t) + q̇k Tnk (q, t) + q̇i Tin (q, t)
2 2
teniendo en cuenta que la matriz T se eligió como simétrica y que los ı́ndices k, i son mudos, se obtiene

pn = an (q, t) + Tnk q̇k

de modo que los momentos conjugados escritos en forma de matriz columna p están dados por

p = Tq̇ + a ⇒ p − a = Tq̇

invirtiendo esta ecuación


q̇ = T−1 (p − a) (6.18)
este paso presupone que existe el inverso de T, lo cual usualmente está garantizado por la positividad de la
energı́a cinética3 . Transponiendo la ecuación anterior se cumple
ė (e
q= e) T−1
p−a (6.19)

donde hemos usado el hecho de que T−1 también es simétrica. Obsérvese que las expresiones (6.18, 6.19)
permiten reemplazar las q̇ en términos de los p, q, t ya que a y T solo son funciones de q, t. Es decir hemos
logrado el proceso descrito en el paso 4 de invertir las ecuaciones (6.1). Reemplazando (6.18, 6.19) en el
Hamiltoniano (6.17)
  1   
H = (e
p−a e) T−1 (p − a) − p−e
(e a) T−1 T T−1 (p − a) −L0 (q, t)
2
1
p−e
H = (e a) T−1 (p − a) − (e p−e a) T−1 (p − a) −L0 (q, t)
2
1
H = p−e
(e a) T−1 (p − a) − L0 (q, t) (6.20)
2
Por lo tanto, si el Lagrangiano se puede escribir en la forma (6.16), el Hamiltoniano se escribe directamente
en la forma (6.20). En el caso más usual, la matriz T es diagonal, en cuyo caso el inverso es también diagonal
donde T−1 ii = Tii−1 .

6.4.1. Hamiltoniano para un cuerpo sometido a una fuerza central en coordenadas esféri-
cas
A manera de ejemplo, consideremos el movimiento de un cuerpo bajo una fuerza central en coordenadas
esféricas, calculemos primero la energı́a cinética
1 
T = m ẋ2 + ẏ 2 + ż 2
2
3
Técnicamente, la matriz T es simétrica real y definida positiva. Esto implica que sus valores propios y su determinante son
estrictamente positivos con lo cual la matriz es invertible (ver sección 12.14).
6.4. ALGORITMO MATRICIAL PARA LA OBTENCIÓN DEL HAMILTONIANO 97

para las coordenadas esféricas tenemos

x = r sin θ cos φ ; y = r sin θ sin φ ; z = r cos θ


ẋ = ṙ sin θ cos φ + r θ̇ cos θ cos φ − r φ̇ sin θ sin φ
ẏ = ṙ sin θ sin φ + r θ̇ cos θ sin φ + r φ̇ sin θ cos φ
ż = ṙ cos θ − r θ̇ sin θ

 2
v 2 = ẋ2 + ẏ 2 + ż 2 = ṙ sin θ cos φ + r θ̇ cos θ cos φ − r φ̇ sin θ sin φ
 2  2
+ ṙ sin θ sin φ + r θ̇ cos θ sin φ + r φ̇ sin θ cos φ + ṙ cos θ − r θ̇ sin θ

v 2 = ṙ 2 sin2 θ cos2 φ + r 2 θ̇ 2 cos2 θ cos2 φ + r 2 φ̇2 sin2 θ sin2 φ


+2ṙr θ̇ sin θ cos φ cos θ cos φ − 2ṙr φ̇ sin θ cos φ sin θ sin φ − 2r 2 φ̇θ̇ cos θ cos φ sin θ sin φ
+ṙ 2 sin2 θ sin2 φ + r 2 θ̇ 2 cos2 θ sin2 φ + r 2 φ̇2 sin2 θ cos2 φ
+2ṙr θ̇ sin θ sin φ cos θ sin φ + 2ṙr φ̇ sin θ sin φ sin θ cos φ + 2r 2 φ̇θ̇ cos θ sin φ sin θ cos φ
+ṙ 2 cos2 θ + r 2 θ̇ 2 sin2 θ − 2ṙr θ̇ cos θ sin θ

reorganizando los términos cuadráticos y cruzados se obtiene

v 2 = ṙ 2 sin2 θ cos2 φ + ṙ 2 sin2 θ sin2 φ + ṙ 2 cos2 θ + r 2 θ̇ 2 cos2 θ cos2 φ + r 2 θ̇ 2 cos2 θ sin2 φ


+r 2 θ̇ 2 sin2 θ + r 2 φ̇2 sin2 θ sin2 φ + r 2 φ̇2 sin2 θ cos2 φ
+2ṙr θ̇ sin θ cos φ cos θ cos φ + 2ṙr θ̇ sin θ sin φ cos θ sin φ − 2ṙr θ̇ cos θ sin θ
−2ṙr φ̇ sin θ cos φ sin θ sin φ + 2ṙr φ̇ sin θ sin φ sin θ cos φ
−2r 2 φ̇θ̇ cos θ cos φ sin θ sin φ + 2r 2 φ̇θ̇ cos θ sin φ sin θ cos φ

 
v 2 = ṙ 2 sin2 θ cos2 φ + sin2 φ + ṙ 2 cos2 θ + r 2 θ̇ 2 cos2 θ cos2 φ + sin2 φ + r 2 θ̇ 2 sin2 θ
 
+r 2 φ̇2 sin2 θ sin2 φ + cos2 φ + 2ṙr θ̇ sin θ cos θ cos2 φ + sin2 φ − 2ṙr θ̇ cos θ sin θ

 
v 2 = ṙ 2 sin2 θ + cos2 θ + r 2 θ̇ 2 cos2 θ + sin2 θ + r 2 φ̇2 sin2 θ + 2ṙr θ̇ sin θ cos θ − 2ṙr θ̇ cos θ sin θ
v 2 = ṙ 2 + r 2 θ̇ 2 + r 2 φ̇2 sin2 θ

y la energı́a cinética final es


1 1 h i
mv 2 = m ṙ 2 + r 2 θ̇ 2 + r 2 φ̇2 sin2 θ (6.21)
2 2
la energı́a potencial se escribe V (r) de modo que el Lagrangiano tiene la forma
m 2 
L=T −V = ṙ + r 2 sin2 θ φ̇2 + r 2 θ̇ 2 − V (r) (6.22)
2
este Lagrangiano se puede descomponer en la forma L = L0 + L1 + L2 , adicionalmente la transformación de
coordenadas cartesianas a esféricas no depende explı́citamente del tiempo y el potencial no depende de las q̇
ni del tiempo, por tanto el Hamiltoniano es la energı́a total y además se conserva. Claramente, el Lagrangiano
(6.22), posee la siguiente estructura
 
L2 = T2 ṙ, φ̇, θ̇ = T ; L1 = 0 ; L0 = −V (r) (6.23)
98 CAPÍTULO 6. ECUACIONES DE MOVIMIENTO DE HAMILTON

por lo tanto el Hamiltoniano tiene la forma (6.12). En arreglo matricial, el Lagrangiano (6.22) se escribe
    

 0 1  m 0 0
L = −V (r) + ṙ φ̇ θ̇  0  + ṙ φ̇ θ̇  0 mr 2 sin2 θ 0   φ̇ 
2
0 0 0 mr 2 θ̇
comparando con (6.16) resulta
     1 
0 m 0 0 m 0 0
1
L0 = −V ; a =  0  ; T =  0 mr 2 sin2 θ 0  ; T−1 =  0 mr 2 sin2 θ
0  (6.24)
0 0 0 mr 2 0 0 1
mr 2

reemplazando estas expresiones en (6.20)


 1  
 m 0 0 pr
1 1  0 1   pφ  + V (r)
H= pe T−1 p + V (r) = pr pφ pθ mr 2 sin2 θ
0
2 2 1
0 0 mr 2

Finalmente, el Hamiltoniano de una partı́cula sometida a una interacción central definida por el potencial
V (r), se escribe en coordenadas esféricas de la forma
!
p 2 2
1 φ p
H= p2r + 2 2 + 2θ + V (r) (6.25)
2m r sin θ r
si reescribimos el problema en coordenadas cartesianas, el Hamiltoniano tiene otra forma funcional
m pi pi √
T = ẋi ẋi ⇒ H (xi , pi ) = + V ( xi xi )
2 2m
escribiendo los momentos conjugados pi en un arreglo en forma de matriz columna queda
p·p √
H (xi , pi ) = + V ( xi xi )
2m
las componentes de p se pueden tomar relativos a cualquier sistema coordenado que deseemos. Pero es impor-
tante no confundir pk con la componente k−ésima de p. Por ejemplo pθ 6= (p)θ , el primero tiene dimensiones
de momento angular y el segundo tiene dimensiones de momento lineal. De aquı́ en adelante, cuando se use
un vector para representar a un momento conjugado, se referirá a momentos conjugados a coordenadas car-
tesianas de posición, a menos que se indique lo contrario (recordemos que en general las n−uplas de pk no
forman vectores euclidianos al igual que en el caso de las qk ).

6.4.2. Hamiltoniano de una carga no relativista inmersa en un campo electromagnético


Como un segundo ejemplo consideremos una carga no relativista inmersa en un campo electromagnético,
el Lagrangiano se escribe
1 1 
L = mv 2 − qφ + qA · v = m ẋ2 + ẏ 2 + ż 2 + qAx ẋ + qAy ẏ + qAz ż − qφ
2 2    
 Ax 1  m 0 0 ẋ
= −qφ + q ẋ ẏ ż  Ay  + ẋ ẏ ż  0 m 0   ẏ 
2
Az 0 0 m ż
de nuevo comparando con (6.16) resulta
  
qAx m 0 0
L0 = −qφ ; a =  qAy  ; T =  0 m 0  = m1
qAz 0 0 m
   
px − qAx 1/m 0 0
1
p − a =  py − qAy  ; T−1 =  0 1/m 0 =
m
pz − qAz 0 0 1/m
6.5. FORMA SIMPLÉCTICA DE LAS ECUACIONES DE HAMILTON 99

y reemplazando en (6.20)
 
 1 p x − qAx
1 1  py − qAy  + qφ
H = (e e) T−1 (p − a) − L0 =
p−a px − qAx py − qAy pz − qAz
2 2 m
pz − qAz
1
H = (pi − qAi ) (pi − qAi ) + qφ
2m
1
H = (p − qA)2 + qφ (6.26)
2m
donde el momento canónicamente conjugado p ya habı́a sido calculado en la sección 5.1, Ec. (5.2), Pág. 70

pi = mẋi + qAi (6.27)

de modo que el Hamiltoniano en términos de la velocidad (o más bien la función energı́a), queda
mẋ2
h=H= + qφ = T + qφ
2
nótese que en este caso el potencial tiene un término lineal en las velocidades de modo que el Hamiltoniano no
corresponde a T + U . Sin embargo, en este caso particular el Hamiltoniano aún corresponde a la energı́a total,
ya que el término magnético, que es el que rompe la condición para que H = T + U , no produce trabajo4 y
la energı́a potencial (entendida como la capacidad para realizar trabajo) depende solo de φ. De lo anterior se
deduce que la condición H = T + U es suficiente pero no necesaria para que H sea la energı́a del sistema.

6.5. Forma Simpléctica de las Ecuaciones de Hamilton


Las ecuaciones de Hamilton
∂H
q̇k = ; k = 1, . . . , n
∂pk
∂H
−ṗk = ; k = 1, . . . , n (6.28)
∂qk
son muy simétricas excepto por un cambio de signo al intercambiar el papel de las variables canónicas qk ↔ pk .
Una estrategia muy fructı́fera para llegar a ecuaciones más simétricas es el uso de las ecuaciones de Hamilton
en notación simpléctica. Para un sistema con n grados de libertad, construı́mos una matriz columna η con 2n
elementos y definida por
ηi = qi , ηi+n = pi ; i ≤ n (6.29)
similarmente la matriz columna ∂H
∂η tiene elementos
   
∂H ∂H ∂H ∂H
= ; = ; i≤n (6.30)
∂η i ∂qi ∂η i+n ∂pi
finalmente definamos una matriz J de dimension 2n × 2n
   
0 1 e 0 −1
J≡ ; J≡ (6.31)
−1 0 1 0
donde cada elemento representa una submatriz n × n. Es fácil verificar las siguientes propiedades para J
e = JJ
JJ e =1 ; J
e = −J = J−1
J2 = −1 ; det J = +1 (6.32)
4
Nótese que la noción de potencial generalizado se creó como un artificio para poder absorber en el Lagrangiano la información
fı́sica contenida en ciertas fuerzas, pero no como artificio para calcular trabajo que es la forma en que surgen los potenciales que
solo dependen de la posición y están asociados a la energı́a de la partı́cula.
100 CAPÍTULO 6. ECUACIONES DE MOVIMIENTO DE HAMILTON

las ecuaciones de Hamilton (6.10) se pueden escribir entonces de forma compacta, ası́
∂H
η̇ = J (6.33)
∂η
por ejemplo, para dos coordenadas las ecuaciones de Hamilton son
∂H ∂H ∂H ∂H
q̇1 = , q̇2 = ; −ṗ1 = ; −ṗ2 = (6.34)
∂p1 ∂p2 ∂q1 ∂q2
la matriz columna η, y la matriz J serı́an
   
q̇1 0 0 1 0
 q̇2   0 0 0 1 
η=  ṗ1

 ; J=
 −1 0

0 0 
ṗ2 0 −1 0 0
es claro que     
q̇1 0 0 1 0 −ṗ1
 q̇2   0 0 0 1   −ṗ2 
    
 ṗ1  =  −1 0 0 0   q̇1  (6.35)
ṗ2 0 −1 0 0 q̇2
sustituyendo las Ecs. (6.34) en (6.35), nos queda
    
q̇1 0 0 1 0 ∂H/∂q1
 q̇2   0 0 0 1   ∂H/∂q2 
 =   (6.36)
 ṗ1   −1 0 0 0   ∂H/∂p1 
ṗ2 0 −1 0 0 ∂H/∂p2
y teniendo en cuenta la notación definida en (6.30), es claro que las Ecs. (6.36), son la forma explı́cita de
las ecuaciones de Hamilton (6.33) en estructura simpléctica, para dos coordenadas generalizadas. Esta forma
matricial simpléctica de las ecuaciones de Hamilton, será muy utilizada en lo que sigue. La palabra simpléctico
significa “entrelazado”, efectivamente la ecuaciones de Hamilton entrelazan a q y p y tal entrelazamiento en
la parametrización (6.33) se produce gracias a los elementos fuera de la diagonal de la matriz J en la Ec.
(6.31). Nótese además que la matriz J definida en la Ec. (6.31), “absorbe” el cambio de signo que se produce
en las ecuaciones de Hamilton al intercambiar qk ↔ pk . Esto lo hace gracias a la diferencia de signo entre las
submatrices de J. Esta “absorción” del cambio de signo es lo que le da una apariencia más simétrica a las
ecuaciones de Hamilton simplécticas, con respecto a las ecuaciones de Hamilton normales.

6.6. Coordenadas cı́clicas y teoremas de conservación


En el formalismo Lagrangiano hemos definido una coordenada cı́clica o ignorable como aquella coordenada
generalizada que no aparece en el Lagrangiano, pero sı́ aparece su velocidad generalizada correspondiente. Vi-
mos que para este tipo de coordenadas su momento canónicamente conjugado es una constante de movimiento.
De la transformación de Legendre que define a H, Ec. (6.7), tenemos que
∂L
H= q̇k − L (q, q̇, t)
∂ q̇k
y claramente una coordenada cı́clica no aparece al lado derecho de esta ecuación, mostrando que una coordenada
cı́clica tampoco aparece en el Hamiltoniano5 . Por otro lado, a partir de las Ecs. (6.5) y (6.28) se encuentra que
∂L ∂H
ṗj = =− (6.37)
∂qj ∂qj
5
Debe añadirse que al escribir el Hamiltoniano en sus argumentos finales q, p, t; una coordenada cı́clica tampoco aparece, ya
que al invertir las Ecs. (6.1), las q̇i tampoco dependerán de una variable cı́clica.
6.7. EL HAMILTONIANO EN DIFERENTES SISTEMAS COORDENADOS 101

de aquı́ se deduce que una coordenada generalizada está ausente en el Hamiltoniano si y solo si está ausente en el
Lagrangiano. En consecuencia, si cierta coordenada generalizada está ausente de H, su momento canónicamente
conjugado será constante de movimiento. Por tanto, las constantes de movimiento asociadas a variables cı́clicas
aparecen de inmediato como se anticipó debido a que las ecuaciones son de primer orden y que los momentos
conjugados se tomaron como coordenadas independientes. Esto significa que los teoremas de conservación que
se derivaron en la sección 5.1 se pueden derivar de la formulación Hamiltoniana, ası́ como la conección entre
simetrı́as del sistema y constantes de movimiento. En particular, la invarianza ante traslaciones del sistema
como un todo en cierta dirección conduce a la conservación de la componente del momento lineal del sistema
en esa dirección, esta coordenada de traslación no aparece en H. La invarianza ante una rotación con respecto
a cierto eje hace que dicha coordenada generalizada de rotación (ángulo), no aparezca en el Hamiltoniano y
lleva a la conservación de la componente del momento angular total a lo largo del eje de rotación.
Cuando trabajamos la función energı́a en la sección 5.2, vimos que si L no es función explı́cita del tiempo,
h es una constante de movimiento. Naturalmente, esto es también válido para H. Con el fin de probar la
consistencia de esta aseveración llegaremos a la misma conclusión por otro camino: Tomando la derivada total
de H con respecto al tiempo
dH ∂H ∂H ∂H
= q̇i + ṗi +
dt ∂qi ∂pi ∂t

usando las Ecs. de Hamilton (6.10), se eliminan los dos primeros términos de la derecha, y utilizando (6.11)
resulta
dH ∂H ∂L
= =− (6.38)
dt ∂t ∂t

de aquı́ resulta que t no aparece explı́citamente en el Lagrangiano (∂t L = 0) si y solo si, no aparece explı́cita-
mente en el Hamiltoniano (∂t H = 0). En consecuencia, cuando t no aparece explı́citamente en el Hamiltoniano,
tenemos que H será una constante de movimiento (dH/dt = 0)6 . Recordemos que la conservación de h (y H)
no significa necesariamente que esta función coincida con la energı́a total del sistema.
Por otro lado, también se vió en la sección 5.2 que la función h (y por tanto H) es la energı́a total del sistema
si se cumplen las siguientes condiciones: (a) El Lagrangiano es expresable en la forma L = L0 + L1 + L2 siendo
cada sumando una función homogénea de grado cero uno y dos en las q̇i (b) las transformaciones que definen las
coordenadas generalizadas Ecs. (2.5) no dependen explı́citamente del tiempo, y (c) el potencial es independiente
de las velocidades generalizadas. Si el potencial depende explı́citamente del tiempo, entonces la energı́a del
sistema (el Hamiltonino) no es una constante de movimiento, pero si además de las anteriores condiciones
ocurre que el potencial no depende explı́citamente del tiempo, la energı́a del sistema (el Hamiltoniano) es una
constante de movimiento.

6.7. El Hamiltoniano en diferentes sistemas coordenados

La anterior discusión muestra que la identificación de H como la energı́a del sistema o como constante
de movimiento son dos cosas aparte, aunque no necesariamente excluyentes. Otro aspecto discutido en la
sección 5.2 es la dependencia tanto funcional como numérica de h con respecto a la escogencia del sistema
de coordenadas generalizadas. Lo mismo ocurre para H. Es posible por ejemplo, que para una escogencia de
coordenadas H se conserve, en tanto que con otra escogencia el nuevo H ′ no se conserve. Por otro lado, es
plausible que el Hamiltoniano en cierto sistema coordenado corresponda a la energı́a del sistema, en tanto que
en otro sistema coordenado no lo sea. Esta es una de las diferencias mas fundamentales entre H y L, ya que
este último cambia en forma funcional pero no en magnitud, cuando se hace un cambio a otras coordenadas
generalizadas. Ilustraremos las anteriores consideraciones con un ejemplo.
102 CAPÍTULO 6. ECUACIONES DE MOVIMIENTO DE HAMILTON

Figura 6.1: Sistema masa resorte donde el resorte se ata a un carro que viaja a velocidad constante.

6.7.1. Hamiltoniano de un sistema masa resorte en diferentes sistemas coordenados


Veamos un ejemplo un tanto académico que muestra claramente la dependencia del Hamiltoniano con las
coordenadas generalizadas elegidas: Sea una partı́cula atada a un resorte cuyo extremo está sujeto a un carro
que se mueve con velocidad constante v0 como muestra la figura 6.1. La masa descansa sobre una superficie
sin rozamiento. Tomemos como coordenada generalizada la posición x de la partı́cula en cualquier instante.
Por simplicidad asumimos que en t = 0 el resorte tiene longitud cero y que la masa (y el punto O′ de unión
del resorte con el carro) pasan por el origen en ese instante. El Lagrangiano se escribe

mẋ2 k
L (x, ẋ, t) = T − V = − (v0 t − x)2 ⇒ mẍ = −k (x − v0 t)
2 2
una forma de resolver el problema es cambiar a una variable x′

x′ = x − v0 t (6.39)
′ ′
⇒ mẍ = −kx (6.40)

donde x′ es el desplazamiento de la partı́cula medido desde el punto O′ . La Ec. (6.40) nos dice que el sistema
de referencia asociado al carro móvil vé un movimiento armónico simple como se espera del principio de
equivalencia de Galileo7 .
Veamos ahora la formulación Hamiltoniana. En términos de la variable x vemos que la transformación
(identidad) a coordenadas generalizadas no depende explı́citamente del tiempo, el Lagrangiano se puede des-
componer en la forma L = L0 + L1 + L2 y además el potencial no dependen de la velocidad generalizada ẋ.
Por tanto, el Hamiltoniano es la energı́a total del sistema y queda
p2 k
H (x, p, t) = T + V = + (x − v0 t)2
2m 2
sin embargo H no es una cantidad conservada puesto que depende explı́citamente del tiempo. Esto es fı́si-
camente entendible ya que un agente externo debe proveer de energı́a al sistema para que el carro viaje a
velocidad constante en contra de la reacción de la partı́cula.
6
Esto se debe a su vez a la propiedad particular de H (o de h), de que su derivada parcial temporal coincide con su derivada
temporal total. En este caso, hemos probado esta aseveración como una consecuencia de las ecuaciones de Hamilton.
7
De la Ec. (6.39) vemos que para el caso particular de la Fig. 6.1, la variable x′ es negativa, puesto que v0 t ≥ x ≥ 0.
6.8. PROBLEMAS DE APLICACIÓN DE LAS ECUACIONES DE HAMILTON 103

Ahora formulemos el Lagrangiano haciendo una transformación de la coordenada x a la coordenada x′ Ec.


(6.39). El Lagrangiano queda

dx 2
d ′ 2
m dt k 2 m dt (x + v0 t) k ′  2
L = − (x − v0 t) = − x + v0 t − v0 t
2 2 2 2
 m [ẋ′ + v0 ]2 k ′2 mẋ′2 mv 2
0 k
L x′ , ẋ′ , t = − x = + mv0 ẋ′ + − x′2 (6.41)
2 2 2 2 2

escribiendo el Lagrangiano de acuerdo con la estructura (6.16) en donde las matrices son 1 × 1 tenemos

 mv02 k ′2 1
L x′ , ẋ′ , t = − x + mv0 ẋ′ + ẋ′ mẋ′
2 2 2
mv02 k ′2
L0 = − x ; a = mv0 ; T = m (6.42)
2 2

el nuevo Hamiltoniano se obtiene reemplazando (6.42) en (6.20)

 1 ′   1 ′  1 ′  k mv02
H ′ x′ , p ′ , t = p − a T −1 p′ − a − L0 = p − mv0 p − mv0 + x′2 −
2 2 m 2 2
 (p′ − mv0 )2 kx′2 mv02
H ′ x′ , p ′ , t = + −
2m 2 2

La Ec. (6.41) nos indica que el Lagrangiano escrito en el nuevo sistema coordenado, posee un término lineal
en ẋ′ . Por otro lado, la transformación a coordenadas generalizadas depende explı́citamente del tiempo según
se vé en la Ec.(6.39). Esto indica que H ′ ya no es la energı́a total del sistema. En cambio, sı́ es una constante
de movimiento ya que no depende explı́citamente del tiempo y ∂H ′ /∂t = dH ′ /dt = 0. Por otro lado, se
puede notar que el término mv02 /2 es una constante que se puede remover tanto del Lagrangiano como del
Hamiltoniano, sin afectar las ecuaciones de movimiento. Finalmente, se puede ver que excepto por tal término
constante, H ′ se puede identificar con la energı́a total de movimiento de la partı́cula relativa al carro móvil.
Ambos Hamiltonianos difieren en magnitud, forma funcional y dependencia temporal. Sin embargo, se puede
verificar que ambos conducen al mismo movimiento de la partı́cula.
Con lo anterior podrı́a quedar la sensación de que hemos cambiado de sistema de referencia en virtud de
que x′ es la coordenada que medirı́a el sistema del carro móvil (lo llamaremos sistema S ′ ) y H ′ serı́a la energı́a
total relativa a dicho sistema también. No obstante, la coordenada x′ es medida por el sistema original fijo a
tierra (lo llamaremos S), esto se puede ver en la forma en que se construye el Lagrangiano Ec. (6.41), tanto la
energı́a cinética como la potencial se siguen midiendo con respecto al sistema S aunque se escriban en términos
de la coordenada x′ . Efectivamente, ante un cambio de sistema de coordenadas el Lagrangiano preserva su
magnitud (aunque no su forma funcional). En contraste, ante un cambio de sistema de referencia tanto la
magnitud como la forma funcional del Lagrangiano pueden cambiar. El Hamiltoniano H ′ se construyó usando
el Lagrangiano (6.41) de modo que también está asociado al sistema S. Las interpretaciones como coordenada
relativa a S ′ y energı́a relativa a S ′ son una forma de ver a estas cantidades, pero no han sido construı́das en
este sistema de referencia. Nuevamente se insiste en no confundir un cambio de sistema de referencia con un
cambio de sistema de coordenadas generalizadas.

6.8. Problemas de aplicación de las ecuaciones de Hamilton


6.8.1. Partı́cula sobre superficie cilı́ndrica
Una partı́cula está sujeta a moverse sobre una superficie ciı́ndrica definida por x2 + y 2 = R2 , y está sujeta
a una fuerza que siempre apunta hacia el origen y proporcional a la distancia de la partı́cula al origen, i.e.
F = −kr.
104 CAPÍTULO 6. ECUACIONES DE MOVIMIENTO DE HAMILTON

Figura 6.2: Partı́cula restringida a moverse sobre una superficie cilı́ndrica.

Tomaremos las coordenadas generalizadas z y φ indicadas en la figura 6.2. Su relación con las coordenadas
cartesianas es

x = R cos φ , y = R sin φ , z=z (6.43)


ẋ = −φ̇R sin φ , ẏ = φ̇R cos φ , ż = ż (6.44)

La partı́cula está sometida a la fuerza restauradora y la fuerza de ligadura que la mantiene sobre la superficie
cilı́ndrica. Por supuesto, solo la fuerza restauradora contribuye a la energı́a potencial, la cual viene dada por

1 2 1  1 
V′ = kr = k x2 + y 2 + z 2 = k R2 + z 2
2 2 2
1 2
V = kz
2

donde hemos suprimido el término constante (1/2) kR2 obteniendo una energı́a potencial equivalente. La
6.8. PROBLEMAS DE APLICACIÓN DE LAS ECUACIONES DE HAMILTON 105

energı́a cinética es

1  1  
T = m ẋ2 + ẏ 2 + ż 2 = m φ̇2 R2 sin2 φ + φ̇2 R2 cos2 φ + ż 2
2 2
1  2 2 
T = m R φ̇ + ż 2
2
el Lagrangiano queda en la forma

1  2 2  1
L = T −V = m R φ̇ + ż 2 − kz 2 = L0 + L1 + L2
2 2
1 1  2 2 
L0 = − kz 2 , L1 = 0 , L2 = m R φ̇ + ż 2
2 2
la transformación de coordenadas (6.43) no depende explı́citamente del tiempo, el Lagrangiano se puede
descomponer en la forma L0 + L1 + L2 , y el potencial no depende de las velocidades generalizadas. Por tanto
la función energı́a es la energı́a del sistema

1   1
h = T + V = m R2 φ̇2 + ż 2 + kz 2
2 2
para encontrar el Hamiltoniano en los argumentos adecuados, podemos en este caso invertir directamente las
ecuaciones (6.1), ya que

∂L ∂L
pφ = = mR2 φ̇ , pz = = mż ⇒
∂ φ̇ ∂ ż
pφ pz
φ̇ = 2
; ż = (6.45)
mR m
sustituyendo estas expresiones en la función energı́a, obtenemos el Hamiltoniano
  
1 pφ 2  pz 2 1
H = m R2 + + kz 2
2 mR2 m 2
" #
1 p2φ 1
H = 2
+ p2z + kz 2
2m R 2

el Hamiltoniano no depende explı́citamente del tiempo y por tanto la energı́a de la partı́cula se conserva. Las
ecuaciones de Hamilton nos dan
∂H ∂H pφ
ṗφ = − = 0 , φ̇ = = (6.46)
∂φ ∂pφ mR2
∂H ∂H pz
ṗz = − = −kz , ż = = (6.47)
∂z ∂pz m

Nótese que las ecuaciones de Hamilton para φ̇ y ż son las mismas ecuaciones (6.45) de definición de los
momentos conjugados. Las dos ecuaciones (6.46) asociadas a pφ y φ̇ tienen solución inmediata, debido al
carácter cı́clico de la coordenada φ
pφ = mR2 φ̇ = c0 (6.48)
de modo que el momento angular con respecto al eje Z se conserva, esto a su vez proviene del hecho de que el
problema es invariante ante una rotación alrededor de dicho eje, puesto que es un eje de simetrı́a del sistema.
Equivalentemente, la velocidad angular de giro alrededor del eje z es constante. Integrando la ecuación (6.48)
se obtiene φ (t)
c0 φ̇
φ (t) = 2
t + φ0 ; c0 = pφ = (6.49)
mR mR2
106 CAPÍTULO 6. ECUACIONES DE MOVIMIENTO DE HAMILTON

Derivando la segunda de las Ecs. (6.47) obtenemos ṗz = mz̈, y reemplzando esto en la primera de las Ecs.
(6.47) queda
k
z̈ + ω02 z = 0 ; ω02 ≡ (6.50)
m
la proyección del movimiento sobre Z es entonces armónica simple con frecuencia angular ω0 . Es claro de
las ecuaciones (6.49, 6.50) que las constantes de integración se obtienen conociendo condiciones iniciales tales
como φ (0) , φ̇ (0) , z (0) , ż (0). Equivalentemente puede ser el conjunto φ (0) , pφ , z (0) , pz etc.

6.8.2. Ejemplo de aplicación del algoritmo matricial


Supongamos que cierto sistema fı́sico viene descrito por el Lagrangiano

q̇22
L = kq̇12 + + k1 q12 + k2 q̇1 q̇2 (6.51)
a + bq12

donde a, b, k1 , k2 y k son constantes. Encontraremos el Hamiltoniano asociado. Para ello, emplearemos el


algoritmo matricial descrito en la sección 6.4, observando primero que el Lagrangiano tiene la estructura
matricial dada por la Ec. (6.16)
ė + 1 qT
L (q, q̇, t) = L0 (q, t) + qa ė q̇ (6.52)
2
como se puede ver al escribir el Lagrangiano (6.51) en la forma
! 
1  2k k2 q̇1
L= k1 q12 + q̇1 q̇2 k2 2 (6.53)
2 a+bq12 q̇2

comparando las ecuaciones (6.52, 6.53) se tiene que8


!
2k k2
L0 = k1 q12 ; a=0 ; T= k2 2 (6.54)
a+bq12

para un Lagrangiano con la estructura (6.52), el Hamiltoniano viene dado por (6.20)

1
H (q, p, t) = (e a) T−1 (p − a) − L0 (q, t)
p−e (6.55)
2

por tanto, debemos calcular T−1


 bk2 q12 +ak2

2
4k−bk22 q12 −ak22 bk22 q12 +ak22 −4k
T−1 =  bk2 q12 +ak2 2k (bq12 +a)
 (6.56)
bk22 q12 +ak22 −4k 4k−bk22 q12 −ak22

sustituyendo (6.54, 6.56) en la Ec. (6.55), el Hamiltoniano queda


 bk2 q12 +ak2

2  
1 1  4k−bk22 q12 −ak22 bk22 q12 +ak22 −4k p1
H (q, p, t) = e T−1 p − k1 q12 =
p p1 p2   − k1 q12
2 2 bk2 q12 +ak2 2k (bq12 +a) p2
bk22 q12 +ak22 −4k 4k−bk22 q12 −ak22
 
p21 k a + bq12 p22 ak2 + bk2 q12 p1 p2
H (q, p, t) = + + − k1 q12 (6.57)
4k − ak22 − bk22 q12 4k − ak22 − bk22 q12 ak22 + bk22 q12 − 4k

se deja como ejercicio al lector escribir las ecuaciones de Hamilton.


6.8. PROBLEMAS DE APLICACIÓN DE LAS ECUACIONES DE HAMILTON 107

Figura 6.3: Péndulo simple cuyo punto de suspensión está restringido a moverse sobre una parábola z = ax2 .
La posición del punto de suspensión del péndulo está dada por las coordenadas (x, z) , en tanto que la posición
de la lenteja está dada por las coordenadas (x′ , z ′ ).

6.8.3. Péndulo sujeto a una recorrido parabólico


El punto de suspensión de un péndulo simple de longitud l y masa m está restringido a moverse sobre una
parábola z = ax2 en el plano vertical, como lo indica la figura 6.3. Encontraremos el Hamiltoniano de dicho
péndulo y las ecuaciones de movimiento de Hamilton asociadas.
El punto de suspensión del péndulo se denota por las coordenadas (x, z), y la posición de la lenteja por las
coordenadas (x′ , z ′ ). De la Figura 6.3 es claro que

x′ = x + l sin θ ; z ′ = z − l cos θ = ax2 − l cos θ (6.58)


con lo cual
ẋ′ = ẋ + l θ̇ cos θ ; ż ′ = 2axẋ + l θ̇ sin θ (6.59)
las Ecs. (6.58) nos sugieren utilizar a x y θ, como coordenadas generalizadas9 . La energı́a cinética y potencial
de la lenteja están dadas por

 2  2 
1 ′2 ′2 1
T = m(ẋ + ż ) = m ẋ + l θ̇ cos θ + 2axẋ + l θ̇ sin θ
2 2
′ 2

V = mgz = mg ax − l cos θ

donde hemos usado las Ecs. (6.59, 6.58). El Lagrangiano queda


8
Nótese que la elección !
2k 2k2
T= 0 2
2
a+bq1

en las Ecs. (6.54, 6.53), hubiese conducido al mismo Lagrangiano. Sin embargo, en tal caso la matriz T no serı́a simétrica, lo cual
fué una hipótesis fundamental en los desarrollos de la sección 6.4.
9
De la Figura 6.3, se observa que se puede mover θ sin mover x y sin violar las ligaduras (moviendo θ con el punto de suspensión
fijo). Ası́ mismo, se puede mover la coordenada x manteniendo fijo θ y respetando las ligaduras. Esto se logra moviendo el punto
de suspensión a lo largo de la parábola manteniendo θ fijo, es decir con una traslación paralela de la cuerda.
108 CAPÍTULO 6. ECUACIONES DE MOVIMIENTO DE HAMILTON

1  2 
L = m ẋ + 2lẋθ̇ cos θ + 4a2 x2 ẋ2 + 4alxẋθ̇ sin θ + l2 θ̇ 2 − mg(ax2 − l cos θ)
2
1 h  i
L = −mg(ax2 − l cos θ) + m ẋ2 1 + 4a2 x2 + 2ẋθ̇l (cos θ + 2ax sin θ) + l2 θ̇ 2
2
este Lagrangiano se puede escribir en estructura matricial de la forma
  
2 1  m(1 + 4a2 x2 ) ml(cos θ + 2ax sin θ) ẋ
L = −mg(ax − l cos θ) + ẋ θ̇
2 ml(cos θ + 2ax sin θ) ml2 θ̇

que al comparar con (6.52) nos da


 
m(1 + 4a2 x2 ) ml(cos θ + 2ax sin θ)
L0 = −mg(ax2 − l cos θ) ; a = 0 ; T = (6.60)
ml(cos θ + 2ax sin θ) ml2

ahora debemos calcular T−1 para lo cual usamos


 −1  
−1 a b 1 d −b
T = =
c d ad − bc −c a

tenemos que

ad − bc = m2 l2 (1 + 4a2 x2 ) − m2 l2 (cos θ + 2ax sin θ)2


= m2 l2 (sin2 θ + 4a2 x2 − 4ax cos θ sin θ − 4a2 x2 sin2 θ)
ad − bc = m2 l2 (sin2 θ − 4ax sin θ cos θ + 4a2 x2 cos2 θ) = m2 l2 (sin θ − 2ax cos θ)2 ≡ m2 l2 Y

con lo cual la inversa de T queda


 
1 ml2 −ml(cos θ + 2ax sin θ)
T−1 =
m2 l 2 Y −ml(cos θ + 2ax sin θ) m(1 + 4a2 x2 )
 
1 1 −(cos θ + 2ax sin θ)/l
T−1 =
mY −(cos θ + 2ax sin θ)/l (1 + 4a2 x2 )/l2

escribiremos T−1 como


 
−1 1 1 −J
T =
mY −J (1 + 4a2 x2 )/l2
J ≡ (cos θ + 2ax sin θ)/l ; Y ≡ (sin θ − 2ax cos θ)2 (6.61)

reemplazando (6.60, 6.61) en (6.55) obtenemos el Hamiltoniano


  
1 1  1 −J px
H (q, p, t) = e T−1 p − L0 (q, t) =
p px pθ +
2 2mY −J (1 + 4a2 x2 )/l2 pθ
+mg(ax2 − l cos θ)
!
1 px − Jpθ
= px pθ (1+4a2 x2 )pθ + mg(ax2 − l cos θ)
2mY −Jpx + l2
  2 2
 
1 1 + 4a x
= p2x − 2Jpθ px + p2θ + mg(ax2 − l cos θ)
2mY l2

reemplazando las definiciones de J y Y el Hamiltoniano queda


6.8. PROBLEMAS DE APLICACIÓN DE LAS ECUACIONES DE HAMILTON 109

     
1 cos θ + 2ax sin θ 1 + 4a2 x2
H (x, θ, px , pθ ) = p2x −2 pθ px + p2θ +
2m (sin θ − 2ax cos θ)2 l l2
+mg(ax2 − l cos θ) (6.62)

Es fácil ver que este Hamiltoniano es la energı́a del sistema y se conserva. Este Hamiltonainao no tiene
coordenadas cı́clicas para el sistema coordenado elegido. Escribiremos ahora las ecuaciones de Hamilton dadas
por
∂H ∂H ∂H ∂H
ẋ = ; θ̇ = ; ṗx = − ; ṗθ = −
∂px ∂pθ ∂x ∂θ
las dos primeras nos dan
 
1 cos θ + 2ax sin θ
ẋ = p x − p θ (6.63)
m(sin θ − 2ax cos θ)2 l
   
1 1 + 4a2 x2
θ̇ = − (cos θ + 2ax sin θ) px + pθ (6.64)
ml(sin θ − 2ax cos θ)2 l

las otras son son un poco más extensas de calcular comencemos con
 
∂H 1 −4a sin θ 8a2 x 2
−ṗx = = pθ px + 2 pθ
∂x 2m(sin θ − 2ax cos θ)2 l l
     
−2(−2a cos θ) 2 cos θ + 2ax sin θ 1 + 4a2 x2
+ p −2 pθ px + p2θ + 2mgax
2m(sin θ − 2ax cos θ)3 x l l2

agrupando los términos de p2x , p2θ y px pθ nos queda



4a2 x 2 2a cos θ 1 + 4a2 x2 2a cos θ
−ṗx = pθ + p2θ + p2
2
ml (sin θ − 2ax cos θ) 2 2
ml (sin θ − 2ax cos θ) 3 m(sin θ − 2ax cos θ)3 x
2a sin θ 4a cos θ (cos θ + 2ax sin θ)
− 2
pθ px − pθ px + 2mgax
ml(sin θ − 2ax cos θ) ml(sin θ − 2ax cos θ)3
" #
4a2 x(sin θ − 2ax cos θ) + 2a cos θ 1 + 4a2 x2 2a cos θ
= p2θ + p2
2
ml (sin θ − 2ax cos θ) 3 m(sin θ − 2ax cos θ)3 x
 
2a sin θ(sin θ − 2ax cos θ) + 4a cos θ (cos θ + 2ax sin θ)
− pθ px + 2mgax
ml(sin θ − 2ax cos θ)3
2a(cos θ + 2ax sin θ) 2 2a cos θ 2
−ṗx = 3 pθ + 3 px
2
ml (sin θ − 2ax cos θ) m (sin θ − 2ax cos θ)
2

2a sin θ − 2 − 2ax cos θ sin θ
+ pθ px + 2mgax
ml (sin θ − 2ax cos θ)3

resultando finalmente
  
2a l2 cos θ p2x + (cos θ + 2ax sin θ) p2θ + l sin2 θ − 2 − 2ax sin θ cos θ px pθ
ṗx = − 2mgax (6.65)
ml2 (2ax cos θ − sin θ)3

de una manera similar obtenemos la cuarta ecuación de Hamilton


 
∂H 1 2 sin θ − 4ax cos θ
−ṗθ = = pθ px
∂θ 2m (sin θ − 2ax cos θ)2 l
      
2 cos θ + 2ax sin θ 1 + 4a2 x2 2 −2(cos θ + 2ax sin θ)
+ px − 2 pθ px + pθ + mgl sin θ
l l2 2m (sin θ − 2ax cos θ)3
110 CAPÍTULO 6. ECUACIONES DE MOVIMIENTO DE HAMILTON

  
−(cos θ + 2ax sin θ) 2 1 + 4a2 x2 −(cos θ + 2ax sin θ)
−ṗθ = p
3 x + 2 3 p2θ
m (sin θ − 2ax cos θ) l m (sin θ − 2ax cos θ)
   
sin θ − 2ax cos θ cos θ + 2ax sin θ (cos θ + 2ax sin θ)
+ +2 pθ px + mgl sin θ
ml (sin θ − 2ax cos θ)2 l m (sin θ − 2ax cos θ)3

1 2 
ṗθ = 3 l (cos θ + 2ax sin θ) p2x + (cos θ + 2ax sin θ) 1 + 4a2 x2 p2θ
ml2 (sin θ − 2ax cos θ)
h i o
−l (sin θ − 2ax cos θ)2 + 2 (cos θ + 2ax sin θ)2 pθ px − mgl sin θ

y se obtiene finalmente
1 2 
ṗθ = 3 l (cos θ + 2ax sin θ) p2x + (cos θ + 2ax sin θ) 1 + 4a2 x2 p2θ
ml2 (sin θ − 2ax cos θ)
h i o
−l (2ax sin θ + cos θ)2 + 1 + 4a2 x2 pθ px − mgl sin θ (6.66)

reuniendo las ecuaciones (6.63, 6.64, 6.65, 6.66) obtenemos las ecuaciones de Hamilton para el péndulo cuyo
punto de suspensión se mueve a lo largo de la parábola z = ax2
 
1 cos θ + 2ax sin θ
ẋ = px − pθ (6.67)
m(sin θ − 2ax cos θ)2 l
   
1 1 + 4a2 x2
θ̇ = − (cos θ + 2ax sin θ) px + pθ (6.68)
ml(sin θ − 2ax cos θ)2 l
2  
2a l cos θ p2x + (cos θ + 2ax sin θ) p2θ + l sin2 θ − 2 − 2ax sin θ cos θ px pθ
ṗx = − 2mgax (6.69)
ml2 (2ax cos θ − sin θ)3
1 2 2 2 2
 2
ṗθ = 3 l (cos θ + 2ax sin θ) px + (cos θ + 2ax sin θ) 1 + 4a x pθ
2
ml (sin θ − 2ax cos θ)
h i o
−l (2ax sin θ + cos θ)2 + 1 + 4a2 x2 pθ px − mgl sin θ (6.70)

6.9. Procedimiento de Routh


Hemos mencionado que la formulación Hamiltoniana no es en general adecuada para la solución directa de
problemas mecánicos. Sin embargo, hay una importante excepción a este hecho: la formulación Hamiltoniana
es muy adecuada para el tratamiento de problemas que involucran variables cı́clicas.
Pensemos en un sistema cuyo Lagrangiano se puede escribir como

L (q1 , . . . , qs ; q̇1 , . . . , q̇n ; t)

es decir las últimas n−s coordenadas son cı́clicas (naturalmente s < n). Dado que en el formalismo Lagrangiano
todas las velocidades generalizadas aparecen y pueden ser en general funciones del tiempo, el problema tiene
aún n grados de libertad a pesar de la existencia de las coordenadas cı́clicas. En contraste, en el formalismo
Hamiltoniano las coordenadas cı́clicas se vuelven realmente ignorables, ya que los correspondientes momentos
conjugados se vuelven constantes de movimiento que denotaremos por αk . El Hamiltoniano se puede escribir
en la forma
H = H (q1 , . . . , qs ; p1 , . . . , ps ; αs+1 , . . . , αn ; t)
el Hamiltoniano describe un problema de solo s grados de libertad, y las coordenadas cı́clicas han sido comple-
tamente ignoradas, excepto que se manifiestan como constantes de integración αk que se determinan con las
condiciones iniciales. El comportamiento de la coordenada cı́clica como tal se encuentra integrando la siguiente
ecuación de movimiento
∂H
q̇n =
∂αn
6.9. PROCEDIMIENTO DE ROUTH 111

esto sugiere utilizar un método que permita aprovechar las ventajas del formalismo Hamiltoniano con las
coordenadas cı́clicas junto con el formalismo Lagrangiano para las coordenadas no cı́clicas. Esto se logra usando
una transformación matemática que convierta la base de las q,q̇ en la base q, p solo para las coordenadas cı́clicas.
De esta forma se obtienen s ecuaciones de Lagrange para las coordenadas no cı́clicas, y 2 (n − s) ecuaciones de
Hamilton para las coordenadas cı́clicas. Asumiendo que las coordenadas qs+1 , . . . , qn son cı́clicas, se propone
una nueva función R (conocida como el Routhiano) que defina una “transformación de Legendre parcial” en
donde solo se transformen los términos asociados a las variables cı́clicas, por tanto R está definida por

n
X
R (q1 , . . . , qs ; q̇1 , . . . , q̇s ; ps+1 , . . . , pn ; t) ≡ pi q̇i − L (6.71)
i=s+1

esto equivale a escribir

R (q1 , . . . , qs ; q̇1 , . . . , q̇s ; ps+1 , . . . , pn ; t) ≡ Hcicl (ps+1 , . . . , pn ; t) − Lno cicl (q1 , . . . , qs ; q̇1 , . . . , q̇s ; t)

para las s coordenadas no ignorables i.e. k = 1, . . . , s podemos calcular


  " n
! #  
d ∂R d ∂ X ∂L d ∂L
= pi q̇i − =−
dt ∂ q̇k dt ∂ q̇k ∂ q̇k dt ∂ q̇k
i=s+1
n
!
∂R ∂ X ∂L ∂L
= pi q̇i − =−
∂qk ∂qk ∂qk ∂qk
i=s+1

y teniendo en cuenta las ecuaciones de Lagrange resulta


 
d ∂R ∂R
− = 0, k = 1, . . . , s (6.72)
dt ∂ q̇k ∂qk

en tanto que para las n − s coordenadas ignorables i.e. k = s + 1, . . . , n tenemos que

n
!  
∂R ∂ X ∂L ∂L d ∂L
= pi q̇i − =− =−
∂qk ∂qk ∂qk ∂qk dt ∂ q̇k
i=s+1
∂R
= −ṗk = 0
∂qk

donde hemos tenido en cuenta las ecuaciones de Lagrange (2.23), la definición de momento conjugado (5.1),
y el hecho de que los momentos conjugados a variables cı́clicas son constantes. Por otro lado para k = s +
1, . . . , n también tenemos
n
!
∂R ∂ X ∂L
= pi q̇i − = q̇k
∂pk ∂pk ∂pk
i=s+1

con lo que queda finalmente

∂R ∂R
= −ṗk = 0 ; = q̇k ; k = s + 1, . . . , n (6.73)
∂qk ∂pk

de modo que se logra el objetivo de tener ecuaciones tipo Lagrange para las variables no cı́clicas, Ecs. (6.72)
y tipo Hamilton para las variables cı́clicas Ecs. (6.73). Este método se conoce como procedimiento de Routh.
Es necesario escribir el Routhiano con los argumentos dados en la Ec. (6.71).
112 CAPÍTULO 6. ECUACIONES DE MOVIMIENTO DE HAMILTON

6.9.1. Partı́cula sometida a un potencial central atractivo por el método de Routh


Para ilustrar el método tomemos como ejemplo el problema de una partı́cula sujeta a un potencial central
bajo la influencia de una fuerza atractiva proporcional a r −n−1 . Este movimiento siempre se realiza en un
plano en virtud de la conservación del momento angular. El Lagrangiano en coordenadas polares se escribe
m 2  k
L= ṙ + r 2 θ̇ 2 + n
2 r
la coordenada ignorable es θ y su momento conjugado se denotará por pθ . El Routhiano en coordenadas polares
se escribe
m 2  k
R = pθ θ̇ − L = pθ θ̇ − ṙ + r 2 θ̇ 2 − n (6.74)
2 r
este es el valor del Routhiano que se obtiene por reemplazo directo en (6.71). No obstante, esta expresión no
está escrita con los argumentos adecuados, ya que según (6.71) el Routhiano se debe escribir en términos de
las coordenadas no cı́clicas (en este caso r), las velocidades generalizadas de las coordenadas no cı́clicas (ṙ),
los momentos conjugados asociados a las variables cı́clicas (pθ ) y el tiempo (que aquı́  no aparece),  es decir
R = R (r, ṙ, pθ ). Ahora bien en (6.74) el Routhiano está escrito en términos de R = R r, ṙ, pθ , θ̇ , por tanto es
necesario encontrar a θ̇ = θ̇ (r, ṙ, pθ ) para que el Routhiano quede con los argumentos adecuados. Esta relación
la sacamos a partir del momento conjugado pθ
∂L pθ
pθ = = mr 2 θ̇ ⇒ θ̇ =
∂ θ̇ mr 2
reemplazando esta expresión en el Routhiano queda
 p  m  p 2  k
θ 2 2 θ
R (r, ṙ, pθ ) = pθ − ṙ + r − n
mr 2 2 mr 2 r
 2 
p2θ 1 2 1 pθ k
R (r, ṙ, pθ ) = 2
− mṙ − 2
− n
mr 2 2 mr r
p2θ 1 k
R (r, ṙ, pθ ) =
2
− mṙ 2 − n
2mr 2 r
debemos aplicar las ecuaciones (6.72) tipo Lagrange para la coordenada no cı́clica r, para lo cual calculamos
 
∂R d ∂R ∂R p2 nk
= −mṙ ; = −mr̈ ; = − θ 3 + n+1
∂ ṙ dt ∂ ṙ ∂r mr r

p2θ nk
−mr̈ + 3
− n+1 = 0
mr r
p2θ nk
r̈ − 2 3 + = 0 (6.75)
m r mr n+1
ahora debemos aplicar las ecuaciones (6.73) tipo Hamilton, a la coordenada cı́clica θ y su momento conjugado

∂R ∂R pθ
= 0 ; =
∂θ ∂pθ mr 2

ṗθ = 0 ; = θ̇ (6.76)
mr 2
cuya solución es
pθ = mr 2 θ̇ ≡ l = cte (6.77)
Las Ecs. (6.75, 6.77), junto con las condiciones iniciales, nos dan la solución a la dinámica de la partı́cula. Un
conjunto de condiciones iniciales puede ser r (0) , ṙ (0) , θ (0) y l.
El formalismo de Routh es frecuentemente útil para problemas prácticos en Fı́sica y en Ingenierı́a. Sin em-
bargo, como instrumento formal para posteriores construcciones en mecánica clásica, el formalismo puramente
Hamiltoniano es mucho mas fructı́fero.
6.10. ECS. DE HAMILTON A PARTIR DE UN PRINCIPIO VARIACIONAL 113

6.10. Derivación de las ecuaciones de Hamilton a partir del principio va-


riacional de Hamilton
La derivación hasta aquı́ desarrollada de las ecuaciones de Hamilton está basada en un principio diferencial
que hace uso directo de las Ecuaciones de Lagrange combinado con una transformación de Legendre. La
pregunta natural es entonces de que manera pueden surgir estas ecuaciones a partir de un formalismo integral.
Vimos que el formalismo Lagrangiano puede extraerse de una formulación integral via principio variacional de
Hamilton. Estos principios variacionales serán útiles en contextos mas allá de la mecánica. Es natural entonces
tratar de derivar las ecuaciones de Hamilton partiendo del principio variacional de Hamilton como fuente de
una formulación integral de estas ecuaciones
Z t2
δI ≡ δ L dt = 0 (6.78)
t1

En la formulación Lagrangiana las integrales se evalúan con base en las trayectorias en el espacio de configura-
ciones (adaptado para la formulación Lagrangiana). La filosofı́a del formalismo Hamiltoniano requiere tratar
a las coordenadas q, p como independientes entre sı́. Por tanto, el espacio adecuado para trabajar trayectorias
en este formalismo consiste en tener 2n ejes coordenados uno para cada qi y uno para cada pi , un punto en este
espacio (espacio de fase) traza una curva a través del parámetro tiempo. En consecuencia, las integrales deben
ser evaluadas con base en las trayectorias en el espacio de fase. Dado que el conjunto q, p se considera inde-
pendiente, el integrando será, en general función de q, q̇, p, ṗ. Usando la Ec. (6.7) que define al Hamiltoniano,
en la Ec. (6.78) resulta
Z t2
δI = δ [pi q̇i − H (q, p, t)] dt = 0 (6.79)
t1

A la Ec. (6.79) se le suele denominar principio modificado de Hamilton en virtud de que la integral de lı́nea se
está realizando en un espacio diferente (el espacio de fase). Teniendo en cuenta que las técnicas desarrolladas
en la sección 3.2 son válidas para cualquier conjunto de variables y sus derivadas con respecto a un parámetro
(en nuestro caso el tiempo)10 , tenemos que genéricamente nuestro principio variacional se escribe
Z t2
δI = δ f (q, q̇, p, ṗ) dt = 0
t1

de lo cual resultan 2n ecuaciones de Euler-Lagrange


 
d ∂f ∂f
− = 0 ; j = 1, . . . , n
dt ∂ q̇j ∂qj
 
d ∂f ∂f
− = 0 ; j = 1, . . . , n (6.80)
dt ∂ ṗj ∂pj

por tanto, las ecuaciones que se derivan del principio de Hamilton modificado, se obtienen aplicando las
relaciones (6.80) al integrando de la Ec. (6.79)

f (q, q̇, p) = pi q̇i − H (q, p, t) (6.81)

resultando
∂H ∂H
ṗj + = 0 ; −q̇j + =0
∂qj ∂pj
De modo que hemos llegado a las ecuaciones de Hamilton a través del principio variacional modificado de
Hamilton. Se puede argumentar que los momentos no pueden considerarse independientes en virtud de su
definición (5.1) que nos muestra que p es en general función de q y q̇, con lo cual no se puede variar q
10
Desde el punto de vista matemático el espacio de fase es simplemente un espacio de configuración de dimensión 2n, ya que lo
que se hace es cartesianizar las variables independientes q y p colocando un eje para cada variable independiente.
114 CAPÍTULO 6. ECUACIONES DE MOVIMIENTO DE HAMILTON

ó q̇, sin variar p. Recordemos sin embargo, que la filosofı́a misma del formalismo Hamiltoniano requiere de
considerar a q y p independientes, es decir que una vez establecido el formalismo Hamiltoniano la definición
(5.1) no constituye parte del formalismo. Los momentos conjugados son elevados a la categorı́a de variables
independientes, con un papel análogo a las coordenadas y conectados con ellas y con el tiempo solo a través
de las ecuaciones de movimiento y no a través de definiciones. Visto desde el punto de vista de un conteo de
grados de libertad, al introducir los momentos “olvidando” su definición, estamos aumentando el número de
grados de libertad, pero también estamos aumentando el número de ecuaciones de modo que el número de
grados de libertad real se conserva.
Un aspecto similar ocurre en la formulación Lagrangiana, estrictamente q y q̇ no son independientes en
virtud de la definición q̇ = dq/dt, pero cuando escribimos las ecuaciones de Lagrange “olvidamos” la definición
de q̇ y la elevamos al estatus de independiente, la dependencia original se recupera a través de las n ecuaciones
de movimiento.
Podemos preguntarnos si el principio modificado de Hamilton contiene nueva Fı́sica respecto al original,
sin embargo este principio fué establecido con el fin de obtener las ecuaciones de Hamilton, al igual que el
principio variacional original fué construı́do con el fin de reproducir las ecuaciones de Lagrange. Una vez que
el Hamiltoniano es construı́do, la transformación de Legendre muestra que las formulaciones de Lagrange y
Hamilton ası́ como los respectivos principios variacionales de donde vienen, contienen todos la misma Fı́sica.
Vale la pena mirar si las restricciones de punto fijo en el principio de Hamilton sufren algún cambio en
el principio de Hamilton modificado. Por ejemplo en el espacio de configuraciones, la condición de extremo
fijo significa δqi = 0, en tanto que en el espacio de fase significa δqi = δpi = 0. Para esto nos debemos
preguntar si es necesaria la condición de extremo fijo en el espacio de fase para llegar a las ecuaciones de Euler
Lagrange dadas por (6.80). Si volvemos a la demostración de las ecuaciones de Euler Lagrange en la sección
3.2, vemos que la condición de extremo fijo se requiere para eliminar el primer término de la derecha en la
Ec. (3.22). No obstante, teniendo en cuenta que nuestro integrando definido por (6.81) no es función explı́cita
de ṗj se observa que la eliminación del término ya descrito, es automática para las variables pj y no requiere
de condición de punto fijo en estas variables. Por tanto, el principio de Hamilton modificado conduce a las
ecuaciones de Hamilton bajo las mismas condiciones variacionales que el principio de Hamilton original, es
decir bajo la condición de extremo fijo solo en las qi .
La anterior discusión muestra que la condición δpj = 0 no es una condición necesaria pero sı́ serı́a una
condición suficiente para llegar a las ecuaciones de Hamilton. Existen en realidad grandes ventajas al imponer
extremos fijos en el espacio de fase, ya que en este caso obtenemos una simetrı́a Gauge para el Hamiltoniano
similar a la que posee el Lagrangiano, es decir se puede adicionar al integrando una función de la forma
dF (q, p, t) /dt, siendo F dos veces diferenciable, sin afectar la validez del principio variacional. Como ejemplo
d
sencillo si adicionamos al integrando en la Ec. (6.79) un término de la forma − dt (qi pi ) el principio modificado
de Hamilton quedarı́a
Z t2
δ [−ṗi qi − H (q, p, t)] dt = 0 (6.82)
t1

nótese que ahora el integrando sı́ depende de ṗj . Por tanto, si queremos que esta nueva expresión aún nos
conduzca a las ecuaciones de Hamilton, es necesario imponer δpj = 0 (con esta nueva expresión no necesitamos
que δqj = 0, pero al hacer la transformación inversa y volver al integrando original, se ve que dicha condición
sı́ es necesaria). De modo que si requerimos una simetrı́a gauge que permita adicionar un término de la forma
dF (q,p,t)
dt se requiere de condición de extremo fijo en el espacio de fase11 . El integrando en (6.82) no es el
Lagrangiano ni se puede relacionar fácilmente con el Lagrangiano a través de una transformación puntual. La
condición de extremo fijo en el espacio de fase provee un método para llegar a la formulación Hamiltoniana sin
pasar por una formulación Lagrangiana. Esto elimina la necesidad de ligar las q, q̇ de un Lagrangiano, con las
q, p de un Hamiltoniano. Esto será importante cuando estudiemos transformaciones de variables en el espacio
de fase que preservan la forma de las ecuaciones de Hamilton.
La independencia entre q y p en la formulación Hamiltoniana es una de las grandes diferencias con las
11
Nótese que en ausencia de la condición δpj = 0, aún tenemos un gauge aunque más débil, ya que podrı́amos adicionar un
factor de la forma dFdt
(q,t)
. Esto no es lo deseable ya que la idea es que F contenga todas las variables independientes.
6.11. EL PRINCIPIO DE MÍNIMA ACCIÓN (OPCIONAL) 115

formulación Lagrangiana en la cual los momentos aparecen como una definición Ec. (5.1). Podemos pensar
como si tuviéramos 2n coordenadas generalizadas y sus derivadas temporales. Solo ampliando el número de
grados de libertad de n a 2n se pueden obtener ecuaciones de primer orden.

6.11. El principio de mı́nima acción (opcional)

Figura 6.4: Ilustración de la δ′ − variación y de la ∆−variación en el espacio de configuraciones. La “curva


correcta” corresponde a (α = 0), en tanto que la curva variada corresponde a un valor no nulo de α.

Existe otro principio variacional muy útil asociado con el formalismo Hamiltoniano conocido como principio
de mı́nima acción. Para esto planteamos otro tipo de variacional ∆. Recordemos que teniendo la curva correcta
definida entre los tiempos t1 y t2 ; el variacional δ define la familia de curvas que poseen extremo fijo tanto en
el tiempo como en el espacio de configuraciones, es decir todas las curvas están definidas en este intervalo de
tiempo y de modo que δqi (t1 ) = δqi (t2 ) = 0. La nueva variación ∆ relaja ambas condiciones, las curvas vecinas
pueden estar definidas en un intervalo temporal diferente [t1 + ∆t1 , t2 + ∆t2 ], y sus coordenadas generalizadas
no tienen que coincidir con las del camino correcto en los extremos. Es posible por ejemplo, que una curva
vecina no se intersecte con la curva correcta en ningún punto. La Fig. 6.4 ilustra la ∆−variación en el espacio
de configuraciones.
Usaremos no obstante la misma parametrización que se usó para la variación δ (ver Ec. 3.21)
qi (t, α) = qi (t, 0) + αηi (t) (6.83)
donde α es el parámetro infinitesimal que conduce al camino correcto cuando se anula. Naturalmente, ya no es
necesaria la condición de que las ηi (t) se anulen en los extremos t1 y t2 (ni en los extremos t1 + ∆t1 y t2 + ∆t2
de un camino variado). Solo requerimos que sean funciones contı́nuas y diferenciables en cualquier intervalo
real o variado.
Evaluemos la variación ∆ de la integral de acción.
Z t2 Z t2 +∆t2 Z t2
∆ L dt ≡ L (α) dt − L (0) dt (6.84)
t1 t1 +∆t1 t1
116 CAPÍTULO 6. ECUACIONES DE MOVIMIENTO DE HAMILTON

donde L (α) representa el valor de L cuando tomamos el camino variado siendo L (0) el camino correcto.
La variación se descompone en dos partes, una surge del cambio en los lı́mites de integración y la otra del
parámetro α i.e. la variación de la curva como tal. Escribiremos la primera integral como
Z t2 +∆t2 Z t2 Z t1 +∆t1 Z t2 +∆t2
= − +
t1 +∆t1 t1 t1 t2

con lo cual (6.84) queda


Z t2 Z t2 Z t2 Z t1 +∆t1 Z t2 +∆t2
∆ L dt = L (α) dt − L (0) dt − L (α) dt + L (α) dt (6.85)
t1 t1 t1 t1 t2

es útil parametrizar L (α) como


L (α) ≡ L (0) + F (α)
donde F (α) nos da cuenta de la desviación en el Lagrangiano debida a la evaluación en la curva vecina, con
respecto a su valor en la curva real. Claramente F (α) es una cantidad infinitesimal. Definiremos ahora la
δ′ −variación, la cual mantiene fijo el intervalo temporal, pero no tiene extremos fijos en las qi (ver Fig. 6.4).
Con estas consideraciones (6.85) queda de la forma
Z t2 Z t2 Z t1 +∆t1 Z t2 +∆t2

∆ L dt = δ L dt − [L (0) + F (α)] dt + [L (0) + F (α)] dt
t1 t1 t1 t2
Z t2 Z t2 Z t1 +∆t1 Z t2 +∆t2

∆ L dt = δ L dt − L (0) dt + L (0) dt
t1 t1 t1 t2
Z t1 +∆t1 Z t2 +∆t2
− F (α) dt + F (α) dt
t1 t2

y dado que las cantidades ∆t1 , ∆t2 y F (α) son infinitesimales, las dos últimas integrales nos dan diferenciales
de segundo orden y por tanto se desprecian. Similarmente, L (0) se puede considerar constante dentro de los
intervalos de integración [ti , ti + ∆ti ] , puesto que una variación ∆L (infinitesimal) del Lagrangiano dentro de
uno de estos intervalos, darı́a una contribución del orden de ∆L·∆ti . Con estas consideraciones, la ∆−variación
a primer orden queda finalmente
Z t2 Z t2

∆ L dt = L (t2 , α = 0) ∆t2 − L (t1 , α = 0) ∆t1 + δ L dt (6.86)
t1 t1

Los dos primeros términos en el miembro derecho de la Ec. (6.86), se deben a la variación en los lı́mites
de integración, tomados sobre el “camino correcto”. El tercer término a la derecha de (6.86), se origina en la
variación de la curva como tal a través del parámetro α, tomando los mismos lı́mites de integración que en la
curva original.
La variación δ′ en la integral de la derecha puede realizarse a través de una parametrización del camino
variado, como en la sección 3.2, pero la variación de qi no se anula en los extremos. Retomando la ecuación
(3.22), el primer término de la derecha en dicha ecuación ya no se anula, con lo cual la Ec. (3.23) se modifica
en la forma Z t2 Z t2   
′ ∂L d ∂L ′ ∂L ′ 2
δ L dt = − δ qi dt + δ qi
t1 t1 ∂qi dt ∂ q̇i ∂ q̇i 1

donde δ′ qi se define en forma análoga a la Ec. (3.24). Usando las ecuaciones de Lagrange12 , esta nueva variación
se escribe Z t2
′ ∂L ′ 2
δ L dt = δ qi
∂ q̇i t1 1
12
Al tomar ecuaciones de Lagrange, estamos asumiendo la validez del principio de Hamilton.
6.11. EL PRINCIPIO DE MÍNIMA ACCIÓN (OPCIONAL) 117

y la variación ∆ queda Z t2   2
∆ L dt = L (t) ∆t + pi δ′ qi 1 (6.87)
t1

δ′ qi (1) es la variación en qi con respecto a la coordenada en la curva correcta tomada en el tiempo t1 , otro
tanto ocurre con δ′ qi (2). La idea es escribir la ∆−variación de la acción en términos de las ∆−variaciones de
las coordenadas, calculemos entonces ∆qi (2)

∆qi (2) = qi (t2 + ∆t2 , α) − qi (t2 , 0) = qi (t2 + ∆t2 , 0) − qi (t2 , 0) + αηi (t2 + ∆t2 )
 
qi (t2 + ∆t2 , 0) − qi (t2 , 0)
∆qi (2) = ∆t2 + αηi (t2 )
∆t2
donde hemos usado la parametrización (6.83) y eliminado contribuciones de segundo orden. A primer orden
en las cantidades infinitesimales α y ∆t2

∆qi (2) = q̇i (2) ∆t2 + δ′ qi (2)

nótese que αηi (t2 ) nos da una δ′ variación solo si no se impone que ηi se anule en los extremos con t1 y t2 fijos.
De manera similar se calcula para el otro extremo quedando

∆qi = δ′ qi + q̇i ∆t (6.88)

y reemplazando (6.88) en (6.87) resulta


Z t2
∆ L dt = (L ∆t − pi q̇i ∆t + pi ∆qi )|21 ⇒
t1
Zt2
∆ L dt = (pi ∆qi − H ∆t)|21 (6.89)
t1

para obtener el principio de mı́nima acción, realizaremos algunas suposiciones adicionales

1. Consideraremos sistemas en donde L, y por tanto H no dependan explı́citamente del tiempo, de modo
que H es una cantidad conservada.

2. Restringiremos las variaciones de tal manera que para los caminos vecinos H también sea conservada al
igual que en el camino correcto.

3. Exigiremos además que los caminos variados cumplan el requerimiento de que ∆qi se anule en los extremos
(pero no ∆t). Esto implica entonces que qi (t1 , 0) para el camino real debe coincidir con qi (t1 + ∆t1 , α)
para el camino variado, y similarmente para t2 .

Un ejemplo particular de trayectoria vecina que podrı́a satisfacer los tres requisitos, es un camino en donde
la “lı́nea” que describe la trayectoria variada en el espacio de configuraciones coincida con la “lı́nea” de la
trayectoria real, la diferencia consiste en la rapidez con que se desplaza el punto que describe la trayectoria en
ambos casos, es decir que las funciones qi (t) están alteradas en el camino variado. En este caso es necesario
cambiar los tiempos en los extremos de la curva variada a fin de que H se mantenga constante en todos los
puntos de la trayectoria variada.
Teniendo en cuenta las condiciones adicionales impuestas, la ∆−variación de la acción dada por la Ec.
(6.89), queda
Z t2
∆ L dt = −H (∆t2 − ∆t1 ) (6.90)
t1
por otro lado, bajo las mismas condiciones, la acción como tal queda
Z t2 Z t2
L dt = pi q̇i dt − H (t2 − t1 )
t1 t1
118 CAPÍTULO 6. ECUACIONES DE MOVIMIENTO DE HAMILTON

escribiendo la ∆ variación de esta acción, resulta


Z t2 Z t2
∆ L dt = ∆ pi q̇i dt − H (∆t2 − ∆t1 ) (6.91)
t1 t1

comparando (6.90) con (6.91) se obtiene el principio de mı́nima acción


Z t2
∆ pi q̇i dt = 0 (6.92)
t1

el nombre de este principio proviene del hecho de que la integral en (6.92), se conocı́a antiguamente como la
acción. La literatura moderna utiliza el término acción para la integral involucrada en el principio variacional
de Hamilton. Para la integral en (6.92) se utiliza con frecuencia el término acción abreviada.

6.11.1. Algunas aplicaciones del principio de mı́nima acción


El principio de mı́nima acción se puede escribir de diversas maneras. Por ejemplo, si la ecuación que define a
las coordenadas generalizadas no depende explı́citamente del tiempo, la energı́a cinética solo contiene factores
homogéneos de segundo grado en q̇.
1
T = Mjk (q) q̇j q̇k
2
si adicionalmente, el potencial no depende de las velocidades generalizadas (es decir el Hamiltoniano es la
energı́a del sistema), los momentos canónicos se derivan solo de T

∂T 1
pi = = (Mik q̇k + Mji q̇j ) ⇒
∂ q̇i 2
1
pi q̇i = (Mik q̇k q̇i + Mji q̇j q̇i ) = 2T
2
empleando esta última igualdad en (6.92) resulta
Z t2
∆ T dt = 0 (6.93)
t1

si además T se conserva al igual que H (por ejemplo es el caso de un cuerpo rı́gido aislado puesto que en tal
caso la energı́a potencial es solo interna y no cambia con el tiempo). El principio de mı́nima acción adquiere
entonces la forma
∆ (t2 − t1 ) = 0
esta ecuación nos dice que de todos los caminos posibles entre dos puntos en el espacio de configuraciones,
consistente con la conservación de H y T , el sistema se moverá a lo largo de un camino particular para el
cual el tiempo de transito es el mı́nimo posible (mas estrictamente estacionario). En esta forma el principio de
mı́nima acción nos recuerda al principio de Fermat en óptica geométrica, en donde una rayo de luz atraviesa el
camino que minimiza el tiempo de viaje. Nótese que para llegar a esta conclusión por este camino, fué necesario
que el intervalo temporal de integración no fuera fijo, como efectivamente ocurre en la ∆−variación.
Pensemos ahora el caso especial de una partı́cula asumiendo que T no es necesariamente constante, la
energı́a cinética se escribe
 
m ds 2
T =
2 dt
donde s denota la longitud de arco. De esta ecuación se puede despejar dt

ds
dt = p (6.94)
2T /m
6.12. EJERCICIOS 119

de modo que podemos reemplazar el dt de la acción abreviada (6.93)


Z t2 Z p2 Z p2 √
ds
∆ T dt = 0 ⇒ ∆ T√ =0 ⇒ ∆ T ds = 0
t1 p1 2T p1

finalmente se puede escribir Z p2 p


∆ H − V (q) ds = 0 (6.95)
p1
la Ec. (6.95) se conoce usualmente como la forma de Jacobi para el principio de mı́nima acción. Este resultado
es extendible a caminos en espacios de configuraciones con curvatura que describen a un sistema de partı́culas
(ver Ref. [1]).
pLa Ec. (6.94) nos muestra que el punto atraviesa el camino en el espacio de configuraciones a
una rapidez 2T /m. Si T es constante (e.g. en un sistema aislado), la forma de Jacobi del principio de mı́nima
acción nos dice que el punto del sistema viaja por el camino mas corto en el espacio de configuraciones (es
decir una geodésica). Tal resultado tiene muchas aplicaciones en óptica geométrica y en óptica electrónica. Es
importante mencionar que en la forma de Jacobi del principio de mı́nima acción, nos referimos al camino (y no
a la curva) que describe el punto figurativo del sistema. Es decir, no es relevante la dependencia de este camino
con el parámetro tiempo, ya que en la integral (6.95) H es constante, V solo depende de las coordenadas, y
solo interviene el elemento de camino ds.
Existen una gran variedad de principios variacionales. Por ejemplo, un principio variacional derivable del
principio de mı́nima acción abreviada es el principio de mı́nima curvatura de Hertz, según el cual, una partı́cula
libre se mueve a lo largo del camino de mı́nima curvatura, lo cual conduce a su vez al movimiento a lo largo
de geodésicas.
Los principios variacionales no contienen fı́sica nueva y son en general poco ventajosos para resolver pro-
blemas prácticos, su utilidad yace en la facilidad para desarrollar nuevas formulaciones de la estructura teórica
de la mecánica y otros campos de la Fı́sica mas allá de la mecánica.

6.12. Ejercicios
1. Demuestre explı́citamente que dado un Hamiltoniano H, el nuevo Hamiltoniano dado por
dF (q, p, t)
H′ = H +
dt
conduce a las mismas ecuaciones de Hamilton que H. ¿Qué condiciones se necesitan sobre F para
garantizar la equivalencia de ambos Hamiltonianos?.
2. Use las ecuaciones de Hamilton para encontrar las ecuaciones de movimiento de un péndulo esférico,
usando coordenadas generalizadas apropiadas.
3. En el problema de la sección 6.8.1, de una partı́cula restringida a moverse en una superficie cilı́ndrica,
encuentre la energı́a del sistema en términos de las condiciones iniciales.
4. Encuentre las ecuaciones de Hamilton asociadas al Hamiltoniano de la Ec. (6.54), Pág. 106.
5. Un Hamiltoniano de un solo grado de libertad tiene la forma
p2 ba  kq 2
H (q, p) = − bqpe−αt + q 2 e−αt α + be−αt + (6.96)
2α 2 2
donde a, b, α, y k son constantes (a) Encuentre el Lagrangiano asociado a este Hamiltoniano, (b) Encuen-
tre un Lagrangiano equivalente que no dependa explı́citamente del tiempo. (c) Encuentre el Hamiltoniano
asociado al nuevo Lagrangiano, ası́ como su relación con el Hamiltoniano (6.96).
6. Encuentre el Hamiltoniano y las ecuaciones de Hamilton para el péndulo doble descrito por la Fig. 2.1,
Pág. 16.
Capı́tulo 7

Transformaciones canónicas

Hay un tipo de problema que serı́a de muy fácil solución con el formalismo Hamiltoniano, el caso en el cual
H es una constante de movimiento y todas las coordenadas generalizadas son cı́clicas, de modo que todos los
momentos conjugados son constantes
pi = αi ; i = 1, . . . , n
y dado que el Hamiltoniano no puede ser función ni del tiempo ni de las coordenadas cı́clicas, este se escribe
como
H = H (α1 , . . . , αn )
y las ecuaciones de Hamilton para q̇i son simplemente
∂H
q̇i = = ωi ; i = 1, . . . , n (7.1)
∂αi
dado que las ωi son funciones de las αi únicamente, son también constantes en el tiempo. Las Ecs. (7.1) tienen
solución inmediata
qi = ωi t + βi ; i = 1, . . . , n
donde las βi ası́ como las αi se determinan con las 2n condiciones iniciales. Podrı́a pensarse que esta clase de
problemas son de interés solo académico. No obstante, cabe recordar que existe en general mas de un sistema
coordenado generalizado para un sistema fı́sico dado. Por ejemplo, para fuerzas centrales el uso de coordenadas
cartesianas no conduce a variables cı́clicas en tanto que las coordenadas polares producen automáticamente una
variable cı́clica. El número de variables cı́clicas depende en general del sistema de coordenadas generalizadas
utilizado. Es posible entonces que encontremos un conjunto de coordenadas en las que todas las coordenadas
sean cı́clicas, una vez encontrado el resto del problema es muy sencillo. Dado que en general el sistema
coordenado mas obvio no va a ser normalmente cı́clico, debemos desarrollar un método para transformar este
conjunto coordenado en otro que sea más adecuado. Las transformaciones de este tipo que hemos usado hasta
el momento, son de un conjunto {qi } de coordenadas generalizadas a otro conjunto {Qi }

Qi = Qi (qi , t) ; i = 1, . . . , n (7.2)

por ejemplo, la transformación de coordenadas cartesianas a polares tiene esta forma1 . Estas transformaciones
se conocen como transformaciones puntuales.
En el formalismo Hamiltoniano, los momentos conjugados están al mismo nivel que las coordenadas de tal
modo que las transformaciones puntuales deben realizarse en el espacio de fase y no en el de configuraciones,
por tanto debemos estudiar transformaciones del tipo

Qi = Qi (q, p, t) ; Pi = Pi (q, p, t) (7.3)


1
No toda transformación de coordenadas cartesianas a otro conjunto de coordenadas es del tipo (7.2), ya que éstas últimas
se refieren a transformaciones entre dos conjuntos de coordenadas independientes. Por ejemplo, las transformaciones descritas
por (2.2), relacionan en general a un conjunto de coordenadas dependientes (las cartesianas) con otro conjunto de coordenadas
independientes (las qi ).

120
7.1. TRANSF. CANÓNICAS Y EL PRINCIPIO DE HAMILTON MODIFICADO 121

En el formalismo Hamiltoniano, solo interesan aquellas transformaciones para las cuales exista una función
K (Q, P, t) tal que las ecuaciones de movimiento en el nuevo sistema de coordenadas Q, P , tengan la estructura
de las ecuaciones de Hamilton, es decir
∂K ∂K
Q̇i = ; Ṗi = − (7.4)
∂Pi ∂Qi

Esta clase de transformaciones se denominan transformaciones canónicas. La función K (Q, P, t) juega


el papel del Hamiltoniano en el nuevo sistema coordenado Q, P . Esta función se denomina Hamiltoniano
transformado o Kamiltoniano. Dado que estas transformaciones deben ser invertibles, resulta arbitrario decir
cual es el “nuevo Hamiltoniano o Kamiltoniano” y el “antiguo Hamiltoniano”.
Es importante mencionar que la transformación de coordenadas debe ser independiente del problema, lo
cual significa que dadas las ecuaciones de transformación (7.3) entonces las expresiones (7.4) deben ser las
ecuaciones de movimiento sin importar la forma del Hamiltoniano original. Aunque la transformación pudo ser
inspirada en un problema especı́fico, las mismas transformaciones deben conducir a las ecuaciones de Kamilton,
cuando se aplican a otro problema con el mismo número de grados de libertad, aunque naturalmente el valor
especı́fico numérico y funcional de H y K sı́ serı́a especı́fico para cada problema.

7.1. Caracterización de las transformaciones canónicas a través del prin-


cipio de Hamilton modificado
Si Qi , Pi son coordenadas canónicas, ellas deben satisfacer el principio variacional modificado de Hamilton
en la forma Z t2 h i
δ Pi Q̇i − K (Q, P, t) dt = 0 (7.5)
t1

al mismo tiempo, las antiguas variables canónicas deben satisfacer el mismo principio
Z t2
δ (pi q̇i − H (q, p, t)) dt = 0 (7.6)
t1

teniendo en cuenta que el principio modificado de Hamilton tiene variación cero en los extremos2 , la validez
simultánea de (7.5) y (7.6) conduce a que los dos integrandos estén relacionados de la siguiente forma

dF
λ [pi q̇i − H (q, p, t)] = Pi Q̇i − K (Q, P, t) + (7.7)
dt
donde F es una función de las coordenadas del espacio de fase y del tiempo con derivadas contı́nuas hasta se-
gundo orden. λ es una constante independiente de las coordenadas y el tiempo, que produce una transformación
de escala.

Example 4 Veamos un caso de transformación de escala. Pasemos de {q, p} a otro conjunto {Q′ , P ′ } con una
transformación de la forma
Q′i = µqi ; Pi′ = νpi (7.8)
las ecuaciones de Hamilton (7.4) serán satisfechas si elegimos el kamiltoniano

K ′ Q′ , P ′ ≡ µνH (q, p) (7.9)

Los integrandos correspondientes al principio de Hamilton modificado están relacionados por

µν (pi q̇i − H) = Pi′ Q̇′i − K ′ (7.10)


2
Recordemos que para llegar a las ecuaciones de Hamilton solo requerimos que δqi = 0, pero también podemos imponer δpi = 0,
con el fin de enriquecer el gauge del Hamiltoniano.
122 CAPÍTULO 7. TRANSFORMACIONES CANÓNICAS

que es de la forma (7.7) con λ = µν, y dF/dt = 0. Sin embargo, si tenemos una transformación {q, p} →
{Q′ , P ′ } con factor de escala α 6= 1

 dF ′
α [pi q̇i − H (q, p, t)] = Pi′ Q̇′i − K ′ Q′ , P ′ , t + (7.11)
dt
siempre podemos encontrar un conjunto intermedio de coordenadas {Q, P } relacionadas con {Q′ , P ′ } por una
transformación de escala de la forma (7.8, 7.10)

Q′i = µQi ; Pi′ = νPi


 
µν Pi Q̇i − K = Pi′ Q̇′i − K ′ (7.12)

sustituyendo (7.12) en (7.11) y ajustando µν ≡ α, obtenemos


  dF ′
α [pi q̇i − H (q, p, t)] = α Pi Q̇i − K +
dt
y definiendo F ≡ F ′ /α vemos que la transformación entre los dos conjuntos {q, p} y {Q, P } satisface entonces
la Ec. (7.7) pero con λ = 1
dF
pi q̇i − H (q, p, t) = Pi Q̇i − K (Q, P, t) + (7.13)
dt

El ejemplo anterior nos muestra que la transformación de escala es básicamente trivial y no aporta signifi-
cativamente al formalismo de las transformaciones canónicas, de modo que trabajaremos las transformaciones
dadas por (7.13). Cuando λ 6= 1 se habla de transformaciones canónicas extendidas. Cuando λ = 1 habla-
mos simplemente de una transformación canónica. Lo que hemos visto es que una transformación canónica
extendida siempre se puede separar en una transformación canónica seguida de una transformación de escala.
Cuando la transformación canónica no depende explı́citamente del tiempo se habla de transformación canónica
restringida. De aquı́ en adelante se trabaja con transformaciones canónicas (no extendidas) a menos que se
indique lo contrario.
El último término a la derecha de (7.13) solo contribuye a la variación de la acción en los extremos y por
lo tanto se anula si F es una función de (q, p, t) o de (Q, P, t) o cualquier mezcla de las coordenadas de los dos
espacios de fase {q, p} y {Q, P }, dado que todas ellas tienen variación cero en los extremos. Además, por medio
de las ecuaciones de transformación (7.3) y sus inversas, es posible expresar a F en términos de coordenadas
nuevas y viejas. En realidad estas funciones adquieren mayor utilidad cuando se expresan con un número igual
de variables viejas y nuevas (además del tiempo). En ese sentido F actúa como puente entre los dos sistemas
de coordenadas y se denomina la función generadora de la transformación.

7.2. Caracterización de las funciones generadoras de una transformación


canónica
Veamos de que manera F puede generar la transformación. Asumamos que F es función de las n primeras
coordenadas generalizadas, nuevas y viejas i.e. de q, Q

F ≡ F1 (q, Q, t) (7.14)

la ecuación (7.13) toma la forma

dF1
pi q̇i − H = Pi Q̇i − K +
dt
∂F1 ∂F1 ∂F1
pi q̇i − H = Pi Q̇i − K + + q̇i + Q̇i (7.15)
∂t ∂qi ∂Qi
7.2. FUNCIONES GENERADORAS DE UNA TRANSFORMACIÓN CANÓNICA 123

pasando todo a un solo lado


   
∂F1 ∂F1 ∂F1
0=H+ − pi q̇i + Pi + Q̇i − K +
∂qi ∂Qi ∂t

y dado que las coordenadas nuevas y viejas son separadamente independientes y H,K, F1 no son funciones de
q̇i ni de Q̇i , se llega a que los coeficientes que acompañan a q̇i , Q̇i deben anularse

∂F1 ∂F1
pi = ; Pi = − ; i = 1, . . . , n (7.16)
∂qi ∂Qi

quedando finalmente
∂F1
K=H+ (7.17)
∂t
las primeras n de las Ecs. (7.16) definen a pi como funciones de qj , Qj y t. Asumiendo que son invertibles, se
pueden despejar las Qi en términos de qj , pj , t, lo cual nos darı́a la primera mitad de las transformaciones
(7.3). Una vez establecidas, las Qi (qj , pj , t) se pueden sustituir en la segunda serie de Ecs. (7.16) de tal manera
que se obtienen las Pi como funciones de qj , pj , t; y por tanto la segunda mitad de las transformaciones
(7.3). Finalmente, la relación (7.17) nos da la conección entre el nuevo Hamiltoniano K y el antiguo H, de
esta relación se vé que K difiere numéricamente de H si y solo si F1 depende explı́citamente del tiempo. Es
necesario tener en cuenta que K debe ser función de Q, P, t, para lo cual los argumentos de H es decir q, p, t
deben ser convertidos en Q, P, t a través de la inversa de las relaciones (7.3), de la misma forma, los argumentos
qi , t de la función ∂t F1 deben expresarse en términos de Q, P, t; con lo cual la función K ya queda en términos
de los argumentos correctos.
El procedimiento anterior describe formalmente como se pueden obtener las transformaciones canónicas
partiendo de una función generatriz F1 . Este proceso puede ser revertido para obtener la función generatriz
comenzando con las transformaciones canónicas (7.3). Se comienza por invertir el primer conjunto de transfor-
maciones (7.3) con el fin de expresar los pi como funciones de q, Q, t, tal expresión se reemplaza entonces en el
segundo conjunto de transformaciones (7.3) con lo cual se obtienen los Pi también como funciones de q, Q, t.
Se obtienen entonces dos funciones especı́ficas

pi = pi (q, Q, t) ; Pi = Pi (q, Q, t)

reemplazando estas funciones especı́ficas en las ecuaciones (7.16), se obtiene un conjunto de 2n ecuaciones
diferenciales con 2n coordenadas (qi , Qi ), para F1 (q, Q, t). Estas ecuaciones permiten en principio encontrar
a F1 siempre que las transformaciones sean realmente canónicas. Se puede ver que existe una arbitrariedad en
la solución para F1 . En particular, se le puede adicionar una función arbitraria cuyo argumento es el tiempo
solamente3
F1′ (q, Q, t) = F1 (q, Q, t) + g (t)
Esta función aditiva claramente no afecta las ecuaciones de transformación. Por otro lado, se aprecia en la Ec.
(7.17), que el Kamiltoniano con F1′ sı́ cambia con respecto al Kamiltoniano con F1 , pero en una derivada total
con respecto al tiempo, que no afecta a las ecuaciones de Hamilton. En algunas ocasiones F1 puede tener otras
ambigüedades.
En ocasiones no es adecuado escribir la función generatriz en términos de los argumentos q, Q, t. Por
ejemplo, la transformación puede ser tal que los pi no se puedan escribir como funciones de q, Q, t, sino
más bien como funciones de q, P, t. En este caso se debe buscar una función generatriz que sea función de las
antiguas coordenadas q y los nuevos momentos P . Claramente la Ec. (7.15) debe reemplazarse por una relación
similar pero que involucre a Ṗi en lugar de Q̇i . Esto se logra escribiendo a F en (7.13) como

F ≡ F2 (q, P, t) − Qi Pi (7.18)
3
Este es un conjunto de ecuaciones diferenciales sin condiciones iniciales ni de frontera. Por esta razón no se espera unicidad
en su solución. Además, F1 no corresponde a un observable fı́sico, de modo que tampoco es necesaria dicha unicidad.
124 CAPÍTULO 7. TRANSFORMACIONES CANÓNICAS

Función generatriz Derivadas de las Fi Caso especial trivial


∂F1 ∂F1
F = F1 (q, Q, t) pi = ∂qi ; Pi = − ∂Q i
F1 = qi Qi , Qi = pi , Pi = −qi
∂F2
F = F2 (q, P, t) − Qi Pi pi = ∂qi ; Qi = ∂F 2
∂Pi F2 = qi Pi , Qi = qi , Pi = pi
F = F3 (p, Q, t) + qi pi qi = − ∂F
∂pi
3 ∂F3
; Pi = − ∂Q i
F3 = pi Qi , Qi = −qi , Pi = −pi
F = F4 (p, P, t) + qi pi − Qi Pi qi = − ∂F
∂pi
4
; Qi = ∂F
∂Pi
4
F4 = pi Pi , Qi = pi , Pi = −qi

Cuadro 7.1: Funciones generatrices de los 4 tipos, sus ecuaciones diferenciales asociadas y algunos ejemplos
simples.

sustituyendo (7.18) en (7.13) y usando regla de la cadena se tiene que


dF2 d
pi q̇i − H (q, p, t) = Pi Q̇i − K (Q, P, t) + − (Qi Pi )
dt dt
∂F2 ∂F2 ∂F2
pi q̇i − H (q, p, t) = Pi Q̇i − K (Q, P, t) + + q̇i + Ṗi − Q̇i Pi − Qi Ṗi
∂t ∂qi ∂Pi
∂F2 ∂F2 ∂F2
pi q̇i − H (q, p, t) = −K (Q, P, t) + + q̇i + Ṗi − Qi Ṗi
∂t ∂qi ∂Pi
pasando todo a un extremo
   
∂F2 ∂F2 ∂F2
− pi q̇i + − Qi Ṗi + H − K + =0
∂qi ∂Pi ∂t

por razones similares al caso de F1 , los términos proporcionales a q̇i y Ṗi deben anularse y por lo tanto
los tres últimos términos de la izquierda deben cancelarse. De estas cancelaciones se obtienen las ecuaciones
fundamentales para F2 y para K
∂F2 ∂F2
pi = ; Qi = (7.19)
∂qi ∂Pi
∂F2
K = H+ (7.20)
∂t
al igual que con el caso anterior, el primer conjunto de ecuaciones (7.19) debe resolverse para Pi en función
de qj , pj , t, con lo cual se tiene la segunda mitad de las transformaciones (7.3). La primera mitad de las
transformaciones (7.3) se obtiene sustituyendo P (q, p, t) en la segunda mitad de las Ecs. (7.19).
Obviamente, existen otros dos tipos básicos de funciones generatrices F3 (p, Q, t) y F4 (p, P, t), para las
cuales el procedimiento es análogo y se sintetiza en la tabla 7.1. Se puede observar que los cuatro tipos básicos
de funciones generatrices están conectados a través de transformaciones de Legendre. Por ejemplo, la transición
entre F1 y F2 equivale a ir de las variables q, Q a las variables q, P con el segundo conjunto de relaciones (7.16)
∂F1 (q, Q, t)
−Pi =
∂Qi
ya que de esta relación se puede obtener Pi en términos de q, Q, t la cual formalmente se puede despejar para
obtener Qi (q, P, t), que permitirı́a reemplazar el conjunto q, Q por el conjunto q, P . Esta es precisamente la
forma requerida para una transformación de Legendre de la base de variables (q, Q) a la base de variables
(q, P ), como se discutió en la sección 6.2. En analogı́a con la Ec. (6.3), escribimos

F2 (q, P, t) = F1 (q, Q, t) + Pi Qi (7.21)

lo cual es equivalente a igualar (7.14) con (7.18). De manera similar a partir de (7.14), y las definiciones de las
otras funciones generatrices dadas en la tabla 7.1, se puede ver que todas las otras funciones generatrices se
7.3. EJEMPLOS DE TRANSFORMACIONES CANÓNICAS 125

pueden ver como transformaciones de Legendre de F1 . En particular, F4 se obtiene con dos transformaciones
de Legendre de F1 dado que requiere el cambio de los dos conjuntos de argumentos. Sin embargo, no toda
transformación canónica puede ser generada por medio de alguna de las cuatro funciones generatrices básicas.
De modo que en algunos casos, estas transformaciones de Legendre pueden conducir a funciones generatrices
nulas o indeterminadas. Por esta razón es preferible definir cada tipo de función generadora relativa a la función
F de la Ec. (7.13), la cual es una función de 2n coordenadas y/o momentos independientes, pero que no tiene
sus argumentos bien definidos.
En particular, la función generatriz apropiada no necesariamente es del tipo 1,2,3 ó 4 para todas sus
coordenadas y/o momentos. Es posible y en algunos casos necesario para ciertas transformaciones canónicas,
usar una función generatriz que sea mezcla de los cuatro tipos. A manera de ejemplo, podrı́a ser conveniente
que para cierta transformación canónica con dos grados de libertad, definamos una función generatriz de la
forma
F ′ (q1 , p2 , P1 , Q2 , t)
esta función generatriz estarı́a relacionada con F de (7.13) a través de

F = F ′ (q1 , p2 , P1 , Q2 , t) − Q1 P1 + q2 p2

esto define una transformación de Legendre adecuada para cambiar Q1 por P1 y para cambiar q2 por p2 . Las
ecuaciones de transformación se obtienen a través de las relaciones
∂F ′ ∂F ′
p1 = ; Q1 =
∂q1 ∂P1
∂F ′ ∂F ′
q2 = − ; P2 = −
∂p2 ∂Q2
∂F ′
K = H+
∂t
Se puede ver que F ′ es una mezcla entre funciones del tipo F2 y F3 .

7.3. Ejemplos de transformaciones canónicas


Consideremos primero una función del segundo tipo de la forma

F2 = qi Pi (7.22)

a partir de las Ecs. (7.19, 7.20), las ecuaciones de transformación serán


∂F2 ∂F2
pi = = Pi ; Qi = = qi ; K = H
∂qi ∂Pi
las coordenadas nuevas coinciden con las antiguas, de modo que F2 es una función generatriz de la transfor-
mación identidad. Tomemos ahora F3 = pi Qi , usando las ecuaciones de la tabla 7.1, vemos que esta función
genera la transformación canónica −I, i.e. Qi = −qi , Pi = −pi .
Un tipo más general de transformación del tipo F2 que incluye a (7.22) como caso particular, se define por

F2 = fi (q1 , . . . , qn ; t) Pi + g (q1 , . . . , qn ; t) (7.23)

donde las fi son un conjunto de funciones independientes, y g es una función diferenciable en q, t, ambas tienen
como argumentos las coordenadas antiguas y el tiempo. Usando el segundo conjunto de Ecs. (7.19) las nuevas
coordenadas Qi vienen dadas por
∂F2
Qk = = fk (q1 , . . . , qn ; t) (7.24)
∂Pk
de modo que con esta transformación las coordenadas nuevas solo dependen de las coordenadas antiguas y
el tiempo pero no de los antiguos momentos. Esto define una transformación puntual como la expresada en
126 CAPÍTULO 7. TRANSFORMACIONES CANÓNICAS

(7.2). Para definir una transformación puntual las funciones fi deben ser independientes e invertibles, de
modo que las qj se puedan expresar en términos de las Qk . Dado que las fi son por lo demás arbitrarias, se
concluye que toda transformación puntual puede ser parte de una transformación canónica (recuérdese que
una transformación canónica requiere conocer también las transformaciones en los pi ). Las Ecs. (7.20, 7.23)
nos dan el nuevo Hamiltoniano
∂fi ∂g
K=H+ Pi +
∂t ∂t
Veamos ahora las ecuaciones de transformación para el momento conjugado que induce (7.23), el primer
conjunto de Ecs. (7.19) lleva a
∂F2 ∂fi ∂g
pj = = Pi + (7.25)
∂qj ∂qj ∂qj
estas ecuaciones se pueden invertir para dar P en función de (q, p). Este procedimiento es más sencillo si se
usa una formulación matricial, definiremos entonces arreglos matriciales de la forma
   
∂f ∂fi ∂g ∂g
(p)j ≡ pj ; (P)i ≡ Pi ; ≡ ; ≡
∂q ji ∂qj ∂q j ∂qj

con lo cual la transformación (7.25) se escribe


∂f ∂g
p= P+ (7.26)
∂q ∂q
de aquı́ se puede despejar P
 −1  
∂f ∂g
P= p− (7.27)
∂q ∂q
obsérvese que a diferencia de las Qi que solo dependı́an de las qj y el tiempo, las Pi dependen de qj , pj , t.
Otra función generadora interesante es la siguiente

F1 = qk Qk (7.28)

las ecuaciones de transformación (7.16) en este caso quedan


∂F1 ∂F1
pi = = Qi ; Pi = − = −qi
∂qi ∂Qi
esta función generatriz intercambia los momentos y las coordenadas excepto por un signo. La función F4 = pi Pi
produce la misma transformación. Este hecho enfatiza el estatus independiente otorgado a los momentos, ya
que tanto los momentos como las coordenadas se necesitan para describir el movimiento en la formulación
Hamiltoniana y la distinción entre ambos es asunto de nomenclatura, puesto que podemos intercambiar los
nombres con un costo no mayor a un cambio de signo. No hay ningún remanente en la teorı́a de q como
coordenada espacial o de p como masa por velocidad. En realidad, de las propias ecuaciones de Hamilton
∂H ∂H
ṗi = − , q̇i =
∂qi ∂pi
se puede ver que este intercambio es canónico, con el cambio de signo apropiado. Si qi se sustituye por pi , las
ecuaciones permanecen en la forma canónica solo si −pi es sustituı́do por qi .
Podemos ver adicionalmente que la transformación de permutación no se puede generar a partir de una
función generatriz del tipo F2 (q, P, t), ya que el sistema de ecuaciones parciales que se deriva de (7.19) nos
dice que
∂F2 (q, P, t)
pi =
∂qi
esto implica que pi debe escribirse como función de q, P, t pero en la transformación de permutación pi no es
función de ninguna de estas variables, en realidad solo es función de las nuevas coordenadas Q. Por tanto, F2
no es una función generatriz adecuada para la transformación de permutación.
7.4. TRANSFORMACIONES CANÓNICAS PARA EL OSCILADOR ARMÓNICO 127

Similarmente, una función tipo F1 (q, Q, t) no puede generar la transformación identidad, ya que las Ecs.
(7.16) nos llevan a
∂F1 (q, Q, t)
pi =
∂qi
y definen a pi en función de q, Q, t, pero en la transformación identidad, pi solo es función de Pi . Adicionalmente,
no es posible obviar esta dificultad definiendo una función F1 mediante una transformada de Legendre del tipo
(7.21), aplicada a la generadora F2 de la identidad.

F1 (q, Q, t) = F2 (q, P, t) − Pi Qi = qi Pi − Pi Qi

pero en la transformación identidad es obvio que q = Q de modo que

F1 (q, Q, t) = Qi Pi − Pi Qi = 0

que no es una función generatriz. Similar resultado se obtiene si se intenta generar la transformación de
permutación a partir de una función F2 que provenga de la transformación de Legendre del generador F1 de
permutación. No obstante, se puede demostrar que una función F3 puede generar la transformación identidad
y que una función tipo F4 puede generar la permutación.
Finalmente, una transformación que deja algunas parejas (q, p) inalteradas, e intercambia el resto (con un
cambio de signo), es una transformación canónica de tipo mixto. En un sistema de dos grados de libertad, la
transformación

Q1 = q1 , P1 = p1
Q2 = p 2 , P2 = −q2 (7.29)

es generada por la función


F = q1 P1 + q2 Q2 (7.30)
que es una mezcla entre funciones de tipo F1 y F2 . El término tipo F1 produce permutación y el término tipo
F2 es del tipo identidad.

7.4. Transformaciones canónicas para el oscilador armónico


El Hamiltoniano para el oscilador armónico se escribe como

1  k
H= p 2 + m2 ω 2 q 2 ; ω 2 ≡
2m m
esta forma en suma de cuadrados en q y p sugiere que para que la nueva coordenada sea cı́clica, podemos
hallar una transformación de la forma
f (P )
p = f (P ) cos Q ; q = sin Q (7.31)

Dado que la transformación (7.31) no depende explı́citamente del tiempo, el Hamiltoniano no cambia numéri-
camente y en las nuevas coordenadas queda

f 2 (P )  f 2 (P )
K=H= cos2 Q + sin2 Q = (7.32)
2m 2m
de modo que Q resulta cı́clica. Solo nos queda hallar la forma de f (P ) tal que la transformación (7.31) sea
canónica. El cociente entre la Ecs. (7.31) nos lleva a

p = mωq cot Q (7.33)


128 CAPÍTULO 7. TRANSFORMACIONES CANÓNICAS

que es independiente de f (P ). Esta transformación es de la forma p = p (q, Q) lo cual sugiere buscar una
función generatriz tipo F1 , pues el primer conjunto de Ecs. (7.16) nos da pi = pi (q, Q, t) en la forma

∂F1 (q, Q, t)
p= (7.34)
∂q

y la solución más sencilla de F1 para la Ec. (7.33) es

mωq 2
F1 (q, Q, t) = cot Q (7.35)
2

naturalmente, F1 debe satisfacer la otra mitad de las ecuaciones de transformación (7.16)

∂F1 mωq 2
P =− = (7.36)
∂Q 2 sin2 Q

despejando q se obtiene
r
2P
q= sin Q (7.37)

que al compararla con la segunda de las Ecs. (7.31) nos da

f (P ) = 2mωP (7.38)

al reemplazar este factor en el nuevo Hamiltoniano (7.32) queda

K = H = ωP

que claramente es cı́clico en Q, con lo cual P es una constante de movimiento. Como H es constante y es la
energı́a del sistema, el nuevo momento canónico viene dado por

E
P = (7.39)
ω

y la ecuación de Hamilton para Q se reduce a

∂K
Q̇ = =ω
∂P

cuya solución es
Q = ωt + α (7.40)

siendo α una constante de integración fijada por las condiciones iniciales. Sustituyendo (7.39) y (7.40) en (7.37)
resulta
r
2E
q= sin (ωt + α)
mω 2
que es la solución conocida para el oscilador armónico.
Cabe ahora la pregunta, ¿qué nos asegura que la transformación definida por (7.31) y por (7.38) es canóni-
ca?. Lo asegura el hecho de que tal transformación es generada por una función generatriz tipo 1 Ec. (7.35)
que cumple con sus ecuaciones diferenciales Ecs. (7.34) y (7.36).
7.5. TRANSF. CANÓNICAS CON LA FORMA SIMPLÉCTICA DE LAS ECS. DE HAMILTON 129

7.5. Transformaciones canónicas usando la forma simpléctica de las ecua-


ciones de Hamilton
El método de las funciones generatrices es formalmente completo para tratar el problema de caracterizar
todas las transformaciones canónicas, puesto que el principio de Hamilton modificado me garantiza la existencia
de una función generatriz para cualquier transformación que deje invariante la forma de las ecuaciones de
Hamilton. Sin embargo, en la práctica puede ser muy difı́cil encontrar una función generatriz4 y si no estamos
seguros de si la transformación es canónica puede ser muy difı́cil demostrar la existencia o no existencia de
la función generatriz. Por esta razón, se hace necesario encontrar métodos que sean más sistemáticos para
verificar si una transformación es o no es canónica.
Otro método para tratar las transformaciones canónicas, consiste en la utilización de las ecuaciones de
Hamilton simplécticas descritas en la sección 6.5 a través de las Ecs. (6.33). Consideraremos primero el caso
de transformaciones canónicas restringidas, es decir que no dependen explı́citamente del tiempo

Qi = Qi (q, p) ; Pi = Pi (q, p) (7.41)

la primera caracterı́stica notable es que el Hamiltoniano no cambia ante una transformación canónica restrin-
gida, como se vé de (7.14, 7.17). Su forma funcional puede ser diferente pero se conserva su valor numérico.
La idea es que la transformación sea canónica, lo cual es equivalente a exigir que las nuevas coordenadas Q, P
cumplan ecuaciones de Hamilton para el nuevo Hamiltoniano K = H
∂H ∂H
Q̇i = ; −Ṗi = (7.42)
∂Pi ∂Qi

Estudiaremos el primer conjunto de Ecs. (7.42), evaluemos primero Q̇i el cual se calcula con base en
(7.41), y en las ecuaciones de Hamilton para las coordenadas antiguas (es decir asumiendo que las coordenadas
originales también son canónicas)
∂Qi ∂Qi ∂Qi ∂H ∂Qi ∂H
Q̇i = q̇j + ṗj = − (7.43)
∂qj ∂pj ∂qj ∂pj ∂pj ∂qj

ahora calculamos el término de la derecha en el primer conjunto de Ecs. (7.42), para lo cual se requieren las
inversas de (7.41)
qj = qj (Q, P ) ; pj = pj (Q, P ) (7.44)
las cuales nos permiten calcular H (q, p, t) en términos de Q, P, t, ası́ como el término en cuestión
∂H ∂H ∂pj ∂H ∂qj
= + (7.45)
∂Pi ∂pj ∂Pi ∂qj ∂Pi

El primer conjunto de Ecs. (7.42), nos conduce a igualar los términos de la derecha en (7.43) y (7.45) con lo
cual resulta        
∂Qi ∂pj ∂Qi ∂qj
= ; =− (7.46)
∂qj q,p ∂Pi Q,P ∂pj q,p ∂Pi Q,P
donde los subı́ndices enfatizan los argumentos en los cuales queda evaluada cada expresión. Con un procedi-
miento similar, el segundo conjunto de Ecs. (7.42) nos lleva a las siguientes condiciones
       
∂Pi ∂pj ∂Pi ∂qj
=− ; = (7.47)
∂qj q,p ∂Qi Q,P ∂pj q,p ∂Qi Q,P

el conjunto de condiciones (7.46) y (7.47) se conoce usualmente como condiciones directas para una trans-
formación canónica restringida.
4
Vale la pena mencionar que los cuatro tipos básicos de funciones generatrices que se han estudiado no cubren el espectro de
todas las transformaciones canónicas.
130 CAPÍTULO 7. TRANSFORMACIONES CANÓNICAS

El procedimiento anterior se puede realizar en forma matricial usando las ecuaciones de Hamilton simplécti-
cas descritas en la sección 6.5. Partimos de la formulación simpléctica descrita en las Ecs. (6.33).

∂H
η̇ = J (7.48)
∂η

con J y η definidos por (6.29, 6.31). Similarmente, el nuevo conjunto coordenado Qi , Pi define una matriz
columna de dimensión 2n análoga a η, denotamos esta matriz por ζ, y para una transformación canónica
restringida, las Ecs. (7.41) se pueden escribir como

ζ = ζ (η) (7.49)

ahora bien, la condición canónica exige que se cumplan las Ecs. (7.42), que matricialmente se escriben en la
forma
∂H
ζ̇ = J (7.50)
∂ζ
donde hemos tenido en cuenta que una transformación canónica restringida no cambia el valor numérico del
Hamiltoniano como se vió en el formalismo de la función generatriz. Evaluemos primero el término de la
izquierda en (7.50) teniendo en cuenta (7.49)

∂ζi
ζ̇i = η̇j i, j = 1, . . . , 2n
∂ηj

definimos entonces la matriz jacobiana de la transformación

∂ζi
Mij ≡ ⇒ ζ̇i = Mij η̇j (7.51)
∂ηj

matricialmente queda
ζ̇ = Mη̇ (7.52)
reemplazando (7.48) en (7.52) resulta
∂H
ζ̇ = MJ (7.53)
∂η
por otro lado, a través de la relación inversa de (7.49), H se puede escribir como función de ζ, y podemos
evaluar también el término de la derecha en (7.50)

∂H ∂H ∂ζj ∂H ∂H fij ∂H
= ⇒ = Mji =M
∂ηi ∂ζj ∂ηi ∂ηi ∂ζj ∂ζj

matricialmente esto se escribe


∂H f ∂H
=M (7.54)
∂η ∂ζ
reemplazando (7.54) en (7.53)
f ∂H
ζ̇ = MJM (7.55)
∂ζ
y teniendo en cuenta la condición (7.50), en comparación con (7.55), se concluye que la transformación (7.49)
es canónica si M satisface la condición
MJMf=J (7.56)
esta condición también es necesaria para una transformación canónica restringida, como se puede ver invirtien-
do los pasos anteriores. La condición (7.56), se puede escribir de varias maneras. Por ejemplo, multiplicando
f −1 a la derecha en ambos miembros
por M
MJ = JM f −1 (7.57)
7.5. TRANSF. CANÓNICAS CON LA FORMA SIMPLÉCTICA DE LAS ECS. DE HAMILTON 131

la transposición y la inversión se pueden tomar en cualquier orden. Si se comparan explı́citamente las con-
diciones que se derivan de (7.57), se observa que coinciden con las expresadas en las Ecs. (7.46) y (7.47).
Adicionalmente, usando (6.32) vemos que la Ec. (7.57) se puede transformar en
f −1 (−J) ⇒
JMJ (−J) = J2 M
JM = Mf −1 J

o equivalentemente
f
MJM =J (7.58)
La ecuación (7.56), o la versión equivalente (7.58) se conocen como condiciones simplécticas para una
transformación canónica y la matriz M que satisface esta condición, se denomina matriz simpléctica.
Para una transformación canónica extendida restringida (independiente del tiempo e incluyendo una trans-
formación de escala), donde K = λH, la condición (7.56) resulta
f = λJ
MJM (7.59)

7.5.1. Ejemplos de transformaciones canónicas con método matricial


Veamos un ejemplo explı́cito. Tomemos la función mixta definida en la Ec. (7.30) F = F2 (q1 , P1 ) +
F1 (q2 , Q2 ). Las matrices η , ζ y J son
     
q1 Q1 0 0 1 0
 q2   Q2   0 0 0 1 
η=    
 p1  ; ζ =  P1  ; J =  −1 0 0 0 
 (7.60)
p2 P2 0 −1 0 0
tomando las ecuaciones de transformación (7.29) y derivándolas con respecto al tiempo, se pueden comparar
estas transformaciones con las descritas por ζ̇ = Mη̇ (Ec. 7.52) con el fin de obtener la matriz M
      
Q̇1 1 0 0 0 q̇1 q̇1
 Q̇2   0 0 0 1   q̇2   ṗ2 
      
 Ṗ1  =  0 0 1 0   ṗ1  =  ṗ1 
Ṗ2 0 −1 0 0 ṗ2 −q̇2
por lo tanto  
1 0 0 0
 0 0 0 1 
M=
 0 0
 (7.61)
1 0 
0 −1 0 0
Naturalmente, el hecho de que esta transformación haya sido obtenida con una función generatriz y sus
ecuaciones diferenciales asociadas, garantiza el carácter canónico de la transformación. No obstante, el lector
puede verificar el carácter canónico de la transformación observando que las matrices J y M de las Ecs. (7.60,
7.61), cumplen con la condición simpléctica (7.58).
Por otro lado, las ecuaciones de Hamilton para las nuevas variables i.e. ζ̇ = J (∂H/∂ζ) (Ec. 7.50), se
expresan sin dependencia con la función generatriz
    
Q̇1 0 0 1 0 ∂H/∂Q1
 Q̇2   0 0 0 1   
     ∂H/∂Q2 
 Ṗ1  =  −1 0 0 0   ∂H/∂P1 
Ṗ2 0 −1 0 0 ∂H/∂P2
    
Q̇1 0 0 1 0 −Ṗ1
 Q̇2   0 0 0 1   
     −Ṗ2 
 Ṗ1  =  −1 0 0 0   Q̇1 
Ṗ2 0 −1 0 0 Q̇2
132 CAPÍTULO 7. TRANSFORMACIONES CANÓNICAS

M es función de F (ya que depende de la transformación canónica especı́fica), pero no ası́ J la cual es una
matriz constante (ver Ec. 6.31). Este formalismo no se puede aplicar en todos los casos. En particular, no se
puede construir una matriz simple M para generar la transformación canónica usada para el oscilador armónico
en la sección 7.4.

7.6. Acercamiento simpléctico para transformaciones canónicas depen-


dientes del tiempo
Cuando la transformación a las nuevas coordenadas depende explı́citamente del tiempo, ya no son válidos los
argumentos anteriores. Sin embargo, se sigue cumpliendo que la condición simpléctica es necesaria y suficiente
para que la transformación sea canónica. Esto se puede probar por argumentos similares a los arriba expuestos,
pero es mas fácil a través de otro camino que explota el hecho de que el tiempo actúa como un parámetro en
la transformación canónica. Una transformación canónica de la forma

ζ = ζ (η, t)

evoluciona contı́nuamente con el tiempo a partir de un cierto t0 . Es una transformación contı́nua uniparamétri-
ca. Si la transformación
η → ζ (t) (7.62)
es canónica, se tiene que en particular la transformación

η → ζ (t0 ) (7.63)

es canónica siendo t0 un tiempo fijo, se sigue entonces de la definición de transformación canónica, que la
transformación caracterizada por
ζ (t0 ) → ζ (t) (7.64)
es también canónica. Puesto que en (7.63) el tiempo es fijo, esta transformación canónica debe satisfacer la
condición simpléctica (7.58). Si podemos probar que (7.64) cumple la condición simpléctica, es fácil mostrar
que la transformación general (7.62) también la cumple.
Para demostrar que la condición simpléctica es aún necesaria y suficiente para transformaciones de la forma
(7.64) usaremos la noción de transformación canónica infinitesimal (TCI) en la cual todas las coordenadas
nuevas difieren de las antiguas por cantidades infinitesimales

Qi = qi + δqi (7.65)
Pi = pi + δpi (7.66)

que matricialmente se puede escribir como


ζ = η + δη (7.67)
la notación δqi , δpi no se refiere a desplazamientos virtuales, simplemente cambios infinitesimales en las coorde-
nadas (cambio en coordenadas no implica movimiento del sistema ni real ni virtual). Como una transformación
canónica infinitesimal difiere solo infinitesimalmente del operador identidad, es natural comenzar con una fun-
ción generatriz de la identidad colocándole una desviación infinitesimal

F2 = qi Pi + εG (q, P, t) (7.68)

ε es una parámetro infinitesimal y G es una función con segundas derivadas contı́nuas en sus 2n+1 argumentos.
Dado que esta función generatriz es de tipo 2, podemos emplear las Ecs. (7.19) de transformación para los
momentos
∂F2 ∂G
pj = = Pj + ε
∂qj ∂qj
7.6. MÉTODO SIMPLÉCTICO PARA T.C’S DEPENDIENTES DEL TIEMPO 133

con lo cual
∂G
δpj ≡ Pj − pj = −ε (7.69)
∂qj

adicionalmente, usando las Ecs. (7.19) para transformación de coordenadas

∂F2 ∂G
Qj = = qj + ε
∂Pj ∂Pj

dado que el segundo término a la derecha es lineal en ε, y que Pj solo difiere de pj infinitesimalmente, entonces
es consistente a primer orden cambiar la variable de derivación Pj por pj . De esta forma G se escribe en
términos de q, p, t únicamente. El cambio infinitesimal δqj se puede escribir a primer orden como

∂G
δqj ≡ Qj − qj = ε (7.70)
∂pj

las ecuaciones de transformación (7.69, 7.70), se pueden sintetizar en una ecuación matricial

∂G
δη = εJ (7.71)
∂η

una transformación infinitesimal que nos interesa directamente, es la transformación (7.64) cuando t difiere de
t0 en una cantidad infinitesimal
ζ (t0 ) → ζ (t0 + dt) (7.72)

dt hace las veces del ε. Dado que entre ζ (η, t0 ) y ζ (η, t) con t0 y t arbitrarios, la transformación es contı́nua, se
puede construir como una sucesión de transformaciones infinitesimales en pasos de dt. Por lo tanto, bastará con
probar que la transformación infinitesimal (7.72) satisface la condición simpléctica (7.58). La TCI (7.71), tiene
asociada una matriz jacobiana, y se puede ver fácilmente que esta última es simpléctica. Tomando la definición
de matriz jacobiana (7.51) para una transformación infinitesimal como (7.67) se obtiene

∂ζ ∂δη
M≡ =1+
∂η ∂η

y usando (7.71), resulta


 
∂ ∂G
M = 1+ εJ
∂η ∂η
 2 
∂ G
M = 1 + εJ (7.73)
∂η∂η

definimos la matriz  
∂2G ∂2G
≡ (7.74)
∂η∂η ij ∂ηi ∂ηj

la cual es claramente simétrica, en virtud de la continuidad de las segundas derivadas de G. Teniendo además
en cuenta que J es antisimétrico, y trasponiendo M en (7.73) resulta

^ 2G

f = 1+ε ∂ e
M J
∂η∂η
 2 
f ∂ G
M = 1−ε J
∂η∂η
134 CAPÍTULO 7. TRANSFORMACIONES CANÓNICAS

f
para chequear la condición simpléctica (7.58) debemos hacer el producto MJM
  2     2 
f ∂ G ∂ G
MJM = 1 − ε J J 1 + εJ
∂η∂η ∂η∂η
 2   2 
∂ G ∂ G 
= J+εJ2 −ε J2 + O ε2
∂η∂η ∂η∂η
 2   2 
∂ G ∂ G 
f
MJM = J−ε +ε + O ε2
∂η∂η ∂η∂η

f
MJM = J + O ε2
donde hemos usado la propiedad J2 = −1, de modo que a primer orden en ε, se cumple la condición simpléctica
para la transformación infinitesimal (7.72). Por tanto cualquier transformación canónica obedece la condición
simpléctica aún cuando sea explı́citamente dependiente del tiempo. Nótese que es esencial que no haya con-
tribuciones a primer orden en ε, ya que una transformación canónica finita, se obtiene con un proceso de
integración sobre el parámetro infinitesimal de las TCI. En consecuencia, los términos de primer orden darı́an
una contribución finita para una transformación canónica finita, y solo los términos de segundo orden en
adelante tienden a cero después de llevar a cabo la integración.
A pesar de que en este acercamiento poco se ha usado el formalismo de la función generatriz, tanto el
formalismo simpléctico como el de la función generatriz están conectados (ver sección 8.5). Se puede demostrar
por ejemplo que la condición simpléctica implica la existencia de una función generatriz. Cualquiera de los
dos formalismos se puede usar indistintamente de acuerdo con las necesidades y conveniencias. En particular,
cualquiera de los dos formalismos sirve para demostrar que las transformaciones canónicas forman un grupo
matemático.

7.7. Ejemplos de transformaciones canónicas


En esta sección estudiaremos el paso de un conjunto canónico de coordenadas {qi , pi } a otro conjunto de
coordenadas {Qi , Pi }. A menos que se indique lo contrario, se considerará que el conjunto de coordenadas
{qi , pi } es de hecho canónico, y se asumirá además como el conjunto canónico “original” (ya hemos dicho que
esto es cuestión de convención), y en algunos casos se procurará averigüar si el conjunto “final” {Qi , Pi } es
canónico o no.

7.7.1. Transformación canónica por conjugación compleja


Una forma natural de intentar combinar los dos conjuntos de ecuaciones de Hamilton en uno solo, es
formar una cantidad compleja con las coordenadas {q, p}, y convertir los dos conjuntos de ecuaciones en un
solo conjunto de ecuaciones complejas. Para un solo grado de libertad, definiremos una transformación de la
forma
Q = µ (q + ip) ; P = ν (q − ip) (7.75)
y veremos si esta transformación es canónica, o bajo que condiciones lo es. La transformación inversa es
   
1 1 1 1 1 1
q= Q+ P ; p= Q− P (7.76)
2 µ ν 2i µ ν
En este caso utilizaremos las condiciones directas para transformaciones canónicas restringidas (independien-
tes del tiempo) dadas por las ecuaciones (7.46) y (7.47)
∂Q ∂p ∂Q ∂q ∂P ∂p ∂P ∂q
= ; =− ; =− ; = (7.77)
∂q ∂P ∂p ∂P ∂q ∂Q ∂p ∂Q
al aplicar (7.77) a las transformaciones (7.75) y sus inversas (7.76), tenemos que
1 1 1 1
µ=− ; iµ = − ; ν=− ; −iν =
2iν 2ν 2iµ 2µ
7.7. EJEMPLOS DE TRANSFORMACIONES CANÓNICAS 135

las cuatro ecuaciones son equivalentes y nos dan


1
µ=− (7.78)
2iν
en particular las transformaciones con µ = ν = 1, no cumplen la condición (7.78) y por tanto no son canónicas.
De hecho, la condición (7.78), indica que |µ| =6 |ν|, y nos muestra que las transformaciones (7.75) solo son
canónicas si incluyen una transformación de escala no trivial. El lector puede comprobar de una forma similar
al ejemplo 4 Pág. 121, que esta transformación altera el valor del Hamiltoniano aunque sea independiente del
tiempo. Esto se debe a la inclusión de la transformación de escala. Vemos entonces que una transformación
canónica induce un cambio en el valor del Hamiltoniano si depende explı́citamente del tiempo, o si incluye una
transformación de escala.

7.7.2. Transformación canónica de rotación


Para un sistema de un grado de libertad, es natural pensar en una transformación de “rotación” para el
sistema {q, p} en un cierto ángulo α. Tendremos entonces la transformación

Q = q cos α − p sin α
P = q sin α + p cos α (7.79)

para averigüar si esta transformación es canónica, utilizaremos la condición simpléctica Ec. (7.56)

f=J
MJM (7.80)
Podemos hallar M a través de la ecuación (7.52)

ζ̇ = Mη̇ (7.81)
para lo cual derivamos las Ecs. (7.79) con el tiempo, teniendo en cuenta que α es fijo
      
Q̇ cos α − sin α q̇ q̇
= =M
Ṗ sin α cos α ṗ ṗ
evaluando explı́citamente la condición (7.80) tenemos

      
f cos α − sin α 0 1 cos α sin α
M JM =
sin α cos α −1 0 − sin α cos α
    
f cos α − sin α − sin α cos α 0 1
MJM = = =J
sin α cos α − cos α − sin α −1 0

vemos que la transformación es canónica para cada valor de α.


Vamos a intentar encontrar una función generadora de esta transformación canónica. Primero intentaremos
encontrar una función del tipo F1 (q, Q), que obedece las ecuaciones diferenciales (7.16)

∂F1 (q, Q) ∂F1 (q, Q)


p= ; P =− (7.82)
∂q ∂Q

La primera de las ecuaciones (7.82), requiere conocer p como función de q, Q. Podemos lograr este despeje en
la primera de las Ecs. (7.79)

Q
p (q, Q) = − + q cot α (7.83)
sin α
con lo cual la primera de las ecuaciones diferenciales (7.82) queda
136 CAPÍTULO 7. TRANSFORMACIONES CANÓNICAS

∂F1 (q, Q) Q
=− + q cot α
∂q sin α
que al integrar nos da

Qq q2
F1 (q, Q) = − + cot α + g(Q) (7.84)
sin α 2
para poder emplear la segunda de las ecuaciones diferenciales (7.82), debemos escribir P = P (q, Q), lo cual se
logra insertando (7.83) en la segunda de las ecuaciones de transformación (7.79)
 
Q q cos α
P = q sin α + p cos α = q sin α + − + cos α
sin α sin α
q cos2 α Q cos α
P (q, Q) = q sin α + − (7.85)
sin α sin α
q Q cos α
P (q, Q) = − (7.86)
sin α sin α
utilizando (7.86) en la segunda de las Ecs. (7.82) resulta
∂F1 (q, Q) q Q cos α
=− +
∂Q sin α sin α
que se puede integrar para obtener

qQ Q2
F1 = − + cot α + h(q) (7.87)
sin α 2
comparando las F1 de las ecuaciones (7.84, 7.87) encontramos una solución haciendo

q2 Q2
h (q) = cot α ; g (Q) = cot α
2 2
quedando finalmente

Qq 1
F1 = − + (q 2 + Q2 ) cot α ; α 6= nπ (7.88)
sin α 2
esta solución es válida para todo α, excepto para α = nπ siendo n un entero, puntos en los cuales esta función
diverge. Veremos ahora si existe una solución tipo F2 (q, P ) que pueda cubrir los “huecos” dejados por la
solución de F1 (q, Q). Las ecuaciones diferenciales (7.19), se escriben
∂F2 (q, P ) ∂F2 (q, P )
p= ; Q= (7.89)
∂q ∂P
la primera requiere conocer p = p (q, P ), y este despeje es directo de la segunda de las ecuaciones (7.79)
P − q sin α ∂F2
p= ; p= (7.90)
cos α ∂q
la solución para F2 (q, P ) es de la forma

qP q2
F2 = − tan α + f (P ) (7.91)
cos α 2
para resolver la segunda ecuación (7.89) necesitamos Q = Q (q, P ), lo cual se obtiene insertando (7.90) en la
primera de las ecuaciones (7.79)

∂F2
Q = q cos α − (P − q sin α) tan α ; Q=
∂P
7.7. EJEMPLOS DE TRANSFORMACIONES CANÓNICAS 137

la solución para F2 (q, P ) en este caso es

P2 sin2 α
F2 = qP cos α − tan α + qP + g(q)
2 cos α
qP P2
F2 = − tan α + g(q) (7.92)
cos α 2

y comparando (7.91, 7.92), encontramos una solución para F2 (q, P )

 
1 qP 1
F2 (q, P ) = − (q 2 + P 2 ) tan α + ; α 6= n+ π (7.93)
2 cos α 2

esta función converge para α = nπ, de modo que llena los “huecos” dejados por la función F1 (q, Q) de la Ec.
(7.88). La función (7.93) diverge para α = (n + 1/2) π, pero estos huecos son llenados por F1 .
La interpretación de la transformación (7.79) como una rotación bidimensional nos hace intuir que α = 0
corresponde a la identidad, como se observa al hacer α = 0 en (7.79). Similarmente, haciendo α = 0 en (7.93)
obtenemos F2 (q, P ) = qP , en concordancia con el generador de la identidad dado por la Ec. (7.22).
Ahora aplicando α = π/2 en las ecuaciones (7.79) tenemos

Q = −p ; P = q

ası́ mismo haciendo α = π/2 en (7.88), encontramos F1 = qQ, y coincide con la función generadora de la
transformación canónica de permutación o intercambio dada por la Ec. (7.28). Geométricamente, es claro que
una rotación positiva de π/2 convierte el eje Y en el eje X y el eje X en el eje Y negativo. Finalmente, las
ecuaciones (7.88, 7.93) muestran que la transformación de intercambio no se puede generar con una función
del tipo F1 y la identidad no se puede generar con una función tipo F2 , como ya se mencionó.

7.7.3. Un sistema con dos grados de libertad

Para un sistema con dos grados de libertad, determinaremos si la transformación

p1 − p2
Q1 = q 1 q 2 P1 = +1
q2 − q1
q 2 p2 − q 1 p1
Q2 = q 1 + q 2 P2 = − (q2 + q1 )
q2 − q1

es canónica. Para ello recurriremos a la condición simpléctica. La matriz jacobiana de transformación está dada
por la Ec. (7.51)

∂Q1 ∂Q1 ∂Q1 ∂Q1


M11 = = q2 ; M12 = = q1 ; M13 = = 0 ; M14 = =0
∂q1 ∂q2 ∂p1 ∂p2
∂Q2 ∂Q2 ∂Q2 ∂Q2
M21 = = 1 ; M22 = = 1 ; M23 = = 0 ; M24 = =0
∂q1 ∂q2 ∂p1 ∂p2
∂P1 p1 − p2 ∂P1 p1 − p2
M31 = = 2 ; M32 = =−
∂q1 (q2 − q1 ) ∂q2 (q2 − q1 )2
∂P1 1 ∂P1 1
M33 = = ; M34 = =−
∂p1 (q2 − q1 ) ∂p2 (q2 − q1 )
138 CAPÍTULO 7. TRANSFORMACIONES CANÓNICAS

∂P2 p2 q 2 − p1 q 1 p1 p2 q2 − p1 q1 − (q2 − q1 ) p1 − (q2 − q1 )2


M41 = = − − 1 =
∂q1 (q2 − q1 )2 q2 − q1 (q2 − q1 )2
p2 q2 − p1 q2 + 2q1 q2 − q12 − q22
=
(q2 − q1 )2
∂P2 p2 p1 q 1 − p2 q 2
M42 = = + −1
∂q2 q2 − q1 (q2 − q1 )2
(q2 − q1 ) p2 + p1 q1 − p2 q2 − (q2 − q1 )2 p1 q1 − p2 q1 + 2q1 q2 − q12 − q22
= =
(q2 − q1 )2 (q2 − q1 )2
∂P2 q1 ∂P2 q2
M43 = =− ; M44 = =
∂p1 q2 − q1 ∂p2 q2 − q1
la matriz jacobaina y su transpuesta quedan entonces
 
q2 q1 0 0
 1 1 0 0 
 
M =  
(p1 −p2 ) (p1 −p2 )
− (q −q )2 1 1
− (q2 −q


 (q2 −q1 )2 2 1 (q2 −q1 ) 1) 
2 2
p2 q2 −p1 q2 +2q1 q2 −q1 −q2 p1 q1 −p2 q1 +2q1 q2 −q12 −q22
(q2 −q1 )2 (q2 −q1 )2
− (q2q−q
1
1)
q2
(q2 −q1 )
 
p1 −p2 (q12 +q22 +p1 q2 −p2 q2 −2q1 q2 )
q2 1 (q1 −q2 )2
− 2
 (q1 −q2 ) 
 (q12 +q22 −p1 q1 +p2 q1 −2q1 q2 ) 
f = 
M  q1 1 − (qp1−q
−p2
2 − (q1 −q2 )2


1 2)
 1 q1 
 0 0 − q1 −q2 q1 −q2 
0 0 1
q1 −q2 − q1q−q
2
2

y la matriz J en cuatro dimensiones está dada por


 
  0 0 1 0
02×2 12×2  0 0 0 1 
J= =
 −1 0

−12×2 02×2 0 0 
0 −1 0 0

ahora debemos realizar el producto MJM f y verificar si coincide con J. Con una dosis de paciencia y una buena
taza de café, el lector puede comprobar que se cumple la condición simpléctica. Por tanto, esta transformación
es canónica.

7.8. Ejercicios
1. Demostrar que una función del tipo F3 (p, Q, t) puede generar la transformación canónica identidad, y
una función del tipo F4 (p, P, t) puede generar la transformación canónica de intercambio o permutación.

2. Sea q, p un conjunto canónico para un grado de libertad. Demuestre que el conjunto Q, P dado por
√ √ √
Q = log (1 + q cos p) ; P = 2 (1 + q cos p) q sin p (7.94)

es también un conjunto canónico y que una función generadora para esta transformación está dada por
2
F3 (p, Q) = − eQ − 1 tan p

3. Para un sistema con dos grados de libertad, sean {qi , pi } variables canónicas, y una transformación
puntual de la forma
Q1 = q12 , Q2 = q1 + q2
7.8. EJERCICIOS 139

encuentre la transformación más general para P1 y P2 que genere una transformación canónica. Ahora
sea el Hamiltoniano  
p1 − p2 2
H= + p2 + (q1 + q2 )2
2q1
Encuentre una transformación particular para P1 y P2 de tal forma que Q1 y Q2 sean ambas cı́clicas.
Resuelva las ecuaciones de Hamilton y obtenga la solución para q1 , q2 , p1 y p2 en función del tiempo, y
en términos de las condiciones iniciales.

4. La Ec. (2.45) define una transformación gauge para los campos electromagnéticos. Dicha transformación
cambia al Hamiltoniano (6.26) y al momento canónico (6.27). (a) Muestre que este cambio se puede
ver como una transformación canónica en donde q permanece inalterada. (b) Encuentre una función
generadora del tipo 2, que genera dicha transformación canónica. Una transformación canónica para n
grados de libertad que deja invariantes los qi se denomina una transformación canónica gauge.

5. Demuestre que la transformación


p2 p1
Q1 = q1 cos α − sin α ; Q2 = q2 cos α − sin α
β β
P1 = βq2 sin α + p1 cos α ; P2 = βq1 sin α + p2 cos α (7.95)

es canónica.

6. Una partı́cula de masa


 m ycarga q se mueve en un plano bajo la influencia combinada de un potencial
armónico (m/2) ω02 q12 + q22 y un campo magnético descrito por el potencial vectorial A = (0, hq1 , 0),
siendo h una constante. Use la transformación canónica (7.95) con tan 2α = mω0 (qh)−1 y escoja β
adecuadamente, para encontrar el movimiento general ası́ como el movimiento en los lı́mites h = 0 y
h → ∞.

7. (a) Demuestre que la transformación

p − iaq
Q = p + iaq , P =
2ia
es canónica. (b) Encuentre una función generadora. (c) Use esta transformación para resolver el oscilador
armónico lineal.

8. Utilizando el procedimiento de la sección 7.2, complete la tabla 7.1 de la Pág. 124, para las funciones del
tipo F3 (p, Q, t) y F4 (p, P, t).
Capı́tulo 8

Corchetes de Poisson y otros invariantes


canónicos

Hemos visto que las transformaciones canónicas son aquellas que preservan la forma de las ecuaciones de
Hamilton. Esto nos motiva a buscar estructuras que sean invariantes canónicas, ya que si una cierta cantidad
preserva su forma ante transformaciones canónicas, entonces es posible que dicha cantidad pueda enlazarse
fácilmente con las ecuaciones de movimiento en cualquier base canónica. Por otro lado, los invariantes canónicos
tienen el potencial de expresar ecuaciones de movimiento equivalentes a las de Hamilton. Teniendo esto en
mente estudiaremos un invariante canónico muy importante: los corchetes de Poisson. Adicionalmente, veremos
como las ecuaciones de movimiento y las cantidades conservadas se pueden escribir en el lenguaje de los
corchetes de Poisson. Haremos además una breve mención de otros invariantes canónicos.

8.1. Corchetes de Poisson


Los corchetes de Poisson de dos funciones u, v con respecto a las variables canónicas q, p se definen por

∂u ∂v ∂u ∂v
[u, v]q,p ≡ − (8.1)
∂qi ∂pi ∂pi ∂qi

vemos que esta forma bilineal tiene la misma estructura simpléctica de las ecuaciones de Hamilton en donde
q se acopla con p, y p con −q. Por esta razón, esta definición se puede escribir en una estructura matricial
también simpléctica
^
∂u ∂v
[u, v]η = J ; ηi ≡ qi , ηi+n ≡ pi with i ≤ n (8.2)
∂η ∂η
en particular podemos tomar como funciones u, v elementos del conjunto de variables canónicas (q, p). A partir
de la definición (8.1) ó (8.2) estos corchetes tienen los valores

[qj , qk ]q,p = 0 = [pj , pk ]q,p


[qj , pk ]q,p = δjk = − [pk , qj ]q,p (8.3)

en notación matricial  
[ηi , ηj ]q,p ≡ [η, η]q,p ≡ [η, η]η
ij

todas estas propiedades se pueden escribir en una sola ecuación

[η, η]η = J (8.4)

otro conjunto de funciones u, v interesantes serı́an los elementos del conjunto de nuevas variables canónicas
(Q, P ) ó ζ, con respecto a las antiguas variables (q, p) ó η. Escribiendo estos corchetes en notación matricial

140
8.1. CORCHETES DE POISSON 141

usando (8.2), resulta


^
∂ζ ∂ζ
[ζ, ζ]η = J
∂η ∂η
pero las derivadas parciales definen precisamente el Jacobiano de la transformación, con lo cual tenemos
f
[ζ, ζ]η = MJM (8.5)
y dado que la transformación η → ζ es canónica, la condición simpléctica (7.58) nos lleva a escribir
[ζ, ζ]η = J (8.6)
se pueden revertir los pasos para mostrar que si (8.6) es válida, la transformación es canónica.
Los corchetes de Poisson de variables canónicas en sı́ tales como (8.4, 8.6), se denominan corchetes
fundamentales de Poisson. Las Ecs. (8.4) escritas en las nuevas variables canónicas, dan
[ζ, ζ]ζ = J (8.7)
y comparando (8.6) con (8.7) vemos que ambos tienen el mismo valor cuando se evalúan con respecto a
cualquier conjunto de coordenadas canónicas. En otras palabras, los corchetes fundamentales de Poisson son
invariantes bajo transformaciones canónicas. La ecuación (8.5), muestra que la invarianza es una condición
necesaria y suficiente para que la matriz de transformación sea simpléctica. La invarianza de los corchetes
fundamentales de Poisson ante el cambio de base canónica, es entonces equivalente en todos los sentidos a la
condición simpléctica.
Veremos ahora que todos los corchetes de Poisson son invariantes ante transformaciones canónicas. Reto-
memos el corchete de Poisson para funciones arbitrarias u, v Ec. (8.2), la derivada de v con respecto a η se
puede escribir en analogı́a con la Ec. (7.54)
∂v ∂v ∂ζi ∂v fki ∂v
= = Mik = M
∂ηk ∂ζi ∂ηk ∂ζi ∂ζi
∂v f ∂v
= M
∂η ∂ζ
similarmente
^  ^  ^
∂u f ∂u = ∂u M
= M
∂η ∂ζ ∂ζ
reemplazando estas expresiones en (8.2)
^ ^
∂u ∂v ∂u f ∂v
[u, v]η = J = MJM
∂η ∂η ∂ζ ∂ζ
si la transformación η → ζ es canónica, la condición simpléctica (7.56) nos lleva a
^
∂u ∂v
[u, v]η = J ≡ [u, v]ζ (8.8)
∂ζ ∂ζ
por tanto todos los corchetes de Poisson son invariantes canónicos. Este resultado nos permite omitir
el subı́ndice que denota el conjunto de variables que se usan para evaluar el corchete, siempre y cuando las
variables que se usen sean canónicas. Vale la pena anotar sin embargo, que las transformaciones de escala,
ası́ como las transformaciones canónicas extendidas, en donde la condición simpléctica toma la forma (7.59),
NO dejan invariantes a los corchetes de Poisson.
Recordemos que la definición original de transformaciones canónicas surge de la necesidad de conservar la
forma de las ecuaciones de Hamilton ante un cambio de coordenadas generalizadas y momentos conjugados.
Esto sugiere que, dado que los corchetes de Poisson son invariantes canónicos, podemos construı́r ecuaciones de
movimiento en términos de corchetes de Poisson que sean invariantes en forma ante transformaciones canónicas.
Desarrollaremos entonces un formalismo paralelo al formalismo de Hamilton basado en los corchetes de Poisson.
142 CAPÍTULO 8. CORCHETES DE POISSON Y OTROS INVARIANTES CANÓNICOS

8.2. Propiedades de los corchetes de Poisson


Los corchetes de Poisson poseen una serie de propiedades algebraicas de fundamental importancia, las
cuales resumimos en la siguiente forma

[u, u] = 0 ; [u, v] = − [v, u] (antisimetrı́a) (8.9)


[au + bv, w] = a [u, w] + b [v, w] (linealidad) (8.10)
[uv, w] = [u, w] v + u [v, w] (8.11)
0 = [u, [v, w]] + [v, [w, u]] + [w, [u, v]] (no asociatividad) (8.12)

donde u, v, w son funciones arbitrarias de las variables canónicas y del tiempo en tanto que a y b son constantes.
Todas estas propiedades son directas a partir de la definición (8.1), excepto quizás (8.12) conocida como la
identidad de Jacobi. A manera de ejemplo demostremos la propiedad (8.11) directamente con la definición

   
∂ (uv) ∂w ∂(uv) ∂w ∂v ∂u ∂w ∂v ∂u ∂w
[uv, w] = − = u + v − u + v
∂qi ∂pi ∂pi ∂qi ∂qi ∂qi ∂pi ∂pi ∂pi ∂qi
   
∂u ∂w ∂u ∂w ∂v ∂w ∂v ∂w
[uv, w] = − v+u −
∂qi ∂pi ∂pi ∂qi ∂qi ∂pi ∂pi ∂qi
[uv, w] = [u, w] v + u [v, w]

Veamos ahora la demostración de la identidad de Jacobi (8.12). Esta propiedad muestra que la suma de
corchetes de Poisson dobles construı́dos con permutaciones cı́clicas de tres funciones es cero. Estrictamente,
esta propiedad se puede demostrar con un reemplazo explı́cito a partir de la definición, sin embargo, un cambio
de nomenclatura puede abreviar notablemente la demostración, las derivadas parciales las escribiremos como

∂u ∂2v
ui ≡ ; vij ≡ = vji (8.13)
∂ηi ∂ηi ∂ηj

con esta notación el corchete de Poisson (8.2), se escribe

[u, v] = ui Jij vj

esta notación resulta particularmente práctica para expresar los corchetes dobles de Poisson. Escribamos el
primer corchete doble de (8.12) en esta notación

[u, [v, w]] = ui Jij [v, w]j = ui Jij (vk Jkl wl )j


ahora calculamos la derivada parcial con respecto a ηj usando regla del producto, teniendo en cuenta que las
Jkl son constantes,

[u, [v, w]] = ui Jij (vk Jkl wlj + vkj Jkl wl )


y el mismo procedimiento se realiza para los otros dos corchetes dobles en (8.12), con lo cual se obtiene otros
cuatro términos, para un total de 6 términos. Los otros términos se pueden obtener por permutación circular
de u, v, w

[w, [u, v]] = wi Jij (uk Jkl vlj + ukj Jkl vl )


[v, [w, u]] = vi Jij (wk Jkl ulj + wkj Jkl ul )

Todos los 6 términos tienen una segunda derivada en alguna de las funciones u, v, w. Tomemos los dos términos
que contienen segunda derivada en w

W1 ≡ ui Jij vk Jkl wlj ; W2 ≡ vi Jij wkj Jkl ul


8.3. CORCHETES DE LAGRANGE 143

el primero proviene de [u, [v, w]] y el segundo de [v, [w, u]]. Reescribamos estos términos teniendo en cuenta
que las segundas derivadas parciales se pueden intercambiar y que la matriz J es antisimétrica

W1 ≡ ui Jij vk Jkl wlj = vk Jkl wlj Jij ui = −vk Jkl wlj Jji ui
W2 = vi Jij wkj Jkl ul = vi Jij wjk Jkl ul = −W1

donde hemos tenido en cuenta que todos los ı́ndices se suman y por tanto son mudos. Es claro entonces que
W1 + W2 = 0, de modo que los dos pares de términos que contienen segundas derivadas en w se anulan. Por
argumentos idénticos, los otros dos pares que contienen segundas derivadas en u y v se anulan, con lo cual se
demuestra la identidad de Jacobi Ec. (8.12). Nótese que la única propiedad que se usó de J fué su antisimetrı́a.

Corchetes de Poisson como estructuras algebraicas


De aquı́ en adelante abandonamos la notación definida por (8.13). Si imaginamos al corchete de Poisson
como una ley de combinación u operación “producto” entre los elementos u, v, la identidad de Jacobi nos dice
que este producto o ley de combinación no es asociativo, y nos dice cual es el efecto cuando cambia la secuencia
de “multiplicaciones”. Con frecuencia ocurre que tenemos una ley de combinación o producto entre elementos
ui y uj que satisface las propiedades (8.9-8.12) además de la propiedad

[ui , uj ] = ckij uk (8.14)

siendo ckij cantidades denominadas constantes de estructura1 . En este caso, el conjunto de todos los elementos
u, v junto con la operación producto, forman un álgebra no conmutativa conocida como álgebra de Lie. Nótese
que en este contexto la notación [ui , uj ] se refiere a una ley de combinación cualquiera y no a los corchetes
de Poisson. En el espacio tridimensional, los corchetes de Poisson cumplen la propiedad (8.14) de una manera
bien particular. O bien, todas las constantes de estructura son cero, o bien solo hay un término en el lado
derecho de la ecuación (8.14), para cada par de ı́ndices i, j.
Un comentario final sobre álgebras de Lie, nombraremos dos conjuntos de álgebras de Lie particularmente
útiles en Fı́sica, la primera es el álgebra definida sobre los vectores Euclidianos en R3 con la ley de combinación

V [A, B] ≡ A × B

la segunda es el álgebra definida sobre el conjunto de matrices n × n con la operación producto definida por
el conmutador entre ellas
M [A, B] ≡ AB − BA

lo interesante es que muchos resultados solo dependen de la estructura de álgebra y no de la forma explı́cita
de la ley de combinación. Profundizar en estos tópicos va más allá de los propósitos de este texto, el lector
interesado puede consultar las Refs. [9, 10, 11].

8.3. Corchetes de Lagrange


Sean u, v dos funciones pertenecientes a un conjunto de 2n funciones de las variables canónicas, y que son
independientes entre sı́. Invirtiendo las ecuaciones se pueden escribir las variables canónicas en función de este
conjunto de 2n funciones. El corchete de Lagrange de u y v con respecto a las variables (q, p) se define como

∂qi ∂pi ∂pi ∂qi


{u, v}q,p = −
∂u ∂v ∂u ∂v
^
∂η ∂η
{u, v}η = J
∂u ∂v
1
Nuevamente insistimos en que los ı́ndices i, j, k en la Ec. (8.14) son rótulos para un conjunto dado de elementos, y no denota
derivadas como en la Ec. (8.13).
144 CAPÍTULO 8. CORCHETES DE POISSON Y OTROS INVARIANTES CANÓNICOS

la prueba de su invarianza canónica es muy similar a la de los corchetes de Poisson. Hay una especie de
relación inversa entre los corchetes de Poisson y Lagrange, que se manifiesta en la siguiente propiedad: Sea ui
un conjunto de 2n funciones de las variables canónicas e independientes entre sı́. Con este conjunto se puede
formar el vector u de dimensión 2n, y la matriz 2n × 2n definida por {u, u}ij ≡ {ui , uj }. Similarmente se
define la matriz [u, u] para corchetes de Poisson, se deja como ejercicio verificar que

{u, u} [u, u] = −1 (8.15)

sin embargo, los corchetes de Lagrange no son de tan amplio uso como los de Poisson. La razón estriba en el
hecho de que esta nueva ley de combinación posee las mismas propiedades fundamentales de los corchetes de
Poisson, pero con una importante excepción: los corchetes de Lagrange no obedecen la identidad de Jacobi y
por tanto no forman un álgebra de Lie.

8.4. Otros invariantes canónicos


Un invariante canónico muy importante es la magnitud de un elemento de volumen en el espacio de fase.
Una transformación canónica η → ζ transforma el espacio de fase 2n dimensional con coordenadas ηi en otro
espacio de fase con coordenadas ζi . El elemento de volumen

(dη) = dq1 . . . dqn dp1 . . . dpn

se transforma a un nuevo elemento de volumen (dζ)

(dζ) = dQ1 . . . dQn dP1 . . . dPn

como es bien sabido, las magnitudes de los dos elementos de volumen están enlazadas a través del valor absoluto
del determinante de la matriz jacobiana
(dζ) = kMk (dη)
Pero tomando el determinante en la condición simpléctica (7.56), se obtiene

f 2
MJM = kJk ⇒ kMk kJk = kJk ⇒ kMk = 1

de modo que el valor absoluto del determinante de M es uno (si la transformación canónica es real, el de-
terminante es ±1). Esto muestra entonces que el elemento diferencial de volumen en el espacio de fase es un
invariante canónico. Como corolario resulta que el volumen de una región arbitraria en el espacio de fase
Z Z
Jn = . . . (dη)

es un invariante canónico. Esta integral de volumen es el miembro final de una secuencia de invariantes canóni-
cos que constan de integrales sobre subespacios del espacio de fase de diferentes dimensiones. Tal secuencia
es conocida como integrales invariantes de Poincaré. Una vez más, remitimos al lector interesado en
profundizar en estos temas a las Refs. [9, 10, 11].

8.5. Relación entre la condición simpléctica y las funciones generatrices


(opcional)
La relación entre los corchetes de Poisson y el formalismo de las funciones generatrices se puede sintetizar
en el teorema de Carathéodory, el cual enuncia que la condición simpléctica implica la existencia de funciones
generatrices.
Por simplicidad examinaremos un sistema con espacio de fase dos dimensional. La extensión a espacios de
fase de dimensión arbitraria es directa. Comenzamos con el conjunto de transformaciones de la forma

Q = Q (q, p) ; P = P (q, p) (8.16)


8.5. CONDIC. SIMPLÉCTICA Y FUNCIONES GENERATRICES (OPCIONAL) 145

si suponemos que la primera de estas transformaciones es invertible de modo que p se puede escribir como
función de q, Q entonces
p ≡ φ (q, Q) (8.17)
y si a su vez sustituı́mos esta expresión en la segunda ecuación de transformación, obtenemos P también en
función de q, Q
P = P (q, φ (q, Q)) ≡ ψ (q, Q) (8.18)
queremos ahora enlazar estas transformaciones con las funciones generatrices. Dado que las Ecs. (8.17, 8.18)
tienen como argumentos a q, Q es natural que estas transformaciones se construyan con funciones generatrices
de tipo 1. En algunos casos, cuando la primera de las Ecs. (8.16) no es invertible (como en la transformación
identidad) podemos comenzar invirtiendo la segunda de las Ecs. (8.16) y reemplazando en la primera, con lo
cual llegamos a funciones generatrices del tipo 2.
Volviendo a nuestro caso, asumiendo que existen funciones generatrices del tipo 1 que pueden generar a
las Ecs. (8.17, 8.18), éstas se escriben según la prescripción dada por (7.16)

∂F1 (q, Q) ∂F1 (q, Q)


p= ; P =− (8.19)
∂q ∂Q
si las ecuaciones (8.19) se cumplen (es decir, si es consistente nuestra suposición de que existe una función
generatriz del tipo 1) entonces se debe cumplir que
   
∂ ∂F1 ∂ ∂F1 ∂ ∂
= ⇒ [p (q, Q)] = [−P (q, Q)] ⇒
∂Q ∂q ∂q ∂Q ∂Q ∂q
∂φ ∂ψ
= − (8.20)
∂Q ∂q
donde hemos usado (8.19), (8.17), y (8.18). Recı́procamente, si se cumple (8.20) debe existir una función de
tipo 1 que satisfaga (8.19).
Para demostrar la validez de (8.20), escribiremos todas las cantidades en términos de q, Q. Comenzamos
con la identidad
∂Q
=1
∂Q
sustituyendo la Ec. (8.17) en la primera de las Ecs. (8.16)

Q = Q (q, φ (q, Q))

la derivada parcial anterior se puede escribir como


∂Q ∂Q ∂φ
= =1 (8.21)
∂Q ∂p ∂Q
ahora evaluamos el corchete de Poisson
∂Q ∂P ∂P ∂Q
[Q, P ] ≡ − =1 (8.22)
∂q ∂p ∂q ∂p
donde hemos usado las propiedades (8.3).
Las derivadas de P son derivadas de ψ (ver Ec. 8.18) consideradas como funciones de q y Q (q, p) con lo
cual se tiene
∂P ∂ψ (q, Q (q, p)) ∂ψ ∂ψ ∂Q
= = +
∂q ∂q ∂q ∂Q ∂q
Por lo tanto, el corchete de Poisson (8.22) se escribe
 
∂Q ∂ψ ∂Q ∂Q ∂ψ ∂ψ ∂Q
[Q, P ] = − + =1
∂q ∂Q ∂p ∂p ∂q ∂Q ∂q
146 CAPÍTULO 8. CORCHETES DE POISSON Y OTROS INVARIANTES CANÓNICOS

reorganizando términos
 
∂ψ ∂Q ∂Q ∂Q ∂Q ∂Q ∂ψ
[Q, P ] = − − =1
∂Q ∂q ∂p ∂p ∂q ∂p ∂q
∂Q ∂ψ
[Q, P ] = − =1 (8.23)
∂p ∂q

Combinando (8.23) con (8.21) resulta


∂Q ∂φ ∂Q ∂ψ
=− (8.24)
∂p ∂Q ∂p ∂q
dado que la derivada parcial ∂Q ∂p está evaluada a ambos lados para los mismos argumentos (variando Q y
manteniendo fijo q), se tiene que su valor a ambos lados de la igualdad es el mismo. Por otro lado esta derivada
es diferente de cero si asumimos que la primera de las Ecs. (8.16) es invertible. Por tanto la ecuación (8.24) nos
lleva a la Ec. (8.20) que nos lleva a la existencia de una función generatriz para la transformación (8.16). Para
llegar a (8.20) hemos partido de la Ec. (8.22), que nos dice que [Q, P ] = 1, pero recordemos que esta propiedad
es equivalente a la condición simpléctica. Por tanto, la condición simpléctica nos lleva a la existencia de una
función generatriz y viceversa. Los dos formalismos son entonces equivalentes.

8.6. Ecuaciones de movimiento con corchetes de Poisson


Dado que los corchetes de Poisson son invariantes canónicos, las ecuaciones de movimiento que involucren
a estas cantidades van a conservar su forma ante transformaciones canónicas. Por ejemplo, veamos la ecuación
de movimiento asociada a una función u de las variables canónicas q, p, t. Usando las ecuaciones de Hamilton,
la derivada temporal total de esta función se puede escribir como

du ∂u ∂u ∂u ∂u ∂H ∂u ∂H ∂u
= q̇i + ṗi + = − +
dt ∂qi ∂pi ∂t ∂qi ∂pi ∂pi ∂qi ∂t

lo cual se escribe como


du ∂u
= [u, H] + (8.25)
dt ∂t
la derivación de (8.25), también se puede realizar en notación simpléctica, la regla de la cadena la escribimos
como
^
du ∂u ∂u
= η̇ +
dt ∂η ∂t
y usando las Ecs. de Hamilton y la definición de los corchetes de Poisson en forma simpléctica Ecs. (6.33) y
(8.2) se tiene
^
du ∂u ∂H ∂u ∂u
= J + = [u, H] +
dt ∂η ∂η ∂t ∂t
La expresión (8.25) se puede ver como una ecuación de movimiento generalizada para una función arbitraria
u (q, p, t) en la formulación de los corchetes de Poisson. Una escogencia muy natural es u = qi ó u = pi con lo
cual resulta

q̇i = [qi , H] ; ṗi = [pi , H]


η̇ = [η, H] (8.26)

nótese que estas ecuaciones dependen de que ∂q/∂t = 0. Esto se puede ver del hecho de que ∂u (q, p, t) /∂t
consiste en evaluar la razón de cambio de u manteniendo fijo q y p moviendo solo el tiempo, y esto es válido
en particular cuando u = q. Se observa que esto es diferente al caso en el cual se toma q = q (t) en cuyo caso
8.7. CONSTANTES DE MOVIMIENTO CON CORCHETES DE POISSON 147

∂q/∂t = dq/dt = q̇. Argumento similar se sigue para ver que ∂p/∂t = 0. Usando la definición simpléctica de
los corchetes de Poisson (8.2) queda
^
∂η ∂u ∂u ∂u
[η, u] = J =IJ =J (8.27)
∂η ∂η ∂η ∂η

tomando u = H y reemplazando en (8.26), resulta

∂H
η̇ = J
∂η

que son las ecuaciones de Hamilton en forma simpléctica. Vemos entonces que tomando la expresión general
(8.25), con u = q, p resultan las ecuaciones de movimiento para q, p que coinciden con las ecuaciones de
Hamilton como era de esperarse. Otra propiedad familiar resulta cuando se toma u = H en (8.25), lo cual nos
arroja
dH ∂H
=
dt ∂t
que coincide con (6.38). Nótese que la ecuación de movimiento (8.25) es invariante en forma ante una trans-
formación canónica. La ecuación es válida cualquiera que sea el conjunto de coordenadas canónicas que se use
para expresar a u y para evaluar el corchete de Poisson. No obstante, debe tenerse en cuenta que el Hamil-
toniano que se use debe ser apropiado para el conjunto de variables canónicas elegido, cuando se pasa a otro
conjunto de variables canónica debemos cambiar al Hamiltoniano transformado o Kamiltoniano.
Un comentario final, la ecuación de movimiento (8.25) solo será válida si u solo es función explı́cita de las
coordenadas q, p del sistema y del tiempo, es decir u no puede ser función explı́cita de una variable externa
(por ejemplo no podrı́a ser función explı́cita de un campo eléctrico externo) toda la dependencia de u con
respecto al exterior debe estar en el parámetro tiempo.

8.7. Constantes de movimiento con corchetes de Poisson


Otro caso de gran interés surge cuando u es una constante de movimiento i.e. du/dt = 0, con lo cual (8.25)
se reduce a
∂u
[H, u] = (8.28)
∂t
e inversamente, todas las funciones que obedezcan la ecuación de movimiento (8.28), son constantes de movi-
miento. Esta ecuación nos provee de un método sistemático para encontrar constantes de movimiento. Adicio-
nalmente, si la constante de movimiento no involucra al tiempo explı́citamente, la condición sobre u se reduce
a
[H, u] = 0 (8.29)

Si conocemos dos constantes de movimiento, la identidad de Jacobi nos da la posibilidad de obtener más
constantes de movimiento. Si u, v son constantes de movimiento que no dependen explı́citamente del tiempo,
podemos usar la identidad de Jacobi (8.12) para escribir

[u, [v, H]] + [v, [H, u]] + [H, [u, v]] = 0 (8.30)

los dos primeros miembros de la izquierda son cero y queda

[H, [u, v]] = 0

lo cual nos dice que [u, v] es una constante de movimiento. Cuando u, v dependen explı́citamente del tiempo,
el corchete de Poisson entre ellos sigue siendo constante de movimiento, aunque la demostración es un tanto
148 CAPÍTULO 8. CORCHETES DE POISSON Y OTROS INVARIANTES CANÓNICOS

más elaborada. Al ser u y v constantes de movimiento se cumple para ambos la Ec. (8.28), al reemplazar dicha
ecuación en la identidad de Jacobi (8.30) se obtiene
     
∂v ∂u
u, − + v, + [H, [u, v]] = 0
∂t ∂t
     
∂v ∂u
, u + v, = − [H, [u, v]]
∂t ∂t
usando la definición de los corchetes de Poisson obtenemos
             
∂ ∂v ∂u ∂ ∂v ∂u ∂v ∂ ∂u ∂v ∂ ∂u
− + − = [H, [v, u]]
∂qi ∂t ∂pi ∂pi ∂t ∂qi ∂qi ∂pi ∂t ∂pi ∂qi ∂t
           
∂ ∂v ∂u ∂ ∂v ∂u ∂v ∂ ∂u ∂v ∂ ∂u
− + − = [H, [v, u]]
∂t ∂qi ∂pi ∂t ∂pi ∂qi ∂qi ∂t ∂pi ∂pi ∂t ∂qi
           
∂ ∂v ∂u ∂v ∂ ∂u ∂v ∂ ∂u ∂ ∂v ∂u
+ − − = [H, [v, u]]
∂t ∂qi ∂pi ∂qi ∂t ∂pi ∂pi ∂t ∂qi ∂t ∂pi ∂qi
reagrupando términos
   
∂ ∂v ∂u ∂ ∂u ∂v
− = [H, [v, u]]
∂t ∂qi ∂pi ∂t ∂qi ∂pi
 
∂ ∂v ∂u ∂u ∂v
− = [H, [v, u]]
∂t ∂qi ∂pi ∂qi ∂pi

[v, u] = [H, [v, u]]
∂t
al comparar con (8.28) se obtiene que [v, u] = − [u, v] es una constante de movimiento. Llegamos entonces al

Theorem 5 Teorema de Poisson: El corchete de Poisson de dos constantes de movimiento es también una
constante de movimiento.

En consecuencia, la aplicación reiterada del teorema de Poisson nos puede proveer de un conjunto de cons-
tantes de movimiento. Desafortunadamente, este algoritmo nos lleva con frecuencia a constantes de movimiento
triviales o claramente dependientes de las anteriores. Sin embargo, el método debe ser tenido en cuenta para
múltiples aplicaciones.
Vale la pena mencionar que la condición (8.28) es necesaria y suficiente para que una cierta función de las
variables q, p del sistema y el tiempo sea constante de movimiento. Sin embargo, tal expresión no nos da un
algoritmo para encontrar constantes de movimiento, más bien es un método para chequear si una cantidad dada
es o no es una constante de movimiento del sistema. Esta forma de evaluación posee no obstante la ventaja
de que podemos verificar si una cantidad es o no es constante de movimiento sin resolver completamente la
evolución del sistema. Finalmente, enfatizamos de nuevo que para que esta formulación sea válida, u no puede
ser función explı́cita de ninguna variable externa al sistema.

8.8. Ejemplos de constantes de movimiento evaluadas por corchetes de


Poisson
8.8.1. Sistema con dos grados de libertad
Sea un sistema de dos grados de libertad descrito por el Hamiltoniano

H = q1 p1 − q2 p2 − aq12 + bq22

mostraremos que
p1 − aq1
F1 = F2 = q1 q2
q2
8.8. CONSTANTES DE MOV. EVALUADAS POR CORCHETES DE POISSON 149

son constantes de movimiento. Puesto que F1 y F2 no dependen explı́citamente del tiempo, solo debemos
chequear que los corchetes de Poisson de estas cantidades con el Hamiltoniano se anulen
   
∂H ∂F1 ∂F1 ∂H ∂H ∂F1 ∂F1 ∂H
[H, F1 ] = − + −
∂q1 ∂p1 ∂q1 ∂p1 ∂q2 ∂p2 ∂q2 ∂p2
       
1 a (p1 − aq1 )
[H, F1 ] = (p1 − 2aq1 ) − − q1 + (−p2 + 2bq2 ) × 0 − − (−q2 )
q2 q2 q22
(p1 − 2aq1 ) aq1 (p1 − aq1 )
[H, F1 ] = + − =0
q2 q2 q2
por tanto F1 es constante de movimiento, veamos a F2
[H, F2 ] = [(p1 − 2aq1 ) × 0 − (q2 ) q1 ] + [(−p2 + 2bq2 ) × 0 − (q1 ) (−q2 )]
[H, F2 ] = −q2 q1 + q1 q2 = 0
luego F2 también es constante de movimiento. Dado que tenemos dos constantes de movimiento, es inmediato
pensar que el teorema de Poisson podrı́a proveernos de otras constantes de movimiento independientes. Para
ello debemos evaluar el corchete de Poisson entre estas constantes
   
∂F2 ∂F1 ∂F1 ∂F2 ∂F2 ∂F1 ∂F1 ∂F2
[F2 , F1 ] = − + −
∂q1 ∂p1 ∂q1 ∂p1 ∂q2 ∂p2 ∂q2 ∂p2
         
1 a (p1 − aq1 )
[F2 , F1 ] = (q2 ) − − (×0) + (q1 ) (×0) − − ×0
q2 q2 q22
[F2 , F1 ] = 1
se concluye que la unidad es una constante de movimiento, lo cual es cierto pero trivial. En este caso el
teorema de Poisson no es útil para generar constantes de movimiento independientes. Nótese que en general
lo único que afirma el teorema es que el corchete entre dos constantes de movimiento es otra constante de
movimiento, pero no nos dice si esa constante es no trivial o si es independiente de las dos anteriores. Más
adelante veremos algunos ejemplos en donde el teorema de Poisson nos genera constantes de movimiento no
triviales e independientes de las anteriores.

8.8.2. Otro sistema con dos grados de libertad


Un sistema fı́sico que se mueve en un plano, está descrito por el Hamiltoniano
|p|n
H= − ar −n (8.31)
b
donde p es el vector de los momentos conjugados a las coordenadas cartesianas. Usaremos los corchetes de
Poisson para demostrar que la cantidad
p·r
D= − Ht (8.32)
n
es una constante de movimiento. Comenzaremos escribiendo el Hamiltoniano (8.31) en componentes
(pk pk )n/2
H = − a (xk xk )−n/2
b
∂H ∂H n
= anxi (xk xk )−1−n/2 ; = pi (pk pk )−1+n/2
∂xi ∂pi b
evaluaremos el siguiente corchete de Poisson
∂ (pk xk ) ∂H ∂ (pk xk ) ∂H n n n
[p · r, H] = [pk xk , H] = − = (pi pi ) (pk pk )−1+ 2 − an (xi xi ) (xk xk )−1− 2
∂xi ∂pi ∂pi ∂xi b
n n 2 n/2 −n/2
[p · r, H] = (pk pk )n/2 − an (xk xk )−n/2 = p − an r2
b  b
|p|n
[p · r, H] = n − a |r|−n = nH (8.33)
b
150 CAPÍTULO 8. CORCHETES DE POISSON Y OTROS INVARIANTES CANÓNICOS

la ecuación de movimiento para la cantidad D definida en (8.32), será entonces

dD ∂D h p · r i ∂ p · r  [p · r, H] nH
= [D, H] + = − Ht, H + − Ht = − [H, H] t − H = −0−H
dt ∂t n ∂t n n n
dD
= 0
dt
donde hemos usado (8.33), y el hecho de que H no depende explı́citamente del tiempo. Hemos tenido en cuenta
además que ∂t (p · r) = 0 (¿porqué?). Concluı́mos entonces que D es una cantidad conservada.
Podemos aplicar este ejemplo al caso particular de un solo grado de libertad en el cual n = a−1 = b = 2,
el Hamiltoniano y la cantidad conservada quedan

p2 1 pq
H= − 2 ; D= − Ht (8.34)
2 2q 2

para este Hamiltoniano la transformación Q = λq, p = λP es una transformación canónica de escala. Consi-
deremos adicionalmente, una transformación de escala en el tiempo

Q = λq, p = λP, t′ = λ2 t (8.35)

las nuevas ecuaciones de Hamilton las expresaremos en términos de Q (t′ ) y P (t′ )


   

 t′ ′ 1  1 t′
Q t = λq (t) = λq ; P t = p (t) = p (8.36)
λ2 λ λ λ2
puesto que q y p son canónicas, ellas satisfacen las ecuaciones de Hamilton con el Hamiltoniano (8.34)2

dq (t) ∂H dp (t) ∂H 1
= = p (t) ; =− =− 3 ⇒ (8.37)
dt ∂p dt ∂q q (t)
dq (t) dp (t) 1
= p (t) ; =− 3 (8.38)
dt dt q (t)

Por otro lado, teniendo en cuenta las ecuaciones (8.35, 8.36, 8.38) tenemos

dQ (t′ ) 1 dQ (t′ ) λ dq (t) 1 ′



= = = p (t) = P t
dt′ λ2 dt λ2 dt λ
dP (t′ ) ′
1 dP (t ) 1 dp (t) 1 1 1 1
= = 3 =− 3 3 =− 3 = − Q3 (t′ )
dt′ λ2 dt λ dt λ q (t) [λq (t)]

hemos llegado entonces a las ecuaciones

dQ (t′ ) ′
 dP (t′ ) 1

= P t ; ′
=− 3 ′ (8.39)
dt dt Q (t )

las cuales son idénticas en forma a las ecuaciones (8.38). Es notable que las ecuaciones de movimiento para q y
p con el Hamiltoniano (8.34) son invariantes bajo la transformación (8.35), a pesar de que dicha transformación
no es canónica. Esto se puede ver del hecho de que las transformaciones canónicas son las transformaciones de
q, p más generales que dejan invariantes las ecuaciones de movimiento, pero no contemplan transformaciones
en el parámetro tiempo. La constante de movimiento D, en la ecuación (8.34) está asociada a esta invarianza3 .
2
en este caso escribimos dq/dt y dp/dt en lugar de q̇ y ṗ, ya que debemos diferenciar bien los dos parámetros temporales.
3
Más adelante veremos que la relación entre H y t, es muy similar a la relación entre q y p, a pesar de que H y t no son
variables canónicamente conjugadas. En la cantidad conservada D de la Ec. (8.34), podemos apreciar un producto qp asociado a
la transformación de escala de las variables canónicas y un producto Ht asociado a la transformación de escala del Hamiltoniano
y el tiempo.
8.8. CONSTANTES DE MOV. EVALUADAS POR CORCHETES DE POISSON 151

8.8.3. Constante de movimiento del oscilador armónico


Los problemas considerados hasta aquı́ son un tanto académicos. Consideremos el problema más Fı́sico del
oscilador armónico unidimensional con Hamiltoniano
p2 kq 2
H(q, p) = + (8.40)
2m 2
Demostraremos que para este sistema la cantidad Fı́sica definida por
r
k
u(q, p, t) = ln(p + imωq) − iωt ; ω≡ (8.41)
m
es una constante de movimiento y le daremos una interpretación Fı́sica. En primer lugar, evaluamos la ecuación
de movimiento para u (q, p, t)

du ∂u ∂u ∂H ∂u ∂H ∂u
= [u, H] + = − +
dt ∂t ∂q ∂p ∂p ∂q ∂t
y utilizando el Hamiltoniano (8.40), resulta

du imω  p  1 iωp − kq
= − (kq) − iω = − iω
dt p + imωq m p + imωq p + imωq
du iωp − mω 2 q p + iωmq
= − iω = iω − iω = iω − iω
dt p + imωq p + imωq
du
= 0
dt
para ver el significado Fı́sico de esta constante de movimiento exponenciamos las ecuación (8.41)
q  
u −iωt 2 2 iθ −iωt mωq
e = (p + imωq) e = p + (mωq) e e ; θ = arctan
p
 
√ mωq
eu = 2mHei(θ−ωt) ; θ = arctan (8.42)
p

las soluciones para q y p = mq̇ están dadas por


 π
q = A cos (ωt + δ) = A sin ωt + δ +
 2
π
p = mωA cos ωt + δ +
2
el cociente nos da
mωq  π
= tan ωt + δ + ⇒
p 2
 
mωq π
arctan = ωt + δ + (8.43)
p 2

sustituyendo (8.43) en (8.42) y teniendo en cuenta que H es la energı́a del oscilador armónico, tenemos
√ π
h√ π
i  π
eu = 2mEei(δ+ 2 ) ⇒ u = ln 2mEei(δ+ 2 ) = ln (2mE)1/2 + i δ +
2
1  π
u = ln (2mE) + i δ +
2 2
por tanto la parte real de u está relacionada con la energı́a y la parte imaginaria con la fase inicial.
152 CAPÍTULO 8. CORCHETES DE POISSON Y OTROS INVARIANTES CANÓNICOS

8.9. Transformaciones canónicas infinitesimales en el formalismo de los


corchetes de Poisson
Las transformaciones canónicas infinitesimales (TCI) forman parte de un tipo especial de transformaciones
que son una función contı́nua de un parámetro y que comienzan con la transformación identidad para algún
valor inicial del parámetro. Estas transformaciones adquieren particular interés ya que una transformación
canónica arbitraria se puede construı́r como una sucesión de transformaciones infinitesimales. De nuevo el
carácter de invariante canónico de los corchetes de Poisson, hace que exista un especial interés en escribir las
TCI en este formalismo.
En las transformaciones canónicas infinitesimales, las nuevas variables difieren de las antiguas en cantidades
infinitesimales
ζ = η + δη
esta ecuación solo me caracteriza una transformación infinitesimal arbitraria (no necesariamente canónica).
Cuando esta transformación es canónica, el cambio se especifica con el parámetro infinitesimal ε y la función
generatriz de las transformaciones infinitesimales G (ver Ec. 7.71)4

∂G (η)
δη = εJ (8.44)
∂η
tomando la Ec. (8.27)
∂u
[η, u] = J (8.45)
∂η
esta expresión es válida independientemente del conjunto de variables canónicas usadas para evaluar el corchete.
Haciendo u = G y reemplazando (8.45) en (8.44)

δη = ε [η, G] (8.46)

con lo cual hemos logrado el propósito de escribir la TCI en términos de corchetes de Poisson, en donde
el corchete involucra a las variables canónicas en cuestión, la función generatriz de la TCI y el parámetro
infinitesimal de evolución. Consideremos el caso en el cual el parámetro contı́nuo es el tiempo de modo que
ε = dt. Tomemos como función generadora el Hamiltoniano5 . Las ecuaciones de transformación para las TCI
se obtienen de (8.46)
δη = [η, H] dt = η̇ dt = dη (8.47)
donde hemos usado las Ecs. de Hamilton en corchetes de Poisson Ecs. (8.26). Para ver el significado de (8.47)
recordemos el significado de δη y de dη. La cantidad δη se refiere al cambio infinitesimal en las coordenadas
debido a una transformación canónica, recordemos que un cambio de coordenadas no se refiere a la evolución del
sistema. En contraste dη se refiere al cambio de las coordenadas desde el tiempo t a sus valores en el tiempo
t + dt como producto de la evolución del sistema. En consecuencia, la igualdad entre estas dos cantidades
infinitesimales nos muestra que la TCI generada por el Hamiltoniano y usando el tiempo como parámetro
contı́nuo, cambia las coordenadas y momentos en la misma forma que lo harı́a la evolución del sistema. En
otras palabras, el movimiento del sistema Fı́sico en un intervalo de tiempo dt se puede describir a través de
una transformación canónica infinitesimal generada por el Hamiltoniano, siendo dt el parámetro infinitesimal
que modula la TCI. Por otro lado, una transformación canónica arbitraria se puede obtener por medio de
TCI’s sucesivas (esto es formalmente un proceso de integración en el parámetro infinitesimal). Es decir, que el
4
Estrictamente la función generatriz de las transformaciones infinitesimales es la función F2 dada por la Ec. (7.68), Pág. 132.
Sin embargo, dado que el término qi Pi de esta función es el generador de la identidad, la función G en esta ecuación es la parte no
trivial de esta transformación. Por tanto, nos referiremos a G de aquı́ en adelante como la función generadora de una transformación
infinitesimal modulada por el parámetro ε.
5
Nótese que en el paso desde la Ec. (7.68) hasta la Ec. (7.71), solo hemos exigido que las segundas derivadas de G sean contı́nuas
en sus 2n+1 argumentos. Esto con el fin de garantizar que la matriz (7.74) sea simétrica, lo cual a su vez conduce a que la condición
simpléctica sea necesaria y suficiente para llegar a la condición canónica en la transformación. Por lo demás, G y su parámetro
infinitesimal ε de modulación son arbitrarios.
8.9. TRANSF. CANÓNICAS INFINITESIMALES Y CORCHETES DE POISSON 153

movimiento del sistema en un intervalo finito de tiempo se obtiene con sucesivos corrimientos dt. Los valores
de q, p en cierto tiempo se pueden obtener a partir de sus valores iniciales por una transformación canónica
que es función contı́nua del tiempo. De acuerdo a este punto de vista, el movimiento de un sistema mecánico
corresponde a una evolución contı́nua de las transformaciones canónicas. Todo este razonamiento nos lleva a
concluir que el Hamiltoniano es el generador del movimiento del sistema con el tiempo.
Inversamente, debe existir una transformación canónica que a partir de los valores de las variables q, p en un
tiempo t, nos lleve a sus valores iniciales. Encontrar esta transformación canónica es equivalente a resolver la
ecuación de movimiento. Habı́amos sugerido previamente la posibilidad de obtener un Hamiltoniano con todas
las coordenadas cı́clicas que conducı́a a que todos los momentos eran constantes de movimiento. La presente
estrategia, si es posible, nos llevarı́a a una transformación canónica en donde qi y pi serı́an todas constantes de
movimiento. Volveremos sobre estas consideraciones en el siguiente capı́tulo para obtener soluciones formales
para sistemas mecánicos.
Lo anterior nos lleva a contemplar la posibilidad de ver a las transformaciones canónicas desde otro punto
de vista, ası́ como a los efectos que ésta produce. La noción de transformación canónica se introdujo como un
cambio en las coordenadas (pero no en la configuración del sistema) para describir el mismo sistema usando
otro espacio de fase. En esta visión, cambiamos de las coordenadas (q, p) de un espacio de fase η, a otro espacio
de fase ζ con coordenadas (Q, P ). Si el estado de un sistema en un cierto tiempo está descrito por un punto
A en el espacio de fase η, también puede describirse equivalentemente a través del punto transformado A′ del
espacio de fase ζ (en el mismo instante de tiempo). Cualquier función del sistema de variables tendrá el mismo
valor para una configuración dada del sistema, bien sea que la describamos con el conjunto (q, p) o con (Q, P ).
Es decir, la función tendrá el mismo valor en A que en A′ (aunque diferente forma funcional). Este se llama
un punto de vista pasivo de la TC. Desde el punto de vista matemático, esto corresponde a un mapeo desde
el espacio η al espacio ζ (con inversa). La Fig. 8.1a ilustra el concepto de TC desde el punto de vista pasivo.
Nótese que con este enfoque, la transformación de coordenadas está totalmente desligada de la evolución del
sistema.
La TC que genera el Hamiltoniano usando al tiempo como parámetro, sugiere otra interpretación para esta
TC. Cuando movemos el parámetro tiempo desde t hasta ∆t, esta TC cambia las coordenadas y momentos
desde sus valores en el tiempo t hasta los valores que estas tendrı́an en el tiempo t + ∆t. Esta transformación
canónica se puede interpretar consistentemente de la siguiente manera: Dicha TC nos relaciona las coordenadas
(q, p) de un punto en el espacio de fase (definido con las coordenadas q, p) con las coordenadas (Q, P ) de otro
punto en el mismo espacio de fase. Esto corresponde a un mapeo del espacio de fase en sı́ mismo. Lo anterior
nos conduce a una interpretación activa de la TC como la generadora de “movimiento” del punto en el
espacio de fase de una posición (q, p) a otra posición (Q, P ), como se ilustra en la Fig. 8.1b. Por supuesto, la
transformación canónica como tal no puede mover o cambiar la configuración del sistema. Lo que ocurre es que
el cambio de coordenadas producido por la TC emula el cambio dinámico de las coordenadas producido por la
evolución del sistema. En otras palabras, el paso de (q, p) a (Q, P ) bajo una TC significa que estoy cambiando
el sistema coordenado que uso para describir al sistema, el mismo cambio interpretado en forma dinámica se
refiere al cambio que el mismo sistema coordenado sufre por efecto de la evolución del sistema. El punto es
que cuando las dos transformaciones coinciden numéricamente, puedo atribuı́r la dinámica del sistema (desde
un punto de vista práctico) a la transformación canónica.
La interpretación activa no es siempre útil. Por ejemplo, la TC que nos lleva de las coordenadas cartesianas
a las coordenadas polares esféricas, es una TC de tipo pasivo, y una interpretación activa serı́a absurda.
Por ejemplo, los ejes de ambos espacios de fase no poseen las mismas unidades fı́sicas pues en coordenadas
cartesianas ambos ejes de coordenadas tienen unidades de longitud y los ejes de momentos tienen unidades
de masa por velocidad, en contraste se tiene que en coordenadas polares hay un eje angular adimensional
en la coordenada θ y el eje de pθ tiene unidades de momento angular (aunque sı́ son iguales las dimensiones
en cuanto al número de coordenadas i.e. ejes independientes, es decir son iguales las dimensiones de los dos
espacios de fase como espacios vectoriales).
El punto de vista activo es particularmente útil en TC’s que dependen en forma contı́nua de un solo
154 CAPÍTULO 8. CORCHETES DE POISSON Y OTROS INVARIANTES CANÓNICOS

Figura 8.1: Descripción de una transformación canónica (a) desde el punto de vista pasivo y (b) desde el punto
de vista activo.

parámetro6 . En la interpretación activa, el efecto de la TC es el de “mover” el punto del sistema de manera


contı́nua trazando ası́ una curva en el espacio de fase, a medida que el parámetro cambia en forma contı́nua.
Cuando la TC es la generada por el Hamiltoniano usando al tiempo como el parámetro contı́nuo, la curva
sobre la cual se mueve el punto del sistema coincide con la trayectoria del sistema en el espacio de fase.

8.10. Cambio de una función del sistema bajo una transformación canóni-
ca en los enfoques pasivo y activo
Nos preguntamos ahora por el cambio de una función del sistema u = u (q, p, t) bajo una TC. Veremos que
el cambio en esta función depende de si tomamos el punto de vista activo o pasivo.
Bajo el punto de vista pasivo, debemos tener en cuenta que si en un instante dado t0 la transformación
canónica se describe por Q0 = Q (q0 , p0 , t0 ) , P0 = P (q0 , p0 , t0 ) entonces el conjunto (q0 , p0 ) describe la misma
configuración del sistema que el conjunto (Q0 , P0 ). Ahora bien, el valor de una función del sistema solo puede
6
Nótese que en transformaciones canónicas contı́nuas uniparamétricas no es de esperarse que las unidades de las coordenadas y
momentos cambien con la transformación. A manera de ejemplo, asumamos por un momento que para un sistema unidimensional
partimos de variables (q, p) donde q tiene unidades de longitud y p de momento lineal, y terminamos con un sistema (Q, P ) donde
Q es adimensional y P tiene unidades de momento angular. Es claro que el cambio de unidades es discreto y no es de esperarse
que una TC que se puede generar por TCI’s sucesivas me lleve a un cambio en las unidades de las coordenadas, a menos que se
presente el caso bastante atı́pico de una TC que varı́e de manera contı́nua las unidades de las variables. Por tanto las TC contı́nuas
uniparamétricas permiten interpretar consistentemente el hecho de que la transformación siempre esté en el mismo espacio de fase.
8.11. CAMBIO DEL HAMILTONIANO BAJO UNA TRANSFORMACIÓN CANÓNICA 155

depender de la configuración de éste. Por lo tanto, el cambio del conjunto coordenado (q0 , p0 ) al conjunto
(Q0 , P0 ) debe dejar inalterado el valor de una función del sistema, aunque la función puede cambiar de forma
o dependencia funcional con las nuevas variables. Podemos escribir entonces que u (q0 , p0 , t0 ) = u′ (Q0 , P0 , t0 ).
En otras palabras, el valor numérico de una función del sistema no puede depender del espacio de fase que
utilice para describir a dicha función.
En contraste, una visión activa de la TC nos habla de una traslación del sistema del punto A al punto
B, de la posición (qA , pA ) a la posición (qB , pB ) en el mismo espacio de fase. Desde este punto de vista, la
función u (q, p) no cambia su dependencia funcional con respecto a q, p ya que no estamos cambiando de espacio
de fase. En cambio, la función sı́ cambia su valor como resultado del cambio en el valor de los argumentos
u (qA , pA ) 6= u (qB , pB ). Esto tiene que ver con el hecho de que en la visión activa A y B me están describiendo
diferentes configuraciones del sistema.
Usaremos el sı́mbolo ∂ para denotar el cambio en el valor de una función bajo una TCI activa

∂u ≡ u (B) − u (A) (8.48)

donde A y B están infinitesimalmente cerca, de nuevo usando notación matricial escribimos

∂u = u (η + δη) − u (η)

expandiendo en serie de Taylor hasta primer orden en infinitesimales y usando (8.44) se obtiene
" ^ #
∂u
∂u = u (η) + δη + . . . − u (η)
∂η
^ ^
∂u ∂u ∂G
∂u = δη = ε J
∂η ∂η ∂η

recordemos que el uso de la Ec. (8.44) es lo que nos garantiza que la transformación sea canónica. Ahora
utilizamos la definición de corchetes de Poisson (8.2) para obtener:

∂u = ε [u, G] (8.49)

de nuevo la aplicación mas inmediata consiste en usar (8.49) cuando u es una coordenada del espacio de fase,
teniendo en cuenta además la Ec. (8.46), resulta

∂η = ε [η, G] = δη (8.50)

Este resultado es obvio a partir de la definición del punto B con respecto al punto A, el “cambio” en las
coordenadas desde A hasta B es precisamente la diferencia infinitesimal entre las coordenadas viejas y nuevas.

8.11. Cambio del Hamiltoniano bajo una transformación canónica


Las consideraciones anteriores son mucho más delicadas cuando estudiamos el cambio en el Hamiltoniano.
La razón estriba en el hecho de que el Hamiltoniano no es una función del sistema. Para ver la razón,
recordemos que el Hamiltoniano puede diferir tanto funcional como numéricamente cuando pasamos de un
conjunto canónico a otro, la expresión
H (q, p, t) 6= K (Q, P, t)
nos indica que el Hamiltoniano puede cambiar tanto funcional como numéricamente, incluso si los dos sistemas
canónicos describen la misma configuración del sistema. Esto viola claramente nuestra definición de función
del sistema. El Hamiltoniano se refiere mas bien a la función que en un determinado espacio de fase define las
ecuaciones canónicas de movimiento. Cuando la transformación canónica depende del tiempo, el significado
156 CAPÍTULO 8. CORCHETES DE POISSON Y OTROS INVARIANTES CANÓNICOS

mismo de Hamiltoniano se transforma. De esta forma H (A) no se transforma en H ′ (A′ ) 7 sino en K (A′ ), y
H (A) no tendrá necesariamente el mismo valor que K (A′ ). A manera de ejemplo, en cierto espacio de fase
el Hamiltoniano puede ser la energı́a del sistema y en otro espacio de face puede no serlo. En virtud de lo
anterior, designaremos por ∂H a la diferencia en el valor final del Hamiltoniano bajo las dos interpretaciones.

∂H = H (B) − K A′ (8.51)

en los casos en que la función misma no cambia con la transformación canónica, las dos formas de cambio
descritas por (8.48) y (8.51) son idénticas puesto que u (A) = u′ (A′ ) (recordemos que el valor numérico de las
funciones coincide en A y A′ en una interpretación pasiva). En general, K está relacionado con H a través de
la ecuación
∂F
K=H+ (8.52)
∂t
Una vez que definimos la relación entre los Hamiltonianos en ambos espacios de fase a través de la relación
(8.52), las funciones K y H ya se pueden tomar como funciones del sistema, es decir como funciones bien
definidas para una configuración dada del sistema. Por ejemplo H (A) = H ′ (A′ ) ya que se trata de la misma
función del sistema definida en puntos A y A′ de diferentes espacios de fase pero que describen la misma
configuración del sistema. Para una TCI, la función generatriz está dada por (7.68) en términos de G. Dado
que en (7.68) solo G puede ser función explı́cita del tiempo, el valor del nuevo Hamiltoniano es
  ∂G ∂G
K A′ = H ′ A′ + ε = H (A) + ε
∂t ∂t
y el cambio en el Hamiltoniano definido en (8.51) es

∂G
∂H = H (B) − H (A) − ε (8.53)
∂t
siguiendo un camino similar al que nos llevó desde (8.48) hasta (8.49), vemos que ∂H está dado por

∂G
∂H = ε [H, G] − ε
∂t
tomando la ecuación generalizada de movimiento (8.25) con u = G, resulta
 
∂G dG ∂G
∂H = ε − −ε ⇒
∂t dt ∂t
dG
∂H = −ε (8.54)
dt

8.12. Cantidades conservadas e invarianzas del Hamiltoniano


Nos retringiremos al caso en el cual G no es función explı́cita del tiempo. En este caso, la Ec. (8.53) nos
lleva a
∂H = H (B) − H (A) si G = G (qi , Pi )
de modo que el cambio ∂H que hemos definido para el Hamiltoniano, corresponde en este caso al cambio en el
valor de éste cuando el sistema se mueve de la configuración A a la configuración B. Si adicionalmente G es una
constante de movimiento, la Ec. (8.54) nos dice que G genera una TCI que no cambia el valor del Hamiltoniano.
De esta forma, podemos ver que muchas constantes de movimiento son funciones generadoras de
aquellas TCI que dejan el Hamiltoniano invariante. Recı́procamente, si el Hamiltoniano es invariante
ante una TCI inducida por una función G (qi , Pi ), la Ec. (8.54) nos indica que G es una constante de movimiento.
7
Usaremos la convención de que u′ es la forma funcional que hace que u (A) = u′ (A′ ), es decir es la forma en que debe
transformar la forma funcional de u ante un cambio de espacio de fase a fin de que dicha cantidad defina una función del sistema.
8.12. CANTIDADES CONSERVADAS E INVARIANZAS DEL HAMILTONIANO 157

Nuevamente, la aseveración anterior nos muestra una conexión entre propiedades de simetrı́a y cantidades
conservadas8 . Si una cierta función del sistema G (qi , Pi ), es constante de movimiento, entonces la TCI que
dicha función induce es tal que el Hamiltoniano permanece invariante ante dicha TCI. Es esencial insistir en
que estas conclusiones solo son válidas si G no es función explı́cita del tiempo.
Veremos enseguida que un momento pi canónicamente conjugado a una variable qi , se conserva si y solo si la
coordenada qi es cı́clica. No obstante, este escenario abarca muchas constantes de movimiento independientes
y no solo los momentos generalizados conservados. Sin embargo, el presente formalismo no abarca todas las
constantes de movimiento (recordemos que la Ec. 8.25 abarca formalmente todas las constantes de movimiento).
Esto por dos razones (1) Estas simetrı́as están restringidas solo a TCI’s y no a transformaciones arbitrarias. (2)
Las transformaciones de simetrı́a más generales son las que dejan invariantes las ecuaciones de movimiento,
incluso si no dejan invariante al Hamiltoniano9 . Ya hemos visto en la sección 5.3 que con el formalismo
Lagrangiano la invarianza de las ecuaciones de movimiento nos lleva a constantes de movimiento que no
están incluı́das en escenarios donde el Lagrangiano mismo es invariante. Lo esencial es tener en cuenta que
ni el Lagrangiano ni el Hamiltoniano son observables del sistema, y por tanto pueden ser modificados de
una manera especial sin cambiar el contenido fı́sico de éstos. En todo caso, la relación entre la constante de
movimiento G y la invarianza del Hamiltoniano nos muestra una vez más el fuerte nexo entre simetrı́as y
cantidades conservadas.
Veremos a continuación que los teoremas de conservación de los momentos generalizados son casos es-
peciales de lo anterior. Si una coordenada qj es cı́clica, es obvio que el Hamiltoniano es invariante ante una
transformación infinitesimal que involucre un desplazamiento de qj únicamente. Por supuesto, es necesario ase-
gurarse que dicha transformación infinitesimal es de naturaleza canónica, de ser ası́, debe existir una función
generatriz G que me genere la hipotética TCI a través de las ecuaciones (7.69, 7.70), puede verificarse que la
función10
G (q, p) = pi (8.55)
genera una transformación canónica infinitesimal a través de (7.69, 7.70) descrita por

δqj = εδij ; δpi = 0 (8.56)

es decir pi es una función generatriz de una transformación canónica infinitesimal que desplaza a qi únicamente.
Dado que solo qi se desplaza, es obvio que si dicha coordenada es cı́clica el Hamiltoniano queda invariante, lo
cual nos lleva a la conservación de G según la Ec. (8.54), pero G en nuestro caso es precisamente pi como se vé en
(8.55). Por tanto, se observa que si qi es cı́clica llegamos a la conservación de su momento conjugado como se
esperaba. Recı́procamente si pi es constante entonces la función G (q, P ) en (8.55) es constante de movimiento
y esto nos lleva a la invarianza del Hamiltoniano ante la TCI (8.56), que desplaza solo a qj dejando todas las
demás coordenadas y momentos fijos, esto implica entonces que ∂H/∂qi = 0 y por tanto que la coordenada es
cı́clica.
En virtud de la simetrı́a entre q y p en la formulación Hamiltoniana, es natural pensar que G (q, P ) = qi
genere una TCI en donde solo se mueva pi (tal vez con un cambio de signo debido a la estructura simpléctica).
Ambas consideraciones se pueden escribir en un contexto mas general. Tomemos como generador de una TCI
a la función
Gl = (Jη)l = Jlr ηr (8.57)
la ecuaciones de transformación (7.71) aplicadas a (8.57) dan
∂Gl ∂ηr
δηk = εJks = εJks Jlr = εJks Jlr δrs = εJks Jls = εJks Jesl
∂ηs ∂ηs
8
Debe tenerse en cuenta sin embargo, que aquı́ estamos hablando de simetrı́as del Hamiltoniano ante TCI’s y no ante transfor-
maciones arbitrarias.
9
Nótese que una transformación que cambie al Hamiltoniano en la forma H = H + dF (q,p,t)
dt
, deja invariantes las ecuaciones de
movimiento pero no al Hamiltoniano.
10
Estrictamente G es de tipo 2, de modo que sus argumentos son G (qi , Pi ). Sin embargo, en la interpretación activa Pi está en el
mismo espacio de fase que el momento original, razón por la cual escribiremos simplemente G (qi , pi ), al menos cuando se trabaje
con la interpretación activa de la TC.
158 CAPÍTULO 8. CORCHETES DE POISSON Y OTROS INVARIANTES CANÓNICOS

lo cual en virtud de la ortogonalidad de J (ver Ec. 6.32, Pág. 99), resulta

δηk = εδkl

esto muestra claramente que una transformación que cambie solo a ηl es generada por su variable conjugada.
Si ηl es qi entonces G es pi . Si ηl es pi , G es entonces −qi .

8.12.1. El momento lineal total como generador de TCI’s que generan traslaciones
Examinemos una vez más el caso en el cual realizamos la traslación de un sistema como un todo pero
ahora en el marco del formalismo de las TCI’s. En primer lugar, es importante enfatizar que el significado
fı́sico de la función generatriz G no puede depender del conjunto canónico empleado para describirla. Para ver
esto, observemos que en la Ec. (8.46) el cambio de una cierta variable canónica ηi es el mismo independiente
del sistema canónico que usemos para expresar G, ello en virtud de la invarianza canónica de los corchetes
de Poisson. Por lo anterior, podemos utilizar en particular las coordenadas cartesianas de las partı́culas del
sistema. Definamos la función generatriz
N
X
G= pkx ; ε ≡ dx (8.58)
k=1

en donde pkx es la componente x del momento canónico de la k−ésima partı́cula. Utilizando las Ecs. (7.69,
7.70) vemos que la TCI inducida por esta función es
N
!
∂G ∂ X ∂G
δxi = dx = dx pkx = dx , δpix = −dx =0
∂pix ∂pix ∂qix
k=1
∂G ∂G
δyi = dx =0 , δpiy = −dx =0 ; δzi = δpiz = 0
∂piy ∂qix

de modo que
δxi = dx ; δyi = δzi = δpix = δpiy = δpiz = 0
es decir la función G definida en (8.58) genera una traslación del sistema como un todo en una cantidad
infinitesimal dx en la dirección x, sin traslación en las otras cooordenadas ni momentos. Vemos pues que las
traslación del sistema como un todo a lo largo de cierto eje, corresponde efectivamente a una transformación
canónica.
Puesto que G no depende explı́citamente del tiempo, es constante de movimiento si y solo si la TCI que
genera deja invariante el Hamiltoniano. Es decir, el momento lineal total en la dirección x (que corresponde a
G en este caso), se conserva si y solo si la traslación del sistema como un todo en la dirección x, deja invariante
al Hamiltoniano. Nótese que la dirección x se puede escoger arbitrariamente. Si denotamos n como el vector
unitario en la dirección de la traslación y P como el momento lineal total del sistema, podemos decir que

G=P·n

se conserva si y solo si el Hamiltoniano es invariante ante una TCI que genera una traslación del sistema como
un todo en la dirección n. Recordemos que si las fuerzas que actúan sobre el sistema se derivan de potenciales
que dependen de la velocidad, el momento canónico asociado a las coordenadas cartesianas no es el momento
lineal de la forma mẋ. Por tanto nuestros resultados son más generales que los obtenidos en la sección 5.1.1
en donde se supuso explı́citamente que los potenciales son independientes de la velocidad.

8.12.2. El momento angular total como generador de TCI’s que generan rotaciones
Ahora analizaremos la rotación de un sistema Fı́sico como un todo en el marco de las TCI’s. Por los
mismos argumentos de la sección anterior, podemos emplear las coordenadas cartesianas. Adicionalmente, y
8.12. CANTIDADES CONSERVADAS E INVARIANZAS DEL HAMILTONIANO 159

sin pérdida de generalidad elegiremos al eje de rotación como nuestro eje z. Para una rotación infinitesimal
antihoraria en un ángulo dθ la matriz de rotación a primer orden se escribe
   
cos dθ − sin dθ 1 −dθ

sin dθ cos dθ dθ 1

ahora tendremos en cuenta que en coordenadas cartesianas tanto las coordenadas (xi , yi , zi ) como los momentos
conjugados (pix , piy , piz ) forman vectores euclidianos, de modo que se comportan de la misma forma ante
rotaciones11 con lo cual
 ′    
xi 1 −dθ xi
= ⇒ x′i = xi − yi dθ ; yi′ = yi + xi dθ
yi′ dθ 1 yi
x′i − xi = −yi dθ ; yi′ − yi = xi dθ

dado que los momentos poseen las mismas transformaciones, basta con hacer un reemplazo de la forma xi → pix
para obtener la transformación de los momentos, las transformaciones infinitesimales quedan entonces

δxi = −yi dθ ; δyi = xi dθ ; δzi = 0


δpix = −piy dθ ; δpiy = pix dθ ; δpiz = 0 (8.59)

estrictamente, aún no hemos demostrado que esta transformación es canónica. Esto equivale a demostrar que
existe una función generatriz G, tal que las Ecs. (7.69, 7.70) reproducen adecuadamente a las ecuaciones (8.59).
Podemos ver que una función generatriz adecuada para esta TCI es

G = xk pky − yk pkx ; ε ≡ dθ (8.60)

Esto se puede ver explı́citamente reemplazando (8.60) en las Ecs. (7.69, 7.70)

∂G ∂G ∂G
δxi = dθ = −yi dθ ; δyi = dθ = xi dθ ; δzi = dθ =0
∂pix ∂piy ∂piz
∂G ∂G ∂G
δpix = −dθ = −piy dθ ; δpiy = −dθ = pix dθ ; δpiz = −dθ =0
∂xi ∂yi ∂zi

que reproduce correctamente las Ecs. (8.59). Es inmediato ver que la función G dada por (8.60) corresponde
a la componente z del momento angular canónico total

G = Lz ≡ (ri × pi )z (8.61)

y dado que el eje z se eligió en la dirección del eje de rotación cuya orientación es arbitraria, se concluye que
la función generatriz G corresponde a la componente del momento angular canónico total a lo largo del eje de
rotación. Denotando n al vector unitario a lo largo del eje de rotación se tiene que

G=L·n (8.62)

es importante notar que el momento angular canónico que hemos definido puede diferir del momento angular
mecánico, ya que si las fuerzas que actúan sobre el sistema se derivan de potenciales que dependen de la
velocidad, las cantidades pi no necesariamente corresponden con el momento lineal (aunque siguen siendo
vectores Euclidianos que fué nuestra única suposición). En consecuencia, la expresión (8.61) no corresponde
necesariamente al momento angular mecánico. Por lo tanto, nuestros resultados son más generales que los
obtenidos en la sección 5.1.2 en donde se supuso explı́citamente que los potenciales eran independientes de
la velocidad. Podemos ver entonces que el momento conjugado asociado a una coordenada generalizada de
rotación del sistema como un todo alrededor de un eje n, es la componente del momento angular canónico
11
Para más detalles ver sección 12.6
160 CAPÍTULO 8. CORCHETES DE POISSON Y OTROS INVARIANTES CANÓNICOS

total según este eje, incluso si el potencial depende de la velocidad. Este resultado se puede derivar también
de las Ecs. (8.55, 8.56).
Concluı́mos que el Hamiltoniano es invariante bajo la rotación del sistema como un todo alrededor de la
dirección n, si y solo si se conserva la función generatriz G definida en la Ec. (8.62), es decir si se conserva el
momento angular canónico total en la dirección n. Una vez más vemos como la invarianza del Hamiltoniano
ante rotaciones alrededor de un eje conduce a la conservación del momento angular canónico total alrededor
de dicho eje.
En sı́ntesis, ası́ como el Hamiltoniano es un generador de desplazamiento del sistema en el tiempo, el
momento lineal es un generador de desplazamiento lineal espacial (traslación) del sistema, y el momento
angular es un generador de desplazamiento angular espacial (rotación) del sistema. Recordemos que aquı́ la
palabra generador indica que éste induce una TCI que nos lleva a la transformación en cuestión.

8.13. Construcción de transformaciones canónicas finitas a partir de trans-


formaciones canónicas infinitesimales
Ya se ha dicho que en una interpretación activa, una transformación canónica que depende de un parámetro,
mueve el punto que describe la configuración del sistema formando una trayectoria en el espacio de fase. Una
transformación canónica finita que depende de una parámetro contı́nuo α, puede construı́rse como una sucesión
de TCI’s a lo largo de la curva. Formalmente, la TC finita se obtiene integrando las TCI’s. Como a cada punto
en la trayectoria le corresponde un valor particular del parámetro, comenzamos con la configuración inicial del
sistema a la cual por convención le asignamos el parámetro α = 0. Si u es alguna función de la configuración
del sistema, u será una función contı́nua de α a lo largo de la trayectoria, con valor inicial u0 ≡ u (0). Por
simplicidad, asumiremos que u no es función explı́cita del tiempo. La TCI en una interpretación activa viene
dada por (8.49), donde ε viene dado por dα

∂u = dα [u, G] (8.63)

o a manera de ecuación diferencial


du
= [u, G] (8.64)

Para entender porqué aparece una derivada total (a pesar de la notación engañosa ∂u en 8.63) recordemos
que ∂u es el cambio en u asociado a una variación de todas las coordenadas y momentos como se vé en (8.48)
y naturalmente, también hay variación en α ya que es justamente la variación en esta cantidad la que genera
el cambio de coordenadas y momentos. En principio, la integración de esta ecuación diferencial nos conduce
a u (α), es decir al efecto que la TC finita tiene sobre u. Una solución formal se puede obtener haciendo una
expansión de Taylor de u (α) alrededor de las condiciones iniciales

du α2 d2 u α3 d3 u
u (α) = u (0) + α + + + ...
dα 0 2! dα2 0 3! dα3 0

la Ec. (8.64) conduce a


du
= [u, G]0
dα 0
donde el subı́ndice nos indica que el corchete de Poisson debe ser evaluado en el punto inicial α = 0. Ahora
tomando [u, G] ≡ u′ como una función de la configuración del sistema, se tiene
 
d2 u d du d du′
= = [u, G] =
dα2 dα dα dα dα

y usando la Ec. (8.64) para la función u′

d2 u du′  ′ 
= = u , G = [[u, G] , G]
dα2 dα
8.13. CONSTRUCCIÓN DE TC’S FINITAS A PARTIR DE TCI’S 161

el proceso se repite para las sucesivas derivadas con lo cual la expansión de Taylor queda

α2 α3
u (α) = u0 + α [u, G]0 + [[u, G] , G]0 + [[[u, G] , G] , G]0 + . . . (8.65)
2! 3!
en particular, si u representa una variable canónica ζi , con u0 representando el valor inicial de la variable
ηi , la ecuación (8.65) nos da la prescripción para calcular la transformación canónica finita generada por G.
Definimos el operador G b como
Gb ≡ [(. . .) , G] (8.66)
b actúa sobre las funciones u de la configuración del sistema. Es decir
donde G
b ≡ [u, G]
Gu (8.67)

claramente  
b2 u = G
G b Gu
b =G
b ([u, G]) ≡ [[u, G] , G]

b la expansión (8.65) se escribe


y generalizando a todas las potencias de G,
1  2 1  3

b + b u + b u + . . .
u (α) = 1u0 + αGu αG αG
0 2! 0 3!
  2  3  0
b+ 1 b + 1 b + ... u
u (α) = 1 + αG αG αG (8.68)
2! 3! 0

teniendo en cuenta que la sumatoria entre llaves tiene la estructura de la serie correspondiente a la función
exponencial, podemos escribir simbólicamente esta transformación de la forma

b
u (α) = eαG u (8.69)
0

Otra forma interesante de obtener la Ec. (8.69) se basa en la función generatriz para ex
 x n
ex = lı́m 1 +
n→∞ n
si extrapolamos esta expresión para la función de operadores tendremos que
!n
b α Gb
eαG = lı́m b 1+
n→∞ n

y la ecuación (8.69) se puede reescribir como


!n
αGb
b
u (α) = lı́m 1+ u (8.70)
n→∞ n
0

en (8.70) se puede ver que el valor final para la función u (α) se puede obtener a partir de su valor inicial,
aplicando sucesivamente (n veces) el operador b b con n → ∞. En tal lı́mite, este operador solo difiere
1 + αG/n
infinitesimalmente de la identidad. Es decir la TC completa se está generando como una aplicación sucesiva
de TCI’s.
Un caso muy importante surge cuando en la Ec. (8.69) tomamos el caso particular en el cual G = H y el
parámetro contı́nuo es el tiempo, se obtiene

b
u (t) = etH u (8.71)
0

donde el operador Hamiltoniano se define en analogı́a con (8.66, 8.67)


b ≡ [(. . .) , H] ; Hu
H b ≡ [u, H] (8.72)
162 CAPÍTULO 8. CORCHETES DE POISSON Y OTROS INVARIANTES CANÓNICOS

b
la ecuación (8.71) nos dice que la evolución temporal de u se obtiene aplicando el operador etH sobre u (qi , pi )
b
y evaluando en t = 0. Por esta razón, a etH se le denomina operador evolución temporal.
b = 0), las
Nótese que si el corchete de Poisson de u con el generador G de la transformación se anula (i.e. Gu
Ecs. (8.65, 8.68) nos muestran que la transformación generada por G dejará invariante a la función u. Cuando
G es el Hamiltoniano y el parámetro es el tiempo, esto es consistente con la Ec. (8.25), si recordamos que
hemos asumido que u (qi , pi ) no es función explı́cita del tiempo.

8.13.1. Aplicación del operador evolución temporal en el movimiento uniformemente


acelerado
Un ejemplo sencillo de aplicación del operador evolución temporal definido en (8.71), se obtiene cuando
estudiamos el problema del movimiento unidimensional con aceleración constante a, cuyo Hamiltoniano se
escribe en la forma
p2
H= − max
2m
sea u = x la función que queremos conocer, los corchetes de Poisson nos dan

p 1
[x, H] = ; [[x, H] , H] = [p, H] = a (8.73)
m m

y dado que este último corchete es constante, los corchetes de mayor orden se anulan, de modo que la serie
definida en (8.65) se trunca y solo posee tres términos. Usando entonces G → H, α → t, y u → x en (8.65)
ası́ como los corchetes (8.73) se obtiene

p0 at2
x (t) = x0 + t+
m 2

8.13.2. Aplicación del operador evolución temporal en el movimiento armónico simple


Escribiendo explı́citamente el operador evolución temporal definido por las Ecs. (8.71, 8.72) tenemos
  2  3  
u (t) = 1+t H b+ 1 tH b + 1 tH b + ... u (8.74)
2! 3! t=0
b b
H ≡ [(. . .) , H] ; H u ≡ [u, H] (8.75)

El Hamiltoniano del oscilador armónico lineal está dado por

p2 1 ∂H p ∂H
H= + kx2 ; = ; = kx
2m 2 ∂p m ∂x

vamos a evaluar la evolución temporal de x (t), de modo que haremos u ≡ x. Evaluemos las sucesivas potencias
b nx
de la forma H

b ∂x ∂H ∂x ∂H 1
Hx = [x, H] = − = p
∂x ∂p ∂p ∂x m
   
∂ Hxb ∂ b
Hx p p
b x = [[x, H] , H] =
2 ∂H ∂H ∂ m ∂H ∂ m ∂H
H − = −
∂x ∂p ∂p ∂x ∂x ∂p ∂p ∂x
b 2x = − k x
H (8.76)
m
8.13. CONSTRUCCIÓN DE TC’S FINITAS A PARTIR DE TCI’S 163

   
b 2x b 2x    
∂ H ∂H ∂ H ∂H ∂ −mk
x ∂H ∂ −m k
x ∂H 1 k
b3
H x = − = − =− p
∂x ∂p ∂p ∂x ∂x ∂p ∂p ∂x m m
   2
∂ − mk2 p ∂H ∂ − mk2 p ∂H k k
b 4x =
H − = 2 kx = x
∂x ∂p ∂p ∂x m m
h 2 i h 2 i
∂ m k
x ∂H ∂ m k
x ∂H  2  
b 5x = k p 1 k 2
H − = = p
∂x ∂p ∂p ∂x m m m m
h  i h  i
1 k 2 1 k 2    3
∂ m m p ∂H ∂ m m p ∂H 1 k 2 k
b 6x =
H − =− kx = − x
∂x ∂p ∂p ∂x m m m

al colocarlas juntas teniendo en cuenta que H b 0 ≡ 1, tenemos


     2  3
b 0x = k 0 b 2x = − k x ; H b 4x = − k b 6x = − k
H − x ; H x ; H x
m m m m
     2
b 1 k 0 b 3x = 1 − k p ; H b 5x = 1 − k
Hx = − p ; H p
m m m m m m
b n x de la forma
lo cual sugiere un patrón para potencias pares y otro para potencias impares en H
   
b 2n k n b 2n+1 1 k n
H x= − x , H x= − p ; n = 0, 1, 2, . . . (8.77)
m m m
las Ecs. (8.77) pueden demostrarse rigurosamente por inducción usando la Ec. (8.76). Hagámoslo para la
primera identidad en (8.77)
            
b 2n+2 b 2 b 2n b 2 k n k n  b2  k n k k n+1
H x = H H x =H − x = − H x = − − x= − x
m m m m m
 
b 2(n+1) k n+1
⇒ H x= − x
m
y similarmente para la segunda de las Ecs. (8.77). Haciendo u → x en (8.74), y separando potencias pares e
impares, resulta
     
1  b 2 1  b 4 b 1  b 3 1  b 5
x (t) = 1+ tH + tH + . . . x + tH + tH + tH + . . . x
2! 4! 0 3! 5! 0
∞   ∞   2n+1 
X 1  b 2n X 1 b
x (t) = tH x + tH x (8.78)
n=0
2n! 0 n=0
(2n + 1)! 0

e insertando (8.77) en (8.78) y definiendo k/m ≡ ω 2 se obtiene


∞  2n    ∞    
X t k n X t2n+1 1 k n
x (t) = − x + − p
n=0
2n! m 0 n=0
(2n + 1)! m m 0
 r !   r !2n+1 
X∞ n 2n
X∞ n r
x (t) =  (−1) k
t x +
1  (−1) m k
t p
2n! m m (2n + 1)! k m
n=0 n=0
0 0

X n ∞
X n
(−1) p0 (−1)
x (t) = x0 (ωt)2n + ω (ωt)2n+1
n=0
2n! m n=0 (2n + 1)!

las series corresponden a las funciones coseno y el seno de modo que


p0 ω
x (t) = x0 cos ωt + sin ωt (8.79)
m
164 CAPÍTULO 8. CORCHETES DE POISSON Y OTROS INVARIANTES CANÓNICOS

8.13.3. Aplicación del operador evolución paramétrica para la generación de rotaciones


Es importante tener presente que la ecuación general (8.69) nos da la evolución del sistema para un
parámetro arbitrario α que no es necesariamente el tiempo. Para ilustrar este hecho hagamos la asignación
G → Lz que corresponde a una transformación canónica que produce una rotación alrededor de Z. Es natural
entonces tomar el parámetro en la forma α → θ siendo θ un ángulo de rotación. La función u será la coordenada
x de la partı́cula i−ésima. La evolución de la coordenada xi con θ se obtiene haciendo los reemplazos en (8.69)
o en (8.65)
θ2 θ3
xi (θ) = xi0 + θ [xi , Lz ]0 + [[xi , Lz ] , Lz ]0 + [[[xi , Lz ] , Lz ] , Lz ]0 + . . . (8.80)
2! 3!
Los corchetes de Poisson se pueden evaluar en forma directa o por sus propiedades, usando la expresión (8.60)
para G = Lz , ası́ como los corchetes fundamentales (8.3) para obtener

[xi , Lz ] = −yi ; [yi , Lz ] = xi

y los corchetes sucesivos dan

[xi , Lz ] = −yi ; [[xi , Lz ] , Lz ] = − [yi , Lz ] = −xi ; [[[xi , Lz ] , Lz ] , Lz ] = − [xi , Lz ] = yi (8.81)

etc. Ahora los corchetes de Poisson se evalúan en el valor inicial θ = 0 del parámetro de evolución. Reempla-
zando (8.81) en (8.80) evaluado en θ = 0 obtenemos
θ2 θ3 θ4
xi (θ) = xi0 − yi0 θ − xi0 + yi0 + xi0 − ...
 2!  3!  4! 3 
θ 2 θ 4 θ
xi (θ) = xi0 1 − + − ... − yi0 θ − + ...
2! 4! 3!
xi (θ) = xi0 cos θ − yi0 sin θ

que corresponde justo a la transformación que genera una rotación alrededor de Z, se puede ver que las
transformaciones de yi y zi también son las adecuadas (la última no se transforma). Esto corresponde a una
prueba alternativa de que Lz es un generador de rotaciones alrededor de z y como z es arbitrario esto indica
que el generador L · n produce una rotación alrededor de n. Este hecho nos inspira a encontrar las propiedades
de los corchetes de Poisson de los momentos angulares en forma más sistemática.

8.14. Propiedades de los corchetes de Poisson de los momentos angulares


Las Ecs. (8.55) y (8.57) nos llevan a ver que los momentos pi conjugados a una coordenada qi pueden actuar
como generadores de traslaciones generalizadas en donde solo hay variación de la coordenada qi en el espacio
de fase. Con base en ello, podemos ver que el momento angular al estar asociado a una variable angular, podrı́a
ser el generador de una “traslación angular” i.e. una rotación. Lo cual está respaldado por los resultados de
las secciones 5.1 y 8.12.2. El hecho de que el momento angular canónico sea el generador de rotaciones rı́gidas
del sistema conduce a una serie de importantes propiedades de los corchetes de Poisson que involucran a estas
cantidades. La Ec. (8.49) que nos determina el cambio de una función del sistema u, ante una transformación
canónica en una visión activa, es también válida si dicha función es la componente de un vector a lo largo de
un eje fijo en el espacio ordinario. Por lo tanto si F es una función vectorial de la configuración del sistema,
se tiene que
∂Fi = dα [Fi , G]
es importante que la dirección a lo largo de la cual se calcula la componente sea fija en el sentido de que no
debe cambiar con la TC. Si la dirección como tal es función de las variables del sistema, la TC no solo cambia
el valor de la función sino también su naturaleza, tal como ocurre con el Hamiltoniano. Con esta aclaración el
cambio de un vector F bajo una rotación del sistema alrededor de un eje fijo n, generada por L · n se escribe
vectorialmente como
∂F = dθ [F, L · n] (8.82)
8.14. PROPIEDADES DE LOS CORCHETES DE POISSON DE LOS MOMENTOS ANGULARES 165

la Ec. (8.82) es válida solo si los vectores unitarios ux , uy , uz que forman la base para escribir F, no son rotadas
por el generador L · n.
Otra aclaración muy importante sobre el significado de la Ec. (8.82), el generador L · n produce una
rotación del sistema bajo la TCI, pero no necesariamente produce una rotación del vector F. Dicho generador
induce una rotación espacial de las variables del sistema pero no por ejemplo de algún vector externo tal como
un campo magnético externo o el vector que describe la aceleración de la gravedad. Surge naturalmente la
pregunta de cuales son las condiciones bajo las cuales L · n genera una rotación espacial de F. Claramente,
este vector es rotado por el generador en cuestión cuando F es una función de las variables del sistema (q, p)
únicamente y no involucra ninguna cantidad externa o vector que no sea afectado por la TCI. Bajo estas
condiciones una rotación espacial del sistema implica una rotación de F. Los vectores que cumplen estas
condiciones serán denominados vectores del sistema. El cambio en un vector Euclidiano bajo rotaciones
infinitesimales alrededor de n, fué discutido en la sección 5.1, Ec. (5.9)

dF = n dθ × F

de tal modo que para un vector del sistema, una TCI generada por L · n induce un cambio en dicho vector de
la forma12
∂F = dθ [F, L · n] = n dθ × F (8.83)
la Ec. (8.83) conduce a una importante identidad concerniente al corchete de Poisson entre L · n y un vector
del sistema
[F, L · n] = n × F (8.84)
La condición (8.84) ya no hace ninguna referencia a una TC o incluso a una rotación espacial. Es simplemente
una propiedad del corchete de Poisson entre un cierto tipo de vectores (del sistema) y una componente del
momento angular canónico en cierta dirección.
La relación (8.84) se puede expresar en componentes usando el tensor de Levi Civitá.

[Fi , Lj nj ] = εijk nj Fk

y dado que n es arbitrario, podemos elegir en particular que nj = 1 para un j especı́fico y cero para las otras
componentes, lo cual nos conduce a
[Fi , Lj ] = εijk Fk (8.85)
lo cual se puede escribir también de la forma

[Fl , Lm ] = Fn l, m, n en orden cı́clico (8.86)

otra relación interesante es ver lo que ocurre con el producto F · G entre dos vectores del sistema. Siendo
un escalar, este producto punto debe ser invariante bajo rotaciones13 . La identidad (8.84) nos muestra que
efectivamente, el corchete de Poisson entre este producto y L · n se anula.

[F · G, L · n] = F · [G, L · n] + [F, L · n] · G = F · (n × G) + (n × F) · G
= F · (n × G) + F · (G × n) ⇒
[F · G, L · n] = 0 (8.87)

recordemos que la anulación del corchete de Poisson de cierta función del sistema con el generador de una
transformación, nos conduce a la invarianza de esta función bajo la transformación producida por el generador
12
Un vector podrı́a ser mixto i.e. función de q y p del sistema pero también función de variables externas. En tal caso es de
esperarse que dicho vector se transforme bajo la rotación generada por la TCI pero no transformará de la forma prescrita por la
Ec. (8.83).
13
Esto se puede ver de F · G = F G cos θ. F y G son invariantes ya que una rotación no cambia la magnitud de los vectores,
además el ángulo relativo entre dos vectores también se conserva en una rotación de modo que la invarianza es clara.
166 CAPÍTULO 8. CORCHETES DE POISSON Y OTROS INVARIANTES CANÓNICOS

como se vé en la Ec. (8.65)14 . Haciendo F = G, se obtiene la propiedad esperada de que la magnitud de un
vector se conserva bajo rotaciones, ya que el corchete de Poisson de F2 se anuları́a para cualquier componente
de L.
Naturalmente, todas las relaciones anteriores son válidas en particular cuando F = L en (8.84). En tal caso
resulta
[L, L · n] = n × L ⇔ [Li , Lj ] = εijk Lk (8.88)

adicionalmente, haciendo F = G = L en (8.87) resulta


 
L2 , L · n = 0 (8.89)

de las relaciones (8.88) y el teorema de Poisson vemos que si Lx y Ly son constantes de movimiento entonces
Lz también es una constante de movimiento. Por tanto, la invarianza de dos componentes del momento angular
canónico cartesiano nos lleva a la invarianza del vector L completo. Adicionalmente, aplicando las relaciones
(8.84) y (8.85) con F = p, es decir el momento canónico cartesiano, tenemos que

[p, L · n] = n × p ; [pi , Lj ] = εijk pk

si ahora asumimos que además de Lx , Ly la componente pz es también una constante de movimiento, entonces
además de Lz obtenemos otras dos constantes de movimiento via teorema de Poisson

[pz , Lx ] = py , [pz , Ly ] = −px

de modo que tanto L como p se conservan. En general si Li , Lj y pk son constantes de movimiento con i, j, k
diferentes entre sı́, obtenemos la invarianza de L y p. Este es un caso en el cual el teorema de Poisson es útil
para encontrar nuevas constantes de movimiento.
En contraste, examinemos un escenario en el cual asumimos que px , py , Lz son constantes de movimiento,
la aplicación del teorema de Poisson nos da

[px , py ] = 0 ; [px , Lz ] = −py ; [py , Lz ] = px

y el teorema de Poisson no nos genera en este caso nuevas constantes de movimiento.


Por otro lado, las propiedades (8.3), nos dicen que para cualquier par de momentos canónicos, el corchete
de Poisson entre ellos se anula. Pero de las relaciones (8.88) se observa que para ningún par de componentes de
L, se anula el corchete entre ellas. Por tanto, a pesar de que describimos a L como el momento angular canónico
total en virtud de su definición como ri × pi (suma sobre ı́ndices), no es posible escoger simultáneamente a
dos componentes de L como momentos canónicos. Nótese que tampoco es posible por ejemplo que Lx sea una
coordenada qi y Ly un momento canónico pk ya que en este caso tenemos que

[qi , pk ] = [Lx , Ly ] = Lz 6= δik

que de nuevo contradice las Ecs. (8.3). Similarmente no es posible que por ejemplo Lx y Ly sean ambas
coordenadas qi y qk . En sı́ntesis, no podemos escoger simultáneamente dos componentes de L como variables
canónicas. Sin embargo, la Ec. (8.89) muestra que es posible escoger simultáneamente a la magnitud al cuadrado
de L, y a cualquiera de las componentes de L (pero solo una), como variables canónicas.
14
Recordemos que esto solo vale si la función del sistema no depende explı́citamente del tiempo. En realidad, si tal función depende
explı́citamente del tiempo, significa que ésta puede cambiar con el tiempo incluso si la configuración del sistema permanece sin
alterar. Esto solo es posible si existe algún agente externo que produzca dicho cambio. En conclusión, una función u (qi , pi , t) no serı́a
una función solo del sistema, sino más bien una función mixta que depende del sistema y de algún agente externo. Razonamiento
idéntico se da para vectores F, del sistema o mixtos.
8.14. PROPIEDADES DE LOS CORCHETES DE POISSON DE LOS MOMENTOS ANGULARES 167

8.14.1. Ejemplos de aplicación


Corchetes de momentos angulares para partı́cula libre

La relación (8.84) se puede verificar explı́citamente para el caso particular de una partı́cula libre descrita por
coordenadas y momentos cartesianos. El vector momento cartesiano p, es claramente un vector del sistema.
Tomemos n = uz , evaluemos directamente el corchete de la izquierda en (8.84), lo haremos componente a
componente

[px , Lz ] = [px , xpy − ypx ] = [px , xpy ] − [px , ypx ] = x [px , py ] + [px , x] py − y [px , px ] − [px , y] px
⇒ [px , Lz ] = −py

donde hemos usado las propiedades (8.10, 8.11) y las identidades (8.3). Similarmente

[py , xpy − ypx ] = px ; [pz , xpy − ypx ] = 0

de modo que al evaluar la expresión de la izquierda en (8.84) para este caso resulta

[p, L · uz ] = −py ux + px uy

este corchete nos da las componentes de uz × p, lo cual confirma la validez de la Ec. (8.84) para este caso par-
ticular. Adicionalmente, para este problema el lector puede verificar explı́citamente la validez de las siguientes
expresiones
   
[p · L, L · n] = p2 , L · n = L2 , L · n = 0

que nos confirman que estas cantidades son escalares, es decir que no son afectadas por una rotación, en
concordancia con (8.87).

Corchetes de momentos angulares para partı́cula en campo externo

Supongamos que una partı́cula se somete a un campo magnético externo uniforme. Tomemos el vector
F = A siendo A ≡ 12 (r × B) donde B = Bux describe al campo magnético. A representa fı́sicamente un
potencial vectorial asociado al campo magnético B. El vector A depende de un vector interno y otro externo
al sistema, por tanto es de esperarse que en general se transforme bajo la TCI generada por L · uz pero no
necesariamente de la forma prescrita por (8.84). La evaluación explı́cita de los corchetes nos da

1 1 1 1
A = (r × B) = (xux + yuy + zuz ) × Bux = − yBuz + zBuy
2 2 2 2 
1
[Fx , Lz ] = [Ax , Lz ] = [0, Lz ] = 0 ; [Fy , Lz ] = [Ay , Lz ] = zB, xpy − ypx = 0
2
 
1 1
[Fz , Lz ] = [Az , Lz ] = − yB, xpy − ypx = − Bx
2 2

por tanto el miembro izquierdo de la Ec. (8.84) nos da

1
[A, L · uz ] = − Bxuz (8.90)
2

en cuanto al miembro derecho de (8.84), el vector uz × A nos da − 12 Bzux . Efectivamente, vemos que el vector
A se transforma bajo una rotación del sistema (ya que el corchete de la Ec. 8.90 no es nulo), pero no se
transforma con la prescripción dada por (8.84).
168 CAPÍTULO 8. CORCHETES DE POISSON Y OTROS INVARIANTES CANÓNICOS

8.15. Ejercicios
1. Demostrar que las transformaciones de escala, ası́ como las transformaciones canónicas extendidas, no
dejan invariantes a los corchetes de Poisson.

2. Demostrar las propiedades (8.9, 8.10) de los corchetes de Poisson.

3. Verifique que se cumple la relación (8.15) entre los corchetes de Poisson y los corchetes de Lagrange.

4. Utilizando corchetes de Poisson, demuestre que las transformaciones definidas en la Ec. (7.94), Pág. 138,
son canónicas.

5. Utilizando corchetes de Poisson, demuestre que las transformaciones definidas en la Ec. (7.95), Pág. 139,
son canónicas.

6. Demuestre en detalle que la Ec. (8.79) es la solución conocida del movimiento armónico simple en términos
de las condiciones iniciales.
Capı́tulo 9

Teorı́a de Hamilton-Jacobi y variables


acción-ángulo

Ya hemos mencionado que las transformaciones canónicas pueden ser usadas como un procedimiento para
resolver las ecuaciones de movimiento, para lo cual se sugirieron dos estrategias, (a) Cuando el Hamiltoniano
se conserva, se puede obtener la solución transformando a un nuevo conjunto de variables canónicas en donde
todas las coordenadas son cı́clicas, en cuyo caso las nuevas ecuaciones de movimiento de Hamilton resultan
triviales, y (b) encontrar una transformación canónica que partiendo de las coordenadas q, p que describen la
configuración del sistema en un tiempo t, nos lleve a un nuevo sistema coordenado constituı́do únicamente por
cantidades constantes. En particular, las constantes que constituyen el nuevo sistema de variables canónicas
se puede elegir como el conjunto q0 , p0 que coincide con los valores iniciales de las variables canónicas. Si
encontramos esta TC, la correspondiente transformación entre las antiguas y las nuevas coordenadas se puede
invertir para obtener
q = q (q0 , p0 , t) ; p = p (q0 , p0 , t)
lo cual nos da el valor de las coordenadas y momentos en función de los valores iniciales de éstos y el tiempo.
Este procedimiento es el más general y es aplicable (al menos formalmente) incluso si el Hamiltoniano es función
del tiempo. La teorı́a de Hamilton Jacobi es un procedimiento sistemático para encontrar la transformación
canónica que lleva de los valores q, p en un tiempo t, a los valores iniciales o a otros valores constantes que son
funciones de las condiciones iniciales.

9.1. Ecuación de Hamilton-Jacobi para la función principal de Hamilton


Podemos asegurar que las nuevas variables canónicas son todas constantes si el Hamiltoniano transformado
K es idénticamente nulo, ya que en tal caso las ecuaciones de Hamilton quedan
∂K ∂K
K=0 ⇒ = Q̇i = 0 ; − = Ṗi = 0 (9.1)
∂Pi ∂Qi
como ya se ha visto, el antiguo y el nuevo Hamiltoniano están relacionados a través de la función generatriz
∂F
K=H+ (9.2)
∂t
por tanto el nuevo Hamiltoniano será nulo si F satisface la ecuación
∂F
H (q, p, t) + =0 (9.3)
∂t
tomaremos a F como una función de tipo 2 de acuerdo con la clasificación hecha en el capı́tulo 71 . Por tanto,
F es función de qi , Pi y el tiempo. Con el fin de escribir el Hamiltoniano como función de las mismas variables
1
Recordemos que con una función tipo F2 es fácil contruir una T.C. contı́nua, dado que una T.C. que difiere infinitesimalmente
de la identidad es inmediata para este tipo de función generatriz.

169
170 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

que F , debemos usar las ecuaciones de transformación (7.19)


∂F2
pi = (9.4)
∂qi
de modo que la Ec. (9.3) se escribe
 
∂F2 ∂F2 ∂F2
H q1 . . . qn ; ,..., ;t + =0 (9.5)
∂q1 ∂qn ∂t
la ecuación (9.5) conocida como ecuación de Hamilton Jacobi, es una ecuación diferencial parcial en n + 1
variables (n coordenadas y el tiempo), para la función generatriz que buscamos. Es costumbre denotar las
soluciones de F2 como S por razones que veremos más adelante, y dicha función S se denomina función
principal de Hamilton.
La integración de la Ecuación de Hamilton-Jacobi Ec. (9.5) solo nos provee la dependencia con las coor-
denadas q y el tiempo; no aparece ninguna información sobre los nuevos momentos. En realidad, lo único que
sabemos es que todos los nuevos momentos deben ser constantes pero no hemos especificado que valores deben
tener. Volveremos sobre la determinación de los nuevos momentos más adelante. Matemáticamente, la Ec.
(9.5) es una ecuación diferencial parcial de primer orden en n + 1 variables (q, t). Un tipo de solución posible
de esta ecuación es
F2 ≡ S = S (q1 . . . qn ; α1 , . . . , αn+1 ; t) (9.6)
donde αi son n + 1 constantes de integración independientes. Estas soluciones se conocen como soluciones
completas de la ecuación diferencial parcial 2 . No obstante, una de las constantes de movimiento es irrelevante
debido a que en todas las ecuaciones en donde aparece F2 , solo aparece su derivada parcial con respecto a
alguna variable (y en particular en la Ec. 9.5). Por tanto si F2 es una solución, F2 + α también es solución
de modo que una de las constantes de integración debe ser aditiva en S. Por tanto, la solución puede remover
una constante sin ninguna pérdida de generalidad de modo que podemos escribir
S = S (q1 . . . qn ; α1 , . . . , αn ; t) (9.7)
donde ninguna de las constantes independientes n es solamente aditiva. Obsérvese que (9.7) debe ser de la
estructura de una función F2 i.e. S = S (q, P, t). La manera más natural de llegar a esta estructura con (9.7),
es asumiendo que
Pi = αi (9.8)
veremos enseguida que esta suposición no contradice la aseveración original de que los nuevos momentos están
conectados con los valores iniciales q (t0 ) y p (t0 ).
Describiremos ahora como se obtiene la solución dinámica del problema con base en el método de Hamilton-
Jacobi. Una vez que se obtiene una solución F2 ≡ S, de la ecuación de Hamilton-Jacobi (9.5), llevamos esta
solución a las n primeras ecuaciones de transformación (7.19) de la forma
∂S (q, α, t)
pi = (9.9)
∂qi
cuando evaluamos estas n ecuaciones en t = t0 , las únicas incógnitas son las α′ s ya que las cantidades q, p
adquieren sus valores iniciales. Por tanto las Ecs. (9.9) evaluadas en t = t0 , son n ecuaciones con n incógnitas
α, que nos permiten al menos formalmente, encontrar las α en función de los valores iniciales de q, p. Las otras
n ecuaciones asociadas a F2 (ver Ecs. 7.19) se escriben
∂S (q, α, t)
Qi ≡ βi = (9.10)
∂αi
2
Este no es el único tipo de solución posible, la solución mas general incluye una o más funciones arbitrarias en lugar de
constantes. Incluso exigiendo que dichas funciones sean constantes hay en general mas de una solución del tipo (9.6). Sin embargo,
lo importante es que exista al menos una solución, pues la unicidad de la misma no es necesaria ya que la función principal de
Hamilton no representa un observable. De hecho, la falta de unicidad de la solución se debe a la ausencia de condiciones iniciales
y/o de frontera sobre las funciones F2 ≡ S.
9.1. EC. DE HAMILTON-JACOBI PARA LA FUNCIÓN PRINCIPAL DE HAMILTON 171

donde hemos tenido en cuenta que los nuevos momentos los hemos elegido como las α′ s y que las nuevas
coordenadas también deben ser constantes que denotamos por βi . Una vez conocidos los valores de las αi a
través de las Ecs. (9.9), podemos reemplazar estos valores en (9.10) para obtener las βi haciendo t = t0 en
dichas ecuaciones y apelando a las condiciones iniciales en q. Ahora bien, en las ecuaciones (9.10) podemos
despejar qj para obtener las coordenadas en función de α, β, t

qj = qj (α, β, t) (9.11)

lo cual resuelve la dinámica de las coordenadas generalizadas qj en función del tiempo y de las condiciones
iniciales. Despues de derivar en la Ec. (9.9) se pueden tomar las qi encontradas en (9.11) para sustituı́rlas en
(9.9), con lo cual se encuentra el valor de cada pi en función de α, β, t

pi = pi (α, β, t) (9.12)

por tanto, las Ecs. (9.11, 9.12) constituyen las soluciones completas a las ecuaciones de Hamilton.
La función principal de Hamilton es en consecuencia generadora de una transformación canónica que nos
lleva a valores constantes de las nuevas coordenadas y los nuevos momentos. Cuando se resuelve la ecuación
de Hamilton-Jacobi (9.5), obtenemos al mismo tiempo una solución al problema mecánico. Matemáticamente
hemos establecido una equivalencia entre las 2n ecuaciones canónicas de movimiento que son 2n ecuaciones
diferenciales ordinarias de primer orden, con la ecuación diferencial parcial de primer orden de Hamilton Jacobi.
Esta clase de equivalencia es muy común en la teorı́a de ecuaciones diferenciales de primer orden. Esencialmente
la conexión proviene del hecho de que ambas formulaciones provienen del principio variacional de Hamilton
modificado (recordemos que la Ec. 9.2 proviene del principio de Hamilton modificado). Hasta cierto punto, la
asignación de las αi como los nuevos momentos es arbitraria. Podrı́amos haber elegido como momentos otro
conjunto de constantes γi , que son a su vez funciones independientes de las constantes de integración αi

γi = γi (α1 , . . . , αn ) (9.13)

por medio de estas relaciones, la función principal de Hamilton se puede escribir en función de q, γ, t, el resto
de la derivación es análoga teniendo cuidado de reemplazar αi → γi en (9.9) y (9.10). Es a veces conveniente
definir ciertos γi como los nuevos momentos en lugar de las αi que aparecen como constantes de integración
en (9.5).
Un caso interesante se da cuando el Hamiltoniano no depende explı́citamente del tiempo y por tanto se
conserva. En este caso la Ec. (9.5) muestra que ∂S/∂t no puede ser función explı́cita del tiempo con lo cual la
forma mas general de S se escribe como

S (q, α, t) = W (q, α) − kt (9.14)

donde W (q, α) es llamada la función caracterı́stica de Hamilton. Insertando (9.14) en (9.5) se observa
que la constante k debe coincidir con el valor del Hamiltoniano (que es precisamente constante). Recuérdese
que aún cuando el Hamiltoniano sea constante, no necesariamente corresponde a la energı́a del sistema.

9.1.1. Interpretación fı́sica de las soluciones de Hamilton-Jacobi


Podemos obtener cierta información fı́sica adicional sobre la función principal de Hamilton S (q, α, t), tomando
su derivada total con el tiempo
dS (q, α, t) ∂S ∂S
= q̇i +
dt ∂qi ∂t
dado que α̇ = 0. Usando las ecuaciones (9.9) y (9.5) se obtiene
dS
= pi q̇i − H = L
dt
con lo cual se puede escribir Z
S= L dt + cte (9.15)
172 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

recordando que el principio de Hamilton es una aseveración sobre la integral definida de L en el tiempo, y que
a partir de él se obtiene la solución del problema mecánico via ecuaciones de Lagrange, vemos que en este caso
la misma integral de acción pero esta vez en forma indefinida, nos provee de otro método de solución. Nótese
que la Ec. (9.15) no posee utilidad práctica puesto que para evaluar la integral en el tiempo se debe conocer
L en función de t lo cual equivale a conocer q (t) y q̇ (t) es decir hay que saber la solución.
En forma similar, el significado fı́sico de la función caracterı́stica de Hamilton W , se puede revelar a través
de su derivada total
dW ∂W
= q̇i
dt ∂qi
Usando (9.9) y (9.14) se obtiene
Z Z
dW
= pi q̇i ⇒ W = pi q̇i dt = pi dqi (9.16)
dt

que es precisamente la acción abreviada definida en (6.92) aunque en forma de integral indefinida.

9.2. Solución del oscilador armónico por el método de Hamilton-Jacobi


Una vez más, usaremos el oscilador armónico para ejemplificar la nueva técnica, que en este caso corresponde
al método de Hamilton-Jacobi.

9.2.1. Oscilador armónico unidimensional con el método de Hamilton Jacobi


Partimos del Hamiltoniano para el oscilador armónico lineal unidimensional
r
1  k
H= p 2 + m2 ω 2 q 2 ≡ E ; ω = (9.17)
2m m

de acuerdo con la ecuación fundamental de Hamilton Jacobi Ec. (9.5), debemos sustituı́r a p por ∂S/∂q en el
Hamiltoniano (recordando que F2 se redefine como S) y plantear la ecuación diferencial (9.5)
" 2 #
1 ∂S 2 2 2 ∂S
+m ω q + =0
2m ∂q ∂t

como este Hamiltoniano no depende explı́citamente del tiempo, podemos escribir a S como (9.14) (donde
usaremos α en vez de k). De esta forma se elimina la dependencia temporal de la ecuación de Hamilton Jacobi
" 2 #
1 ∂W
+ m2 ω 2 q 2 = α (9.18)
2m ∂q

la constante α corresponde a la energı́a del sistema lo cual se puede ver reemplazando (9.14) en (9.3)

∂S
H+ =0 ⇒ H −α=0
∂t
la ecuación (9.18) se puede integrar con lo cual se obtiene
Z r
√ mω 2 q 2
W = 2mα dq 1− (9.19)

Z r
√ mω 2 q 2
S = −αt + 2mα dq 1− (9.20)

9.2. SOLUCIÓN DEL OSCILADOR ARMÓNICO POR EL MÉTODO DE HAMILTON-JACOBI 173

aunque la integral se puede resolver explı́citamente, debemos recordar que S no aparece en las ecuaciones de
movimiento sino solo sus derivadas parciales. Resulta más útil en este caso, hacer primero las derivaciones
antes de integrar. La solución para q se obtiene de las ecuaciones (9.10)
r Z
∂S m dq
β= = −t + q
∂α 2α 2 2
1 − mω2αq

que al ser integrado nos da " r #


1 mω 2
t + β = arcsin q
ω 2α
la coordenada q se puede despejar de aquı́ para obtener a q en función del tiempo y de las dos constantes α y
δ ≡ ωβ r

q= sin (ωt + δ) ; α = H, δ ≡ ωβ (9.21)
mω 2
que es la solución que conocemos para el oscilador armónico. La solución para el momento conjugado se obtiene
formalmente de las Ecs. (9.9) teniendo en cuenta (9.19) y (9.20)
∂S ∂W p
p= = = 2mα − m2 ω 2 q 2 (9.22)
∂q ∂q
y sustituyendo (9.21) en (9.22) se obtiene
q  
p = 2mα 1 − sin2 (ωt + δ)

p = 2mα cos (ωt + δ) (9.23)

este resultado nos dice que p = mq̇ como se esperaba. Finalmente, debemos determinar las constantes α y δ a
través de las condiciones iniciales q0 , p0 . El valor de α se puede despejar fácilmente evaluando las Ecs. (9.21)
y (9.23) en t = 0 y sumando sus cuadrados

2mα = p20 + m2 ω 2 q02

esta misma ecuación se puede encontrar recordando que α = H = E es constante, y usando la Ec. (9.17) en
t = t0 . La fase δ se obtiene de nuevo evaluando (9.21) y (9.23) en t = 0 y haciendo el cociente
q0
tan δ = mω
p0
En este caso vemos que la función principal de Hamilton S asumió el papel de generador de una transformación
canónica a una nueva coordenada que mide el ángulo de fase inicial, y a un nuevo momento que se puede
identificar como la energı́a total del sistema.
Ahora bien, si sustituı́mos la solución (9.21) para q en la Ec. (9.20) obtenemos
Z Z  
2 2 1
S = −αt + 2α cos (ωt + δ) dt = 2α cos (ωt + δ) − dt
2
se puede verificar que el integrando coincide con el Lagrangiano
 
1 2 2 2 2
  2 2
 2 1
L = p − m ω q = α cos (ωt + δ) − sin (ωt + δ) = 2α cos (ωt + δ) −
2m 2
Z
⇒ S = L dt

y vemos que S efectivamente coincide con la integral indefinida del Lagrangiano con el tiempo, como lo prescribe
la Ec. (9.15). Nótese que tal identidad solo se pudo comprobar una vez que se encontró la solución.
174 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

9.2.2. Oscilador armónico bidimensional anisotrópico


Para ilustrar problemas de más de un grado de libertad, tomemos un oscilador armónico bidimensional con
constante de restitución diferente en x y en y es decir kx 6= ky , el Hamiltoniano se escribe en la forma
r r
1  kx ky
H=E= p2x + p2y + m2 ωx2 x2 + m2 ωy2 y 2 ; ωx = ; ωy = (9.24)
2m m m

como el Hamiltoniano no depende del tiempo la función principal de Hamilton queda

S (x, y, α, αy , t) = W (x, y, α, αy ) − αt

dado que las coordenadas y momentos en x e y se separan en forma de suma en el Hamiltoniano, es razonable
suponer que la función caracterı́stica de Hamilton W se separa de forma similar

S (x, y, α, αy , t) = Wx (x, α, αy ) + Wy (y, α, αy ) − αt (9.25)

usando (9.24, 9.25) en la Ec. (9.5), obtenemos la ecuación de Hamilton-Jacobi para el oscilador bidimensional
anisotrópico
"   2 #
1 ∂Wx 2 ∂W y
+ m2 ωx2 x2 + + m2 ωy2 y 2 = α
2m ∂x ∂y
" 2 # " 2 #
1 ∂Wy 1 ∂Wx
+ m2 ωy2 y 2 =α− + m2 ωx2 x2 (9.26)
2m ∂y 2m ∂x

el término de la izquierda solo depende de y, y el de la derecha solo depende de x, de modo que ambos deben
ser constantes. Igualemos cada término a una constante que denotamos αy
" 2 #
1 ∂Wy
+ m2 ωy2 y 2 = αy (9.27)
2m ∂y
" 2 #
1 ∂Wx
α− + m2 ωx2 x2 = αy (9.28)
2m ∂x

la segunda ecuación se puede reescribir como


" 2 #
1 ∂Wx
+ m2 ωx2 x2 = αx ; αx ≡ α − αy (9.29)
2m ∂x

con lo cual las ecuaciones (9.27, 9.29) quedan más simétricas. Comparando las Ecs. (9.27, 9.29) con la Ec.
(9.18), vemos que las soluciones son de la forma dada en las Ecs. (9.21, 9.23)
s
2αx √
x = sin (ω x t + βx ) ; p x = 2mαx cos (ωx t + βx )
mωx2
s
2αy p
y = sin (ω y t + βy ) ; p y = 2mαy cos (ωy t + βy ) (9.30)
mωy2

vemos que de nuevo las β ′ s son las fases constantes y la energı́a es

E = α = αx + αy
9.2. SOLUCIÓN DEL OSCILADOR ARMÓNICO POR EL MÉTODO DE HAMILTON-JACOBI 175

9.2.3. Oscilador armónico bidimensional isotrópico


Si tomamos el oscilador bidimensional isotrópico es decir con kx = ky podemos usar el resultado anterior
y resolverlo como caso particular. No obstante, cuando kx = ky surge una simetrı́a que está ausente en el caso
general, ya que la interacción se vuelve central como se puede observar del potencial con ωx = ωy

mωx2 2 mωy2 2 mω 2 2  mω 2 r 2
V (x, y) = x + y = x + y2 = ≡ V (r)
2 2 2 2
en consecuencia, resulta interesante resolver el problema utilizando coordenadas polares, ya que en estas
coordenadas el oscilador isotrópico tiene una coordenada cı́clica
 
1 p2
H=E= p2r + 2θ + m2 ω 2 r 2
2m r
vemos que el Hamiltoniano es cı́clico en θ. Emulando el procedimiento en el caso anisotrópico, asumimos que
la función caracterı́stica W es separable

S (r, θ, α, αθ ) = Wr (r, α, αθ ) + Wθ (θ, α, αθ ) − αt

con lo que la ecuación de Hamilton-Jacobi queda


"    #
1 ∂Wr 2 1 ∂Wθ 2
+ 2 + m2 ω 2 r 2 = α
2m ∂r r ∂θ
   
2 ∂Wr 2 ∂Wθ 2
r + + m2 ω 2 r 4 = 2mr 2 α
∂r ∂θ
   2
∂Wθ 2 2 2 ∂Wr
= 2mr α − r − m2 ω 2 r 4
∂θ ∂r
el término de la izquierda depende solo de θ y el de la derecha solo de r. Ambos deben ser iguales a una
constante α2θ luego  
∂Wθ
= αθ ⇒ Wθ = αθ θ
∂θ
de las ecuaciones básicas para los generadores se tiene que
∂S ∂Wθ
pθ = = = αθ
∂θ ∂θ
es decir αθ es justamente el momento conjugado (constante) asociado a la variable cı́clica. La ecuación para
Wr queda
 2  
2 2 ∂Wr 2 2 4 2 ∂Wr 2 α2
2mr α − r − m ω r = αθ ⇒ = 2mα − m2 ω 2 r 2 − 2θ ⇒
∂r ∂r r
s
Z
p2
Wr = 2mE − m2 ω 2 r 2 − 2θ dr (9.31)
r

aunque se puede resolver directamente para Wr , es más cómodo usar la solución en coordenadas cartesianas
dada en las Ecs. (9.30) para la condición kx = ky
r
2α √
x = sin (ωt + β) ; p x = 2mα cos (ωt + β)
mω 2
r
2α √
y = 2
sin ωt ; py = 2mα cos ωt

176 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

y las utilizamos para encontrar las contrapartes polares usando


p y
r = x2 + y 2 ; θ = arctan
x
con lo cual la solución polar resulta
r q

r = sin2 ωt + sin2 (ωt + β) ; pr = mṙ
mω 2
 
sin ωt
θ = arctan ; pθ = mr 2 θ̇
sin (ωt + β)
La conservación de pθ (asociado a la variable cı́clica θ), nos habla de la conservación del momento angular
debido al carácter central que adquiere la interacción con la isotropı́a. Hay algunos casos lı́mites de interés, el
primero cuando β = 0, en cuyo caso
r
4α √ π
r= 2
sin ωt ; pr = 2mα cos ωt ; θ = ; pθ = 0
mω 4
el movimiento en el plano x − y será una oscilación a lo largo de una lı́nea diagonal que pasa por el origen.
Otro caso lı́mite ocurre cuando β = π/2, en tal caso
r

r = r0 = ; pr = 0 ; θ = ωt ; pθ = mr02 ω
mω 2
el movimiento en el plano x − y trazará un cı́rculo centrado en el origen de radio r0 . Para valores de β en el
intervalo (0, π/2), la órbita en el plano x − y es una elipse centrada en el origen, aunque los semiejes mayor y
menor no van en general a lo largo de los ejes x e y. Estos son ejemplos de figuras de Lissajous.

9.3. Ecuación de Hamilton-Jacobi para la función caracterı́stica de Ha-


milton
La razón principal que permite la fácil integración del oscilador armónico con el método de Hamilton-Jacobi,
es el hecho de que la función principal de Hamilton se puede separar de la forma prescrita en (9.14), lo cual a
su vez es posible siempre que el Hamiltoniano original no dependa explı́citamente del tiempo, es decir cuando
éste se conserva. Insertando (9.14) en (9.5) y haciendo k → α1 se obtiene la ecuación de Hamilton-Jacobi
restringida  
∂W
H qi , = α1 (9.32)
∂qi
esta ecuación ya no depende del tiempo, además se observa que una de las constantes de integración (por
convención la elegimos como α1 ) corresponde al valor (constante) del Hamiltoniano. En este caso la función
caracterı́stica de Hamilton aparece como parte de la función generatriz S cuando H es constante. Sin embargo,
veremos que W puede ser por sı́ sola una función generatriz de una transformación canónica con propiedades
diferentes a las generadas por S. Consideremos una transformación canónica en la cual todos los nuevos
momentos son constantes de movimiento αi , donde en particular α1 corresponde al valor del Hamiltoniano. Si
la función generatriz de esta transformación la postulamos como W = W (q, P ), entonces esta función es de
tipo 2 de tal forma que las ecuaciones de transformación vienen dadas por (7.19)
∂W (q, α) ∂W (q, α) ∂W (q, α)
pi = ; Qi = = (9.33)
∂qi ∂Pi ∂αi
estas ecuaciones se asemejan a sus análogos para S, Ecs. (9.9, 9.10), pero ahora la condición que determina a
W es que H sea uno de los momentos canónicos nuevos, que por convención denotamos como α1 3
H (pi , qi ) = α1 . (9.34)
3
Nótese que en (9.14) k es una constante de integración pero no necesariamente es un momento conjugado. Cuando dicha
constante se convierte en un momento conjugado, la expresión para Qi definida en (9.33) diferirá de la definida en (9.10).
9.3. EC. DE H-J PARA LA FUNCIÓN CARACTERÍSTICA DE HAMILTON 177

Adicionalmente, aquı́ solo pedimos que las coordenadas nuevas Qi sean cı́clicas pero no necesariamente que
sean constantes, pues solo exigimos que sean constantes los momentos conjugados Pi . Usando (9.33) en (9.34)
resulta  
∂W
H qi , = α1 (9.35)
∂qi
que coincide con la Ec. (9.32). De aquı́ también se vé que puesto que W no involucra al tiempo, el antiguo y el
nuevo Hamiltoniano coinciden numéricamente i.e. K = α1 . Esto es una diferencia con respecto al formalismo
de la función generatriz S, la cual cambia el valor del Hamiltoniano y lo vuelve nulo.
La función caracterı́stica de Hamilton genera una TC que nos lleva a otro conjunto de variables en donde
todos los momentos son constantes, usando las Ecs. de Hamilton esto se traduce en
∂K
Ṗi = − = 0, Pi = αi (9.36)
∂Qi
es decir todas las coordenadas Qi son cı́clicas, de modo que la solución del problema ya es trivial. Ahora
bien, dado que el nuevo Hamiltoniano solo depende de uno de los αi puesto que K = α1 , y como las αi son
independientes, tenemos entonces que de las otras ecuaciones de Hamilton
∂K ∂α1
Q̇i = = = δi1 (9.37)
∂αi ∂αi
se obtienen entonces las soluciones
∂W (q, α)
Qi = δi1 t + βi ≡ (9.38)
∂αi
de modo que la única coordenada que no es una constante de movimiento es Q1 . Dado que α1 = K es el
momento conjugado a Q1 y Q1 es la única coordenada que depende del tiempo, vemos de nuevo un escenario
en el cual el Hamiltoniano y el tiempo actúan como si fueran variables canónicamente conjugadas.
La dependencia de W con las antiguas coordenadas q se determina con la Ec. Diferencial Parcial (9.32),
conocida como ecuación de Hamilton-Jacobi restringida. En este caso hay n constantes de movimiento (con
respecto al caso anterior, no hay constante de integración para el tiempo), pero de nuevo una de ellas es una
constante meramente aditiva la cual se identifica de inmediato con α1 4 . De nuevo es natural asumir que las
n constantes de integración (incluyendo a α1 ) sean los nuevos momentos conjugados.
Veamos ahora como se obtiene la solución dinámica en el formalismo de Hamilton-Jacobi restringido (HJR).
Una vez que se encuentra una solución para W (q, α) de la Ec. (9.32), introducimos este W en la primera mitad
de las ecuaciones (9.33) y lo evaluamos en t = t0 , esto nos relaciona las constantes α con las condiciones iniciales.
Reemplazando αi = αi (q0 , p0 ) en las Ecs. (9.38), y evaluando en t = t0 obtenemos βi = βi (q0 , p0 ). Una vez
conocidos αi , βi en términos de las condiciones iniciales, se evalúan de nuevo las Ecs. (9.38) pero esta vez para
tiempo arbitrario, lo cual nos permite despejar qi = qi (αj , βj , t) y por tanto cada qi en términos del tiempo y
de las condiciones iniciales. Finalmente, estas qi (q0 , p0 , t) se reemplazan junto con los αi (q0 , p0 ) en el primer
conjunto de ecuaciones (9.33) para obtener pi como función del tiempo y las condiciones iniciales, con lo cual
ya tenemos la solución dinámica completa5 .
Vale la pena enfatizar que solo una de las n ecuaciones (9.38) involucra al tiempo. Teniendo en cuenta que
W es función de qj y αj resulta de (9.38) que

t + β1 = f1 (q1 , . . . , qn ; α1 , . . . , αn )
βi = fi (q1 , . . . , qn ; α1 , . . . , αn ) ; i = 2, 3, . . . , n

vemos que solo la ecuación con i = 1 nos conecta explı́citamente al tiempo. Por otro lado, las ecuaciones con
i > 1 solo relacionan a las qi′ s entre sı́, es decir son ecuaciones de trayectoria. Una de las qi ’s se puede
tomar como independiente y las otras coordenadas se pueden expresar en términos de ella resolviendo solo las
4
Sin embargo, a diferencia de la constante aditiva que aparecı́a en (9.14), en este caso la constante tiene un significado fı́sico
pues es el valor numérico del Hamiltoniano.
5
Nótese que la segunda mitad de Ecs. (9.33) no se usó directamente, en virtud de que son equivalentes a las Ecs. (9.38).
178 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

ecuaciones que son independientes del tiempo. En consecuencia, el formalismo nos conduce directamente a las
ecuaciones de movimiento de la trayectoria (ya que no involucran al tiempo explı́citamente). Por ejemplo en
el caso de fuerzas centrales veremos que este procedimiento nos genera la ecuación de r en función de ψ sin
pasar primero por las soluciones de r (t) y ψ (t).
Como ya se mencionó, no es en general necesario elegir las αi ’s como los nuevos momentos canónicos.
En ocasiones puede ser más conveniente elegir otras constantes γi que son funciones de las constantes de
integración αi
Pi ≡ γi (α1 , . . . , αn ) ; i = 1, . . . , n (9.39)
naturalmente las γi deben ser independientes entre sı́. En tal caso, la función caracterı́stica de Hamilton
W tendrá como argumentos a las qi , γi . El nuevo Hamiltoniano K = α1 (numéricamente igual a H pero
funcionalmente diferente) se obtiene despejando α1 de (9.39) y será función exclusivamente de las γi . Las
ecuaciones de Hamilton son entonces
∂K ∂K ∂α1 (γi )
Ṗk = − = 0 ; Q̇k = = ≡ vk (9.40)
∂Qk ∂γk ∂γk
es obvio que las vk son constantes que dependen exclusivamente de las γk . Las soluciones para las nuevas
variables canónicas son
Pk = γk ; Qk = vk t + βk (9.41)
la forma de W no se puede encontrar hasta tener una solución completa de la ecuación de Hamilton Jacobi
restringida.
Un comentario final, a priori la expresión K = cte conduce a las mismas ecuaciones de movimiento que
K = 0. Sin embargo, las ecuaciones (9.1) con K = 0 claramente conducen a soluciones diferentes que las Ecs.
(9.36, 9.37) con K = α1 = cte. Para comprender la diferencia debemos tener en cuenta que aunque las αi
son constantes, ellas son tratadas como variables para efectos de obtener las ecuaciones de Hamilton como se
vé en las Ecs. (9.37), es decir que aunque K es constante, dicha constante α1 es una propiedad del sistema
(en muchos casos la energı́a del sistema), si en cambio K es igual a una constante independiente del sistema,
entonces para todos los efectos será equivalente a escoger K = 0.
En otros términos, supongamos que un sistema Fı́sico tiene condiciones iniciales (q0 , p0 ), si para el mismo
sistema cambiamos las condiciones iniciales a (q0′ , p′0 ), entonces cambiará en general el valor numérico del
Hamiltoniano 
α1 q0′ , p′0 6= α1 (q0 , p0 )
En tal caso, al usar el formalismo en el cual W es la función generatriz, el valor numérico del nuevo Hamiltoniano
K = α1 debe cambiar con respecto al caso en el cual usamos las condiciones iniciales (q0 , p0 ). En contraste, en
el formalismo en el cual S es la función generatriz, dicha función se ajusta de modo que el nuevo Hamiltoniano
sea siempre nulo, por tanto en este formalismo K = 0 sin importar las condiciones iniciales.
Esto nos deja una lección muy importante, dos Hamiltonianos que difieren en una constante solo son
equivalentes si la constante en cuestión no es una función del sistema, es decir si no depende de las condiciones
iniciales de éste. No obstante, en este escenario muy particular (siempre que el Hamiltoniano sea independiente
del tiempo) los Hamiltonianos K = α1 y K = 0 corresponden a la misma Fı́sica, ya que ambos están escritos
en bases canónicas distintas, y pretenden por métodos diferentes resolver el mismo problema6 . Pero si dos
Hamiltonianos escritos en la misma base canónica difieren en una constante que es función del sistema, las
ecuaciones de Hamilton son diferentes y la Fı́sica que describen es diferente.

9.4. Paralelismo entre el formalismo de Hamilton-Jacobi y el formalismo


restringido de Hamilton-Jacobi
Es útil hacer un esquema que nos muestre la estrategia de solución de las ecuaciones de movimiento basados
en la función principal de Hamilton S o en la función caracterı́stica de Hamilton W .
6
Las ecuaciones de Hamilton para los dos Hamiltonianos son diferentes pero no porque estén asociados a Fı́sica diferente, sino
a bases canónicas distintas.
9.4. PARALELISMO ENTRE LOS DOS FORMALISMOS DE H-J 179

Estos métodos son aplicables cuando el Hamiltoniano


es una función general de q, p, t se conserva
H (q, p, t) H (q, p) = cte ≡ α1
La idea del método es encontrar una transformación canónica que nos lleve a nuevas cooordenadas de modo
que
todas las nuevas coordenadas y momentos Todos los momentos Pi sean constantes
Qi , Pi , sean constantes de movimiento
para satisfacer estos requerimientos es condición suficiente que el nuevo Hamiltoniano K
sea idénticamente zero Sea cı́clico en todas las nuevas coordenadas Qi
K=0 H = K (Pi ) = α1
bajo estas condiciones, las ecuaciones de Hamilton para Qi , Pi son
∂K ∂K
Q̇i = ∂P i
=0 Q̇i = ∂P i
= vi
∂K ∂K
Ṗi = − ∂Qi = 0 Ṗi = − ∂Qi = 0
las soluciones son inmediatas
Q̇i = βi Q̇i = vi t + βi
Pi = γi Pi = γi
Que satisface los requerimientos inicialmente propuestos. En ambos métodos se han trivializado las ecua-
ciones de Hamilton de modo que la dificultad para resolver las ecuaciones de movimiento se ha trasladado a
la búsqueda de la TC. Para ello se plantea la existencia de una función generatriz de tipo 2 que genera dicha
TC, en cada caso la función generatriz es
La función principal de Hamilton Función caracterı́stica de Hamilton
F2 (q, P, t) ≡ S (q, P, t) F2 (q, P ) ≡ W (q, P )
que satisface la ecuación diferencial   parcial
H q, ∂S ∂q , t + ∂S
∂t = 0 H q, ∂W
∂q − α1 = 0
una solución completa de cada ecuación parcial contiene
n constantes de integración no triviales n − 1 constantes de integración no triviales que junto con α1
α1 , . . . , αn forman un conjunto de n constantes independientes
Como los Pi deben ser constantes, es natural escoger los Pi como n funciones independientes de las cons-
tantes de integración
Pi = γi (α1 , . . . , αn ) Pi = γi (α1 , . . . , αn )
las soluciones de la ecuación de Hamilton Jacobi tendrán como argumentos
S = S (qi , γi , t) W = W (qi , γi )
En particular podemos escoger γi = αi . Recordando que S y W son funciones generatrices tipo 2, sus
ecuaciones parciales asociadas son
pi = ∂S(q∂qi ,γi i ,t) pi = ∂W∂q(qi ,γi )
i
Qi = ∂S(q∂γi ,γi i ,t) = βi Qi = ∂W∂γ
(qi ,γi )
i
= vi (γj ) t + βi
La primera mitad de éstas ecuaciones se satisface automáticamante ya que han sido empleadas para cons-
truir la ecuación de Hamilton Jacobi. La segunda mitad se puede resolver para qi en términos de t y las 2n
constantes αi ,βi . Para terminar, se deben encontrar los valores especı́ficos de las 2n constantes para lo cual se
requieren los dos conjuntos de ecuaciones evaluados en t = t0 y empleando las condiciones iniciales q0 , p0 .
Finalmente, cuando el Hamiltoniano no es función explı́cita del tiempo, i.e. H = α1 = cte, ambos métodos
son adecuados y nos llevan a una misma ecuación de movimiento Ec. (9.32)
 
∂W
H qi , = α1 (9.42)
∂qi

sin embargo, la interpretación de la solución W (qi , γi ) es muy distinta para el formalismo de Hamilton-Jacobi
(HJ) con respecto a la interpretación en el formalismo de Hamilton-Jacobi restringido (HJR). En el formalismo
de HJ, W (qi , γi ) es solo una parte de la función generatriz de la TC, la función generatriz completa está dada
por
S (q, γ, t) = W (q, γ) − α1 t (9.43)
180 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

y S genera una TC que cambia el valor numérico del Hamiltoniano a una valor idénticamente nulo, trayendo
como consecuencia que todos los nuevos momentos y coordenadas son constantes de movimiento.
En contraste, para el formalismo HJR, la solución W (qi , γi ) representa la función generatriz completa, la
cual al ser independiente del tiempo no genera un cambio en el valor numérico del Hamiltoniano de modo
que K = α1 , la TC generada por W es tal que todas las nuevas coordenadas son cı́clicas. Como consecuencia,
los nuevos momentos son constantes de movimiento y las nuevas coordenadas son o bien constantes o bien
funciones lineales del tiempo.
Debe decirse sin embargo, que aunque W se interpreta de modo diferente en HJ y en HJR, ambas están
resolviendo el mismo problema Fı́sico.

9.5. Separación de variables en la ecuación de Hamilton-Jacobi


En esta sección no utilizaremos convención de suma sobre ı́ndices repetidos a menos que se especifique lo
contrario. Cabe preguntarse en qué casos la ecuación de Hamilton Jacobi es de utilidad práctica teniendo en
cuenta que en general las ecuaciones diferenciales parciales con múltiples incógnitas son de difı́cil solución.
Veremos que bajo ciertas condiciones, es posible hacer una separación de variables en la ecuación de Hamilton
Jacobi en cuyo caso es posible siempre reducir el problema a cuadraturas. En realidad, salvo casos excepcionales,
el formalismo de Hamilton Jacobi solo es efectivo cuando dicha separación es realizable.
Una coordenada qj se dice separable en la ecuación de Hamilton Jacobi cuando la función principal de
Hamilton (o la función caracterı́stica), se pueden separar en dos partes aditivas, una que solo depende de la
coordenada qj (y de los αi ) y otra que es totalmente independiente de qj . Por simplicidad pensemos que la
variable separable es q1 , la función principal de Hamilton se escribe como
S (q1 , . . . , qn ; α1 , . . . , αn ; t) = S1 (q1 ; α1 , . . . , αn ; t) + S ′ (q2 , . . . , qn ; α1 , . . . , αn ; t)
y la ecuación de Hamilton Jacobi se puede separar en dos ecuaciones, una separadamente para S1 y otra para S ′ .
Nótese que la condición de separabilidad ha sido impuesta a la solución de la ecuación y no al Hamiltoniano.
Adicionalmente decimos que la ecuación de Hamilton Jacobi (HJ) es totalmente separable (o simplemente
separable) cuando todas las coordenadas en el problema son separables, de modo que la función principal se
escribe como
Xn
S= Si (qi ; α1 , . . . , αn ; t) (9.44)
i=1
esta hipótesis de separación es consistente siempre que la introducir (9.44) en (9.5), se obtengan n ecuaciones
de la forma  
∂Sj ∂Sj
Hj qj ; ; α1 , . . . , αn ; t + =0 (9.45)
∂qj ∂t
es notable que si el Hamiltoniano no depende explı́citamente del tiempo, podemos tratar al tiempo como
variable separable y el paso de la función principal a la función caracterı́stica de Hamilton constituye entonces
un ejemplo de la forma en que trabaja la separación de variables. En este caso podemos parametrizar la función
principal de Hamilton en la forma
S (q, α, t) = S0 (α, t) + W (q, α)
al introducir esta solución en la ecuación de HJ, teniendo en cuenta que el Hamiltoniano no depende explı́ci-
tamente del tiempo resulta  
∂W ∂S0
H q, + =0
∂q ∂t
el primer término solo depende de las qi en tanto que el segundo depende solamente de t. Por tanto, ambos
términos deben ser constantes con valores opuestos
 
∂W ∂S0
H q, = α1 ; = −α1 ⇒ S0 = −α1 t
∂q ∂t
S (q, α, t) = −α1 t + W (q, α) (9.46)
9.5. SEPARACIÓN DE VARIABLES EN LA ECUACIÓN DE HAMILTON-JACOBI 181

donde claramente α1 coincide con el valor numérico del Hamiltoniano. La Ec. (9.46) está en concordancia con
(9.43). Naturalmente podemos sumar una constante al valor de S0 pero esto no tiene ninguna relevancia. Lo
importante es encontrar una solución para S, pues recordemos que la unicidad no se requiere para la función
generatriz.
Si además de que el Hamiltoniano es independiente del tiempo ocurre que todas las variables son separables,
podemos parametrizar cada Si de la forma

Si (qi ; α1 , . . . , αn ; t) = Wi (qi ; α1 , . . . , αn ) − αi t (9.47)

ahora bien, si la ecuación de HJ es realmente separable, la suposición de separabilidad de S debe conducirnos


a ecuaciones de la forma (9.45), que junto con la forma especı́fica de la hipótesis de separación (9.47) nos
dará un conjunto de n ecuaciones restringidas de HJ.
 
∂Wj
Hj qj ; ; α1 , . . . , αn = αj (9.48)
∂qj

Es de anotar que las funciones Hi pueden ser o no Hamiltonianos, esto está relacionado con el hecho de
que el concepto de separabilidad no involucra al Hamiltoniano sino a las soluciones de la ecuación de HJ.
Similarmente, las constantes de separación αi puede ser o no ser una energı́a, (aunque sus dimensiones son
siempre de energı́a), o alguna otra cantidad dependiendo de la naturaleza de qi .
Las constantes αi se denominan constantes de separación. Cada una de las ecuaciones (9.48) involucra
solo una coordenada qj y la correspondiente derivada parcial de Wj con respecto a qj . En consecuencia, resultan
un conjunto de ecuaciones diferenciales ordinarias de primer orden. Dado que en principio podemos resolver
para despejar ∂Wj /∂qj para luego integrar sobre qj , se deduce que el problema está reducido a cuadraturas.
En la práctica ocurre con frecuencia que cada Hi solo contiene uno o unos pocos α′ s. Adicionalmente,
existen escenarios en donde solo r variables son separables y las restantes n − r variables no pueden separarse.
En tal caso, solo podemos reducir a cuadraturas la ecuación de movimiento de las r variables separables como
veremos más adelante.
Finalmente salvo casos excepcionales, casi todas las aplicaciones útiles del formalismo de HJ involucran
Hamiltonianos independientes del tiempo en donde t es una coordenada separable para S (y “cı́clica” para
W ). En consecuencia, la discusión subsecuente sobre separabilidad se limitará a Hamiltonianos constantes y
se utilizará solamente la función caracterı́stica W .

9.5.1. Coordenadas ignorables y separabilidad


Podemos demostrar fácilmente que una coordenada cı́clica es separable. Por simplicidad, tomemos a q1
como la coordenada cı́clica, su momento conjugado es una constante de movimiento que denotaremos como
γ1 . La ecuación de Hamilton Jacobi restringida queda
 
∂W ∂W
H q2 , . . . , qn ; γ1 ; ,..., = α1 (9.49)
∂q2 ∂qn
si proponemos una solución de la forma

W = W1 (q1 , α) + W ′ (q2 , . . . , qn ; α) (9.50)

introduciendo (9.50) en (9.49) queda claro que en la Ec. (9.49) solo queda la parte aditiva W ′ , en tanto que
W1 es la solución de la ecuación (9.33) con i = 1
∂W ∂W1
p1 = γ1 = = (9.51)
∂q1 ∂q1
γ1 es por tanto la constante de separación, la solución obvia para W1 (excepto por una constante aditiva) es

W1 = γ1 q1 (9.52)
182 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

con lo cual W estará dado por


W = W ′ + γ1 q1 (9.53)
hay una gran semejanza entre la Ec. (9.53) y la forma que S asume cuando el Hamiltoniano es independiente del
tiempo Ec. (9.43). Esto no es sorprendente ya que nuevamente, es como suponer que la variable “cı́clica” tiempo
asociada al “momento conjugado” constante −H conduzca a una ecuación del tipo (9.53) con γ1 → −H = −α1
y con q1 → t. Sin embargo, es importante insistir en que esta es solo una analogı́a ya que t no es una coordenada
generalizada sino un parámetro. Es cierto que H = α1 puede ser elegido como un momento conjugado, pero a
una coordenada generalizada y no al tiempo.
Si un número s de las n coordenadas son no cı́clicas y además suponemos que S es totalmente separable,
podemos extender el resultado anterior. El Hamiltoniano viene dado por

H = H (q1 , . . . , qs ; α1 , . . . , αn ) (9.54)

y la función caracterı́stica se escribe como


s
X n
X
W (q1 , . . . , qs ; α1 , . . . , αn ) = Wi (qi ; α1 , . . . , αn ) + qi αi (9.55)
i=1 i=s+1

y hay s ecuaciones de HJ para solucionar


 
∂Wi
Hi qi ; ; α1 , . . . , αn = αi ; i = 1, ..., s
∂qi
y dado que estas son ecuaciones diferenciales ordinarias de primer orden en la variable independiente qi , se
pueden reducir inmediatamente a cuadraturas, y la solución completa para W se puede obtener.

9.5.2. Condiciones más generales para la separabilidad


En general, una coordenada qj se puede separar si qj y su momento conjugado pj se pueden aislar en el
Hamiltoniano en alguna función f (qj , pj ) que no contiene a ninguna otra variable. Postulemos una solución
de ensayo de la forma

W = Wj (qj , α) + W ′ (qi , α) ; i = 1, . . . , j − 1, j + 1, . . . , n (9.56)

donde qi representa el conjunto de todos los q’s excepto qj . Supongamos que el ansatz de separación (9.56) nos
conduce a que la ecuación restringida de HJ tenga la forma
  
∂W ′ ∂Wj
H qi ; ; f qj , = α1 ; i = 1, . . . , j − 1, j + 1, . . . , n (9.57)
∂qi ∂qj

esta ecuación se puede invertir (al menos formalmente) para despejar a f


   
∂Wj ∂W ′
f qj , = g qi , , α1 ; i = 1, . . . , j − 1, j + 1, . . . , n (9.58)
∂qj ∂qi

ahora bien, el lado izquierdo depende exclusivamente de qj en tanto que el lado derecho solo depende de las
otras variables q. Por tanto la Ec. (9.58) solo puede ser cierta si ambos lados son iguales a la misma constante
por lo tanto    
∂Wj ∂W ′
f qj , = αj ; g qi , = αj ; i = 1, . . . , j − 1, j + 1, . . . , n
∂qj ∂qi
con lo cual se ha logrado la separación de la variable qj .
Vale la pena resaltar que la separabilidad depende no solo del problema fı́sico sino también del sistema de
coordenadas generalizadas usado. Por ejemplo el problema de un cuerpo bajo una fuerza central es separable
en coordenadas polares pero no en cartesianas. En algunos casos la ecuación de HJ no se puede separar
9.6. FUERZAS CENTRALES EN EL FORMALISMO DE HAMILTON-JACOBI 183

completamente como es el caso en el problema de los tres cuerpos. En contraste, para algunos problemas
fı́sicos es posible separar la ecuación de HJ en más de un sistema coordenado. En general solo es posible
encontrar una solución cerrada para la ecuación de HJ cuando las variables son completamente separables.
En consecuencia, se han estudiado con profundidad diversos métodos para encontrar los sistemas coordenados
apropiados para cada problema.
En general no hay un criterio simple para indicar qué sistemas coordenados conducen a soluciones de
Hamilton Jacobi separables para un problema especı́fico. Sin embargo, en el caso de sistemas ortogonales de
coordenadas, las llamadas condiciones de Staeckel resultan muy útiles. Estas son condiciones necesarias y
suficientes para la separabilidad bajo ciertas circunstancias. Dichas condiciones son las siguientes:

1. El Hamiltoniano se conserva.
2. El Lagrangiano es solo una función cuadrática de las velocidades generalizadas de tal forma que el
Hamiltoniano tiene la estructura dada por la Ec. (6.20) con L0 (q, t) = −V (q)
1
H= (e a) T−1 (p − a) − V (q)
p−e
2
3. El sistema coordenado es un sistema ortogonal, esto trae como consecuencia que la matriz T sea diagonal
y por lo tanto también lo es su inversa
 1
T−1 ij
= δij (no suma)
Tii

4. El vector a tiene elementos ai que solo dependen de su coordenada correspondiente i.e. ai = ai (qi )
5. La función potencial V (q) es separable en la forma
Vi (qi )
V (q) = (9.59)
Tii

6. Existe una matriz Φ de dimensión n × n con elementos Φij = Φij (qi ) de tal forma que
 1
Φ−1 1j
= (no suma)
Tjj

Si se cumplen las condiciones de Staeckel, la función caracterı́stica de Hamilton será completamente sepa-
rable. X
W (q) = Wi (qi )
i
y cada Wi satisface las ecuaciones
 2
∂Wi
− ai = −2Vi (qi ) + 2φij γj
∂qi
siendo las γj constantes de integración y solo hay suma sobre j. La última condición resulta a priori muy
complicada. Sin embargo veremos más adelante que en la práctica ocurre a menudo que solo es necesario probar
la existencia de la matriz Φ, sin que sea necesario encontrar su forma explı́cita. Esto facilita enormemente
aplicar las condiciones de Staeckel. Para más información sobre las condiciones de Staeckel, remitimos al lector
al apéndice D de la segunda edición de la Ref. [1].

9.6. Fuerzas centrales en el formalismo de Hamilton-Jacobi


En esta sección nos limitaremos a plantear el problema de una partı́cula sometida a una fuerza central y
reducirlo a cuadraturas empleando el método de HJ. El propósito es solo ilustrar el método ya que los detalles
sobre este problema se discutirán en el capı́tulo 10.
184 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

9.6.1. Problema bidimensional


Consideremos el problema de una partı́cula sometida a una fuerza central descrita por el potencial V (r).
En virtud de la conservación del momento angular, se puede observar que el movimiento debe realizarse en un
plano. El Hamiltoniano para este sistema bidimensional se escribe como
 
1 2 p2θ
H= pr + 2 + V (r) (9.60)
2m r
dado que θ es cı́clica, podemos escribir W en la forma (9.55)

W = W1 (r) + αθ θ (9.61)

donde
αθ = pθ ≡ l (9.62)
es el momento conjugado a θ i.e. la magnitud del momento angular. Para el Hamiltoniano (9.60), la ecuación
de Hamilton Jacobi restringida (9.32) queda de la forma
"  #
1 ∂W 2 (∂W/∂θ)2
+ + V (r) = α1
2m ∂r r2
 
dW1 2 α2θ
+ 2 + 2mV (r) = 2mα1 (9.63)
dr r
recordemos que α1 se identifica con el valor numérico del Hamiltoniano y en este caso, de la energı́a total
del sistema. La Ec. (9.63) es una ecuación diferencial ordinaria para W1 (r) que se puede reducir en forma
inmediata a cuadraturas s
 
dW1 α2
= 2m [α1 − V (r)] − 2θ
dr r
y la función W dada por (9.61) queda en la forma
s 
Z 2
α
W = αθ θ +  2m [α1 − V (r)] − 2θ  dr
r

con esta expresión las Ecs. (9.38) toman la forma


Z
∂W m dr
t + β1 = = q (9.64)
∂α1 α2
2m [α1 − V (r)] − r2θ
Z
∂W ∂W αθ dr
β2 = = =θ− q (9.65)
∂α2 ∂αθ α2θ
r 2 2m [α1 − V (r)] − r2

La ecuación (9.64) nos da r = r (t) y en general, las constantes α1 y αθ se pueden relacionar con las cantidades
conservadas energı́a y momento angular (en el problema de una partı́cula sometida a una fuerza central, es
más común conocer la energı́a y el momento angular como condiciones iniciales, en lugar de las tradicionales
condiciones iniciales de posición y momento). Como ya se mencionó, las restantes ecuaciones de Qi que no
involucran explı́citamente al tiempo, proporcionan la ecuación de la órbita. En este caso solo hay una ecuación
remanente para la órbita Ec. (9.65). En general resulta útil realizar el cambio de variable u = 1/r en (9.65)
con lo que la ecuación de la órbita queda en la forma
Z
du
θ = β2 − q (9.66)
2m 2
α2 (α1 − V ) − u
θ

β2 estará relacionado con el ángulo inicial medido en un sistema de ejes apropiado.


9.6. FUERZAS CENTRALES EN EL FORMALISMO DE HAMILTON-JACOBI 185

9.6.2. La dinámica de las fuerzas centrales como problema tridimensional


En la anterior sección asumimos desde el principio que el movimiento se ejecutaba en un plano en virtud de
la conservación del momento angular. Resulta ilustrativo trabajar el mismo problema pero asumiendo que el
movimiento es en general en tres dimensiones para llegar posteriormente a la conclusión de que el movimiento
es bidimensional. Comencemos entonces con el Hamiltoniano asociado a una partı́cula sometida a un potencial
central en coordenadas esféricas, Ec. (6.25)
!
1 2 p2θ p2φ
H= pr + 2 + 2 2 + V (r) (9.67)
2m r r sin θ
asumiendo separación de variables, la función caracterı́stica de Hamilton Jacobi queda de la forma

W = Wr (r) + Wθ (θ) + Wφ (φ) (9.68)

y dado que la coordenada φ es cı́clica en el Hamiltoniano (9.67) tenemos que

Wφ = αφ φ (9.69)

donde αφ es una constante de integración y coincide con el momento conjugado a φ como se puede ver teniendo
en cuenta las Ecs. (9.51) y (9.52). Usando la forma de W dada por las Ecs. (9.68, 9.69) la ecuación de Hamilton
Jacobi queda de la forma
  "  #
∂Wr 2 1 ∂Wθ 2 α2φ
+ 2 + + 2mV (r) = 2mE (9.70)
∂r r ∂θ sin2 θ

donde hemos escrito la constante de integración α1 como la energı́a que es el valor numérico de nuestro
Hamiltoniano. Nótese que toda dependencia de θ ha sido separada en el término entre paréntesis cuadrados,
es decir cumple con la estructura de la Ec. (9.57). Esto nos implica que esta función de θ se puede igualar a
una constante según el razonamiento hecho en la sección 9.5.2, por ejemplo despejando el término mencionado
queda " #
  2
∂Wθ 2 α2φ 2 2 ∂Wr
+ = 2mr [E − V (r)] − r
∂θ sin2 θ ∂r

el miembro izquierdo depende solo de θ y el derecho solo de r luego ambos deben igualarse a la misma constante
 2
∂Wθ α2φ
= α2θ
+ (9.71)
sin2 θ
∂θ
 2
2 2 ∂Wr
2mr [E − V (r)] − r = α2θ (9.72)
∂r

y obtenemos dos ecuaciones diferenciales ordinarias para θ y r que ya me reducen el problema a cuadraturas.
Nótese que la ecuación diferencial para r también se puede encontrar reemplazando (9.71) en (9.70) quedando
 2
∂Wr α2θ
+ = 2m [E − V (r)] (9.73)
∂r r2

esta ecuación es claramente equivalente a (9.72). El único aspecto que falta determinar es la asociación de las
constantes E, αφ , αθ con cantidades fı́sicas. La cantidad E es la energı́a del sistema. Por otro lado, αφ es el
momento conjugado a la variable φ, y sabemos que el momento conjugado a una variable angular corresponde
a la componente del momento angular del sistema a lo largo del eje de rotación que rotarı́a al sistema como
un todo en una cantidad dφ, este eje serı́a claramente el eje z y por tanto αφ corresponde a la componente
polar del momento angular Lz .
186 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

No es tan sencillo identificar el significado Fı́sico de αθ por múltiples razones. En primer lugar, esta cantidad
aparece como una constante de separación y no como el momento conjugado a θ (de por sı́ veremos más adelante
que no lo es), por otro lado una variación en θ no define un único eje de rotación, ya que a diferencia de φ
cuya variación ocurre siempre sobre el plano XY , la variación en θ se da en el plano definido por el eje Z y
el vector instantáneo de posición, este plano claramente cambia cuando varı́a la dirección del vector posición.
Finalmente, θ no puede tomar cualquier valor (0 ≤ θ ≤ π) con lo cual se dificulta su interpretación como ángulo
de rotación. Para encontrar el significado fı́sico de αθ , calculemos primero los momentos conjugados a cada
variable angular recurriendo al correspondiente Lagrangiano en tres dimensiones para coordenadas esféricas
de la partı́cula sometida al potencial V (r) i.e.
1  2 
L (r, θ, φ) = m ṙ + r 2 θ̇ 2 + r 2 φ̇2 sin2 θ − V (r)
2
los momentos conjugados a las variables angulares quedan

∂L (r, θ, φ)
pθ = = mr 2 θ̇ (9.74)
∂ θ̇
∂L (r, θ, φ)
pφ = = mr 2 φ̇ sin2 θ (9.75)
∂ φ̇

ahora veremos la relación entre αθ , αφ y los momentos pθ , pφ 7 . Ya hemos mencionado que αφ es el momento
conjugado a la variable φ

∂Wφ
αφ = pφ = (9.76)
∂φ
Para relacionar αθ con los momentos conjugados, podemos reescribir (9.71) en la forma

p2φ
p2θ + = α2θ (9.77)
sin2 θ
de tal manera que el Hamiltoniano (9.67), se puede reescribir como
 
1 2 α2θ
H= pr + 2 + V (r) (9.78)
2m r

y comparando (9.78) con el Hamiltoniano (9.60) y usando (9.62) resulta8

αθ = pθ (asociado a dos dimensiones) ≡ l (9.79)

lo cual ya nos da el significado fı́sico de αθ como el módulo del momento angular del sistema. Nótese que en
tres dimensiones la conservación del módulo del momento angular no está asociado a una variable cı́clica como
sı́ ocurre en dos dimensiones9 , pues θ no es variable cı́clica en tres dimensiones y por tanto pθ no es constante
de movimiento como se puede apreciar de (9.77), de esta ecuación también se observa que l se escribe en
términos de los momentos asociados a ambos ángulos.
Vemos entonces que la conservación de las constantes E, αφ , αθ representan fı́sicamente la conservación de
la energı́a, de la componente polar del momento angular y del módulo del momento angular respectivamente.
En este ejemplo, vemos que el método de Hamilton Jacobi resulta particularmente poderoso para extraer las
constantes de movimiento ası́ como las ecuaciones de r = r (t) y de la órbita. Adicionalmente, el formalismo
7
A priori estarı́amos tentados a interpretar a pθ = mr 2 θ̇ como el módulo del momento angular total, pero en tres dimensiones
θ̇ no es la velocidad angular con que la partı́cula se mueve sobre el plano. En particular, nótese que θ no es cı́clica y por tanto pθ
no es constante de movimiento.
8
Los Hamiltonianos (9.78) y (9.60) se pueden comparar apropiadamente, ya que tanto en coordenadas polares planas como en
coordenadas esféricas, la coordenada r se refiere a la distancia al origen.
9
El modulo del momento angular en tres dimensiones aparece como una constante de separación αθ .
9.7. OTROS PROBLEMAS DE APLICACIÓN CON EL FORMALISMO DE H-J 187

de Hamilton Jacobi para este problema es separable en otras coordenadas como las parabólicas y elı́pticas, y
las constantes aparecen en forma apropiada para cada sistema coordenado.
Este problema también provee un escenario natural para emplear las condiciones de Staeckel de modo que
encontremos el potencial más general V para una partı́cula que haga que las soluciones de la ecuación sean
totalmente separables en coordenadas esféricas. La matriz Φ de las condiciones de Staeckel solo depende del
sistema coordenado y no del potencial. Como acabamos de demostrar que la ecuación de Hamilton Jacobi
es separable para al menos un potencial en coordenadas esféricas, las condiciones de Staeckel me dicen que
dicha matriz tiene que existir, y observamos por otro lado que no requerimos de la forma especı́fica de Φ
para encontrar las condiciones de separabilidad, solo requerimos de su existencia. Adicionalmente, el arreglo
rectangular columna a es nulo y sabemos que el sistema de coordenadas esféricas es ortogonal, de modo que
las condiciones de Staeckel se reducen a aplicar (9.59), para encontrar la forma separable más general del
potencial. Para ello encontramos primero los elementos (diagonales) de la matriz de energı́a cinética (ver Ec.
6.24, Pág. 98)
Trr = m ; Tθθ = mr 2 ; Tφφ = mr 2 sin2 θ (9.80)
aplicando (9.59) la estructura más general del potencial separable es de la forma

Vr′ (r) Vθ′ (θ) Vφ (φ) Vθ (θ) Vφ (φ) Vq′ (q)
V (q) = + + = Vr (r) + 2
+ 2 2 ; Vq (q) ≡
Trr Tθθ Tφφ r r sin θ m
se puede comprobar la separabilidad de este potencial por sustitución directa en la ecuación de HJ.

9.7. Otros problemas de aplicación con el formalismo de H-J


9.7.1. Partı́cula sometida a potencial armónico y campo magnético
Sea una partı́cula restringida a moverse en un plano, bajo la influencia de un potencial central (no elec-
tromagnético) V (r) = (k/2) r 2 y un campo magnético constante B, perpendicular al plano. Reduciremos este
problema a cuadraturas utilizando HJ. Supondremos que el plano de movimiento pasa por el origen (el foco
del potencial central) de modo que las fuerzas armónica y magnética están en dicho plano.
Si bien puede existir una fuerza extra de ligadura que mantenga a la partı́cula en el plano10 , ésta no
produce trabajo virtual y no contribuye al potencial y por tanto, tampoco contribuye al Lagrangiano ni al
Hamiltoniano. Tomando XY como el plano de movimiento, el Lagrangiano en coordenadas cartesianas se
escribe
m 2  k 2 
L= ẋ + ẏ 2 + q (ṙ · A) − x + y2
2 2
un potencial vectorial válido para campo magnético homogéneo y constante es el dado por la Ec. (5.72), Pág.
(91)

1 1 1
A = B × r = Buz × (xux + yuy + zuz ) = (xBuy − yBux )
2 2 2
1 B
ṙ · A = (ẋux + ẏuy + żuz ) · (−yBux + xBuy ) = (xẏ − y ẋ)
2 2
y el Lagrangiano queda
m 2  qB k 2 
L= ẋ + ẏ 2 + (xẏ − y ẋ) − x + y2
2 2 2
introduciendo coordenadas polares

x = r cos θ , ẋ = ṙ cos θ − r θ̇ sin θ ; y = r sin θ , ẏ = ṙ sin θ + r θ̇ cos θ


10
Aunque las fuerzas aplicadas están en el plano, una componente de la velocidad inicial perpendicular al plano, sacarı́a a la
partı́cula de éste.
188 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

el Lagrangiano queda

m 2  qB h    i k
L = ṙ + r 2 θ̇ 2 + (r cos θ) ṙ sin θ + r θ̇ cos θ − (r sin θ) ṙ cos θ − r θ̇ sin θ − r 2
2 2    2  
m 2  qB 2 k k  0 1  m 0 ṙ
L = ṙ + r 2 θ̇ 2 + r θ̇ − r 2 = − r 2 + ṙ θ̇ qB 2 + ṙ θ̇ 2
2 2 2 2 2 r 2 0 mr θ̇

comparando con (6.16), tenemos


     1

k 0 m 0 0
L0 (q, t) = − r 2 ; a = qB 2 ; T= ; T −1
= m
1
2 2 r
0 mr 2 0 mr 2

y usando (6.20) podemos escribir el Hamiltoniano


 1
 
1 1 qB 2
 0 pr k
H = p−e
(e a) T−1 (p − a) − L0 (q, t) = pr pθ − 2 r
m + r2
2 2 0 1
mr 2 pθ − qB2 r
2
2
 
1 2 1 qB 2 2 1 2
H = pr + p θ − r + kr (9.81)
2m 2mr 2 2 2

aplicando la ecuación de Hamilton-Jacobi (9.5) al Hamiltoniano (9.81), se obtiene


 2  2
1 ∂S 1 ∂S qB 2 1 ∂S
+ − r + kr 2 + =0 (9.82)
2m ∂r 2mr 2 ∂θ 2 2 ∂t

puesto que el Hamiltoniano no depende explı́citamente del tiempo y θ es cı́clica, proponemos una solución de
la forma
S (r, θ, E, α, t) = Wr (r, E, α) + pθ θ − Et (9.83)
con lo cual la ecuación de HJ (9.82) queda
 2  2
1 dWr 1 qB 2 1
+ pθ − r + kr 2 = E
2m dr 2mr 2 2 2

cuya solución formal es s


Z  2
1 qB 2
Wr (r) = dr 2mE − mkr 2 − pθ − r (9.84)
r2 2

definiendo k = mω02 , la solución se puede reescribir como


v "
Z u
u    2 #
qBp qB p2
dr t2m E +
θ
Wr (r) = − m2 ω02 + r 2 − 2θ (9.85)
2m 2m r

Si comparamos esta solución con la solución (9.31) para el oscilador armónico bidimensional isotrópico, vemos
que la Ec. (9.85) equivaldrı́a a un oscilador armónico bidimensional isotrópico con energı́a E ′ y frecuencia
angular ω dadas por
q r
′ 2 2
k qB
E = E + ω c pθ , ω = ω 0 + ω c ; ω 0 ≡ , ωc ≡
m 2m
nótese que ωc es la mitad de la frecuencia de ciclotrón de la partı́cula en el campo magnético B. Cuando B = 0,
se obtiene E ′ = E y ω = ω0 como era de esperarse. Naturalmente, el problema puede formularse directamente
con la función caracterı́stica W en lugar de la función principal S.
9.7. OTROS PROBLEMAS DE APLICACIÓN CON EL FORMALISMO DE H-J 189

9.7.2. Partı́cula bajo potencial conservativo en coordenadas elipsoidales


Una partı́cula en el espacio está sometida a un potencial conservativo V (r). Escribiremos las ecuaciones de
HJR en coordenadas elipsoidales u, v, φ, las cuales se pueden definir con respecto a las coordenadas cilı́ndricas
(r, z, φ) de la siguiente manera
r = a sinh v sin u ; z = a cosh v cos u ; φ=φ (9.86)
donde a es una distancia arbitraria pero fija (a > 0). Encontraremos la ecuación de HJR asociada al problema.
Comenzamos por plantear la energı́a cinética T en coordenadas elipsoidales. Para ello partimos de la
expresión de T en coordenadas cilı́ndricas
1  1
T = m ṙ 2 + ż 2 + mr 2 φ̇2 (9.87)
2 2
y usando las relaciones (9.86) obtenemos

ṙ = av̇ cosh v sin u + au̇ sinh v cos u ; ż = av̇ sinh v cos u − au̇ cosh v sin u
ṙ + ż 2 = a2 (cosh2 v sin2 u + sinh2 v cos2 u)(v̇ 2 + u̇2 )
2
  
= a2 1 + sinh2 v sin2 u + sinh2 v 1 − sin2 u (v̇ 2 + u̇2 )
ṙ 2 + ż 2 = a2 (sin2 u + sinh2 v)(v̇ 2 + u̇2 )
de modo que la energı́a cinética (9.87) y el Lagrangiano en coordenadas elipsoidales queda
1 1 
T ma2 (sin2 u + sinh2 v)(v̇ 2 + u̇2 ) + ma2 sinh2 v sin2 u φ̇2
=
2 2
1 1 
L = ma (sin u + sinh v)(v̇ + u̇ ) + ma2 sinh2 v sin2 u φ̇2 − V (u, v, φ)
2 2 2 2 2
2 2
L = −V (u, v, φ) +
 2 (sin2 u + sinh2 v)
 
 ma 0 0 u̇
1
+ u̇ v̇ φ̇  0 ma2 (sin2 u + sinh2 v) 0 
  v̇ 
2 2 2 2
0 0 ma sinh v sin u φ̇
comparando con (6.16) tenemos
 
sin2 u + sinh2 v 0 0
L0 = −V (u, v, φ) ; T = ma2  0 sin2 u + sinh2 v 0 
2 2
0 0 sinh v sin u
 1

2 2 0 0
−1 1  sin u+sinh v 1 
a = 0 ; T =  0 sin2 u+sinh2 v
0 
ma2 1
0 0 sinh2 v sin2 u

con lo cual el Hamiltoniano (6.20) queda


 1
 
sin2 u+sinh2 v
0 0 u̇
1  1 
e T−1 p − L0 =
H = p pu pv pφ  0 sin2 u+sinh2 v
0  v̇  + V (u, v, φ)
2ma2 1
0 0 φ̇
sinh2 v sin2 u
p2u + p2v p2φ
H = + + V (u, v, φ) (9.88)
2ma2 (sin2 u + sinh2 v) 2ma2 sinh2 v sin2 u
para este Hamiltoniano, la ecuación de Hamilton-Jacobi restringida (9.32) nos da
h   i  2
∂W 2 ∂W 2 ∂W
∂u + ∂v ∂φ
2
+ + V (u, v, φ) = E
2 2
2ma sin u + sinh v 2ma sinh2 v sin2 u
2
190 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

asumiendo separabilidad aditiva de la función caracterı́stica de Hamilton, tenemos

W = Wu + Wv + Wφ

con lo cual la ecuación de HJR queda


h   i  
∂Wu 2 ∂Wv 2 ∂Wφ 2
∂u + ∂v ∂φ
2
+ + V (u, v, φ) = E (9.89)
2ma 2 2
sin u + sinh v 2ma2 sinh2 v sin2 u
Simplificaremos un poco el problema asumiendo que el potencial tiene simetrı́a azimutal, de modo que
V = V (u, v). En tal caso, φ será cı́clica en el Hamiltoniano (9.88), con lo cual Wφ = pφ φ, siendo

∂L
pφ = = mφ̇ a2 sinh2 v sin2 u = mr 2 φ̇ = cte
∂ φ̇

y la ecuación de HJR se simplifica en la forma


h   i
∂Wu 2 ∂Wv 2 
∂u + ∂v sin2 u + sinh2 v p2φ  
2
+ 2 2 2
+ sin2 u + sinh2 v V (u, v) = sin2 u + sinh2 v E
h 2ma i 2ma sinh v sin u
∂Wu 2
 
∂Wv 2  
∂u + ∂v p2φ 1 1  
2
+ 2 2 + 2 + sin2 u + sinh2 v V (u, v) = sin2 u + sinh2 v E
2ma 2ma sinh v sin u

esta ecuación se puede reescribir en la forma


"  # 
∂Wu 2 p2φ  ∂Wv 2 p2φ
∂u 2 2 2 2 ∂v
+ − E sin u + sin u + sinh v V (u, v) = E sinh v − − (9.90)
2ma2 2ma2 sin2 u 2ma2 2ma2 sinh2 v

que estructuralmente se escribe como



F (u) + sin2 u + sinh2 v V (u, v) = G (v)

es claro que esta ecuación admitirá separación de variables si el término sin2 u + sinh2 v V (u, v) se puede
separar, es decir si se cumple

sin2 u + sinh2 v V (u, v) = Vu (u) + Vv (v)
Vu (u) + Vv (v)
V (u, v) = (9.91)
sin2 u + sinh2 v

si el potencial tiene la estructura dada en (9.91), la Ec. (9.90) queda



∂Wu 2

∂Wv 2
∂u
p2φ 2 2 ∂v
p2φ
+ − E sin u + Vu (u) = E sinh v − − − Vv (v) (9.92)
2ma2 2ma2 sin2 u 2ma2 2ma2 sinh2 v
y dado que el miembro izquierdo solo depende de u y el derecho solo de v, ambos deben ser iguales a una cons-
tante A, con lo cual obtenemos dos ecuaciones diferenciales ordinarias que reducen el problema a cuadraturas
 
1 dWu 2 p2φ
+ − E sin2 u + Vu (u) = A (9.93)
2ma2 du 2ma2 sin2 u
 
1 dWv 2 p2φ 2
+ 2 − E sinh v + Vv (v) = −A (9.94)
2ma2 dv 2
2ma sinh v
9.7. OTROS PROBLEMAS DE APLICACIÓN CON EL FORMALISMO DE H-J 191

Partı́cula puntual bajo el campo gravitacional de dos masas desiguales por HJR
Vamos a ilustrar la separación de variables en la Ec. (9.92), reduciendo a cuadraturas el problema de una
masa puntual m, que se mueve en el campo gravitacional generado por dos masas desiguales fijas M1 y M2 .
Dado que a en las Ecs. (9.86) es una cantidad positiva arbitraria pero fija, la definiremos de modo que sea la
mitad de la distancia entre M1 y M2 . Sin pérdida de generalidad, podemos asumir que M1 y M2 yacen en el
eje Z en las posiciones r1 = auz , r2 = −auz . Si r es la posición de la masa m, el potencial generado por M1 y
M2 en la posición r de m será
GmM1 GmM2 GmM1 GmM2
V (r) = − − =− − (9.95)
|r − r1 | |r − r2 | |r − auz | |r + auz |

una ventaja de poner a M1 y M2 sobre el eje Z, es que el potencial tendrá automáticamente simetrı́a azimutal.
Resta entonces demostrar que el potencial (9.95) posee en coordenadas elipsoidales la estructura dada en la
Ec. (9.91), para reducir este problema a cuadraturas.
Denotaremos a la posición de la masa m como r = xux + yuy + zuz de modo que

|r ± auz |2 = |xux + yuy + (z ± a) uz |2 = x2 + y 2 + (z ± a)2


|r ± auz |2 = r 2 + (z ± a)2 (9.96)

donde r, z y φ son las coordenadas cilı́ndricas de r. Ahora escribimos la expresión (9.96) en coordenadas
elipsoidales, haciendo uso de las Ecs. (9.86)

|r ± auz |2 = a2 sinh2 v sin2 u + (a cosh v cos u ± a)2



= a2 sinh2 v sin2 u + cosh2 v cos2 u + 1 ± 2 cosh v cos u

nótese que esta factorización fue posible, debido a que la constante a de la Ec. (9.86) se hizo coincidir con la
mitad de la distancia entre M1 y M2 de modo que r1,2 = ±auz . Usando cosh2 v = 1 + sinh2 v, tenemos

  
|r ± auz |2 = a2 sinh2 v sin2 u + 1 + sinh2 v cos2 u + 1 ± 2 cosh v cos u
= a2 (sinh2 v + cos2 u + 1 ± 2 cosh v cos u)
= a2 (cosh2 v + cos2 u ± 2 cosh v cos u)

de lo cual se obtiene finalmente

|r ± auz |2 = a2 (cosh v ± cos u)2


que al reemplazar en el potencial (9.95) nos da

GmM1 GmM2 1 GmM1 (cosh v + cos u) + GmM2 (cosh v − cos u)


V =− − =−
a (cosh v − cos u) a (cosh v + cos u) a cosh2 v − cos2 u
el denominador se puede reescribir como

cosh2 v − cos2 u = sinh2 v + 1 − cos2 u = sinh2 v + sin2 u

reorganizando numerador y denominador, el potencial queda

1 Gm (M1 − M2 ) cos u + Gm (M1 + M2 ) cosh v


V (u, v) = −
a sin2 u + sinh2 v
1   1 
a Gm (M2 − M1 ) cos u + − a Gm (M1 + M2 ) cosh v Vu (u) + Vv (v)
V (u, v) = 2 ≡
2
sin u + sinh v sin2 u + sinh2 v
192 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

por tanto este potencial posee la estructura (9.91) con


1 1
Vu (u) = Gm (M2 − M1 ) cos u ; Vv (v) = − Gm (M1 + M2 ) cosh v (9.97)
a a
y reemplazando (9.97) en las Ecs. (9.93, 9.94) el problema queda reducido a cuadraturas
 
1 dWu 2 p2φ 1
2
+ 2 2 − E sin2 u + Gm (M2 − M1 ) cos u = A (9.98)
2ma du 2ma sin u a
 2 2
1 dWv pφ 1
2
+ 2 2 − E sinh2 v − Gm (M1 + M2 ) cosh v = −A (9.99)
2ma dv 2ma sinh v a

9.8. Variables acción-ángulo para sistemas con un grado de libertad


En múltiples ramas de la Fı́sica es de interés el estudio de movimientos periódicos. En muchos casos no
estamos interesados en los detalles de la órbita sino en la determinación de las frecuencias del movimiento. Una
variante del formalismo de Hamilton-Jacobi nos permite hallar el periodo de estos movimientos sin resolver
completamente la ecuación de movimiento. Ya hemos enfatizado que en el método de HJ, no estamos obligados
a tomar como nuevos momentos conjugados a las n constantes de integración αi , sino que podemos tomar un
conjunto de n funciones γk (α) independientes entre sı́. Aprovechando esta arbitrariedad, no definiremos los
nuevos momentos conjugados como las constantes de integración αi sino como ciertas funciones de las αi que
contienen información sobre un ciclo completo de movimiento, estos nuevos momentos se denotan por Ji y se
denominan variables de acción.

Figura 9.1: Trayectoria en el espacio de fase de un sistema unidimensional (a) para periodicidad tipo libración
y (b) para periodicidad tipo rotación.

Consideraremos en primera instancia el caso de un solo grado de libertad. Asumiremos además que el
Hamiltoniano es constante
H (q, p) = α1
podemos resolver para el momento y obtener

p = p (q, α1 ) (9.100)

la Ecuación (9.100) se puede considerar como una ecuación de trayectoria en el espacio de fase. Cuando el
movimiento es periódico se habla de una órbita en el espacio de fase. Definiremos dos tipos de periodicidad de
acuerdo con las caracterı́sticas de la órbita en el espacio de fase:
9.8. VARIABLES ACCIÓN-ÁNGULO PARA SISTEMAS CON UN GRADO DE LIBERTAD 193

1. En el primer tipo la órbita es cerrada en el espacio de fase como se ve en la figura 9.1(a). De


modo que el punto que define la dinámica en el espacio de fase, regresa sobre la misma trayectoria en
forma periódica. Tanto q como p son funciones periódicas en el tiempo con la misma frecuencia. Un
movimiento periódico de esta naturaleza se puede encontrar cuando la posición inicial yace entre dos
ceros de la energı́a cinética, este movimiento se conoce con el término astronómico de libración y tiene
como principal exponente al oscilador armónico unidimensional.

2. En el segundo tipo de órbita, la trayectoria en el espacio de fase es tal que p es una función periódica de
q, con periodo q0 , como se ilustra en la figura 9.1(b). Equivalentemente este tipo de movimiento implica
que cuando la coordenada se incrementa en q0 , el sistema permanece básicamente inalterado. El ejemplo
mas familiar es el cuerpo rı́gido que rota sobre un eje fijo, siendo q el ángulo de rotación. Cuando se
incrementa q en 2π, no se produce ningún cambio esencial en el estado del cuerpo rı́gido. En realidad
para este tipo de periodicidad la coordenada de posición está siempre asociada a un ángulo de rotación
de tal modo que el movimiento periódico asociado se denomina simplemente rotación, en constraste con
la libración. En este caso los valores de q ya no están acotados sino que pueden crecer indefinidamente.

Figura 9.2: Trayectorias en el espacio de fase de un péndulo simple, para diferentes condiciones iniciales.
Cuando E < mgl, obtenemos una órbita cerrada i.e periodicidad tipo libración. Para el caso E=mgl tenemos
bifurcación. Finalmente, cuando E > mgl, tenemos periodicidad de rotación.

Hay sistemas fı́sicos que pueden exhibir cualquiera de estos dos tipos de movimiento periódico. Un ejemplo
sencillo es el péndulo simple consistente en una lenteja sostenida por una varilla fija a un punto de suspensión,
donde el movimiento de la lenteja es en un plano11 . En este caso, q es el ángulo de deflexión respecto a la
vertical. Tomando el cero de potencial en el punto de suspensión de la varilla sin masa, la energı́a es constante
y coincide con el Hamiltoniano quedando

p2θ
E= − mgl cos θ
2ml2
11
Asumimos una varilla en lugar de una cuerda para que la distancia al punto de suspensión sea siempre la misma, sin importar
la amplitud angular.
194 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

siendo l, la longitud de la varilla. Despejando pθ , obtenemos la ecuación para el camino que describe el punto
del sistema en el espacio de fase en la forma descrita por (9.100)
p
pθ = ± 2ml2 (E + mgl cos θ) (9.101)

si E es menor que mgl sabemos por consideraciones de energı́a que el movimiento es acotado en θ, de modo
que |θ| < θmáx el valor de la cota superior se obtiene cuando pθ = 0 y corresponde al valor
E
cos θmáx = −
mgl
en este caso la energı́a es siempre negativa. Claramente el péndulo oscila entre −θmáx y θmáx lo cual nos
da un movimiento periódico tipo libración (ver figura 9.2). Nótese además que el doble signo en (9.101) es
necesario para que la órbita sea cerrada, es decir no define una función. Por otro lado, si E > mgl, la energı́a
es suficiente para que el péndulo pueda girar completamente de modo que θ puede tomar cualquier valor y no
está acotado, este serı́a un movimiento periódico tipo rotación (ver figura 9.2). El lı́mite E = mgl se ilustra
también en la Fig. 9.2, y corresponde a un péndulo que llega a θ = π con energı́a cinética cero es decir con
pθ = 0. Este es un punto de equilibrio inestable en el cual se puede quedar indefinidamente, pero si hay la
menor perturbación el péndulo toma uno de dos caminos drásticamente diferentes (giro en cualquiera de los
sentidos). El punto θ = π, pθ = 0 es un punto de silla para el Hamiltoniano H = E (pθ , θ), y en dicho punto se
intersectan dos caminos del espacio de fase con energı́a constante. Este fenómeno se conoce como bifurcación.

9.8.1. Formulación general de la variables acción-ángulo en una dimensión


Ignorando por el momento la posibilidad de la bifurcación, asumiremos que nuestro sistema unidimensional
tiene movimiento de libración o de rotación dependiendo de las condiciones iniciales. Para cualquiera de estos
movimientos periódicos es útil introducir una nueva variable J, designada para reemplazar a α1 como el nuevo
momento conjugado del sistema. Es decir el nuevo momento conjugado ya no será el Hamiltoniano sino la
variable acción J definida por I
J= p dq (9.102)

la integración se realiza en un ciclo completo de libración o rotación según el caso. Obsérvese que este término
se asemeja a la acción abreviada definida en (6.92) lo cual justifica su nombre de variable de acción. Las
dimensiones de J siempre serán en consecuencia unidades de momento angular. Teniendo en cuenta (9.100) y
(9.102) se observa que J es función exclusivamente de α1 i.e. del Hamiltoniano

J = J (α1 ) ⇒ α1 ≡ H = H (J)

es decir cumple con la estructura dada por (9.39). Vemos además que la coordenada conjugada a J es cı́clica,
como se espera con el método de HJR. La función caracterı́stica de Hamilton puede escribirse como

W = W (q, J) (9.103)

La coordenada generalizada conjugada a J se denomina variable angular w, y se define usando el segundo


conjunto de ecuaciones de transformación (9.33)

∂W (q, J)
w= (9.104)
∂J
las ecuaciones de Hamilton para el conjunto canónico w, J nos dan

∂H (J)
ẇ = = v (J) (9.105)
∂J
∂H (J)
J˙ = = 0 ⇒ J = cte (9.106)
∂w
9.8. VARIABLES ACCIÓN-ÁNGULO PARA SISTEMAS CON UN GRADO DE LIBERTAD 195

J es constante ya que está asociado a una coordenada cı́clica. A su vez, puesto que v (J) solo depende de J,
también es constante. Por tanto, la Ec. (9.105) tiene solución inmediata

w = vt + β (9.107)

y w es función lineal del tiempo lo cual es lógico ya que este es un caso particular de la Ec. (9.41) con w
haciendo el papel de la nueva coordenada Q.
Una vez obtenida W (q, J), la solución formal del problema se puede obtener despejando q en términos de
w, J a partir de (9.104), y luego reemplazando w por la expresión en (9.107). Esto nos da q como función del
tiempo y de las constantes J, v, β que a su vez se pueden obtener de las condiciones iniciales. Sin embargo, este
procedimiento no posee ninguna ventaja significativa con respecto a otras elecciones de los nuevos momentos.
El verdadero poder de la formulación en variables acción ángulo radica en la interpretación Fı́sica de las
constantes v (J). Para ver su significado primero consideremos el cambio en w cuando q hace un ciclo completo
de libración o rotación, este cambio está dado por
I
∂w
∆w = dq (9.108)
∂q

usando (9.104) queda12


I
∂2W
∆w = dq
∂q ∂J

dado que J es constante a lo largo de todo el ciclo, la derivada con respecto a J se puede sacar fuera del signo
integral
I I
d ∂W d
∆w = dq = p dq = 1
dJ ∂q dJ

donde hemos usado (9.33) y la definición de J (9.102). Esta ecuación establece que w cambia en la unidad (w
es adimensional) cuando q se mueve a lo largo de un ciclo. Si ahora asumimos que el movimiento es periódico
en el tiempo13 , entonces este cambio también se puede evaluar de (9.107)

∆w = w (τ ) − w (0) = vτ = 1

donde τ denota el periodo para un ciclo completo de q en cualquiera de los dos tipos de periodicidad. De
aquı́ resulta entonces que v es el inverso del periodo, es decir la frecuencia asociada al movimiento periódico de
q. Por lo tanto el formalismo de las variables acción ángulo nos permite evaluar la frecuencia del movimiento
periódico sin resolver completamente el movimiento del sistema. Si sabemos a priori que cierto sistema
de un grado de libertad es periódico en cualquiera de las dos formas, la frecuencia se puede determinar una
vez que H se escribe en términos de J y aplicando (9.105). La identificación de v (J) como una frecuencia
y la Ec. (9.107) nos refuerza el hecho de que a la variable w se le denomine variable angular. De la misma
forma se puede ver que si w tiene dimensiones de ángulo (adimensional) el momento conjugado J debe tener
dimensiones de momento angular.

12
Nótese que en (9.108) no aparece dependencia explı́cita del tiempo como a priori se vé en (9.107). La razón es que cuando w
se escribe en términos de q queda en la forma w = w (q, J) según se puede ver de las Ecs. (9.103, 9.104). Además J es constante a
lo largo del ciclo por construcción.
13
Nótese que hasta este punto no se ha utilizado la periodicidad en el tiempo, solo el hecho de que la trayectoria en el espacio
de fase sea cerrada o que p = p (q) sea periódica en q, pero podrı́a ocurrir que cada ciclo en el espacio de fase tomara un tiempo
distinto en ejecutarse.
196 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

9.9. Problemas de aplicación de variables acción-ángulo con un solo grado


de libertad
9.9.1. El oscilador armónico unidimensional en variables acción-ángulo
Como ejemplo de aplicación de este formalismo veamos el oscilador armónico unidimensional. Retomando
el Hamiltoniano del oscilador armónico denotándolo por α
1 
α= p 2 + m2 ω 2 q 2 (9.109)
2m
Para calcular la acción debemos despejar el momento p en función de la coordenada q, lo cual nos da
p
p = ± 2mα − m2 ω 2 q 2
que coincide con la Ec. (9.22). Podemos ahora calcular la variable de acción en la forma
I I  p 
J = p dq = ± 2mα − m2 ω 2 q 2 dq

siendo α la energı́a total (conservada) y ω 2 = k/m. Nótese que el signo positivo vale para la mitad del ciclo
(en el que se incrementa q) y el negativo para la otra mitad (en el que decrece la variable q). Por simetrı́a esto
se puede escribir como cuatro veces la integral que comprende al movimiento desde el origen hasta el punto
de máima elongación en dirección positiva, en este cuarto de ciclo p > 0 y por tanto el radical es positivo
Z qmáx p
J =4 2mα − m2 ω 2 q 2 dq
0

el cambio de variable r

q= sin θ
mω 2
nos define claramente los lı́mites de integración requeridos para el cuarto de ciclo de la franja superior del
plano de fase, y la integral se convierte en
s
Z π/2 s   Z π/2  2
2α 2α  
J = 4 2mα − m2 ω 2 2
sin2 θ cos θ dθ = 4 1 − sin2 θ cos θ dθ
0 mω 0 ω
Z π/2

= |cos θ| cos θ dθ
ω 0
pero en el intervalo [0, π/2] tenemos que |cos θ| = cos θ, por tanto
Z
8α π/2 2πα
J= cos2 θ dθ = (9.110)
ω 0 ω
despejando α i.e. el Hamiltoniano resulta

α ≡ H (J) = (9.111)

con lo cual la frecuencia de oscilación se obtiene aplicando (9.105)
r
∂H ω 1 k
v= = = (9.112)
∂J 2π 2π m
en concordancia con la frecuencia obtenida por otros métodos. Es interesante escribir las soluciones para las
Ecs. (9.21, 9.23) en función de J y w, a pesar de que no se requieren para encontrar las frecuencias. Teniendo
en cuenta las Ecs. (9.112, 9.107) vemos que
ω
w = vt + β = t+β ⇒ (9.113)

2πw = ωt + δ ; δ ≡ 2πβ (9.114)
9.9. PROBLEMAS DE VARIABLES ACCIÓN-ÁNGULO CON UN GRADO DE LIBERTAD 197

donde hemos definido adecuadamente la constante arbitraria de integración β. Con esta relación, las soluciones
de (9.21, 9.23) en función de J y w quedan de la forma
r r
J mJω
q= sin 2πw ; p = cos 2πw (9.115)
πmω π
Las Ecs. (9.115) definen la transformación canónica que nos lleva del sistema canónico (q, p) al sistema
canónico (w, J). Vale la pena enfatizar que la forma explı́cita de la TC no fué necesaria para calcular la
frecuencia del movimiento.

9.9.2. Partı́cula en movimiento periódico en una dimensión bajo un potencial V (x) = F |x|
Una partı́cula posee movimiento periódico en una dimensión bajo la influencia de un potencial V (x) = F |x|,
donde F es constante positiva. Encontraremos el periodo de movimiento utilizando variables acción-ángulo. El
Hamiltoniano del sistema es simplemente

p2
H≡E= + F |q|
2m
despejando el momento conjugado en términos de la coordenada y las constantes de movimiento nos da
p
p = 2m (E − F |q|)

con lo cual tenemos una ecuación del tipo (9.100) que describe la trayectoria en el espacio de fase. La variable
de acción viene dada por la Ec. (9.102)
I I p
J = p dq = 2m(E − F |q|) dq (9.116)

Puesto que F > 0, el movimiento está acotado dentro del intervalo [−E/F, E/F ], como se puede ver por
consideraciones de energı́a. En un ciclo completo se recorre este intervalo de ida y vuelta. Este movimiento es
del tipo libración ya que la coordenada no crece indefinidamente, sino que retorna a los mismos valores. Por
simetrı́a, podemos recorrer solo el primer cuadrante desde q = 0 hasta q = E/F (donde p = 0), y multiplicamos
por el factor 4 para tener en cuenta el recorrido completo en el espacio de fase. En el recorrido desde 0 hasta
E/F tanto p como q son positivos. La integral (9.116) queda entonces

√ Z E/F p
J = 4 2m E − F q dq
0
con la sustitución

u = E − Fq ; du = −F dq
la integral queda

Z 0 √ Z
√ 1/2 du 4 2m E 1/2
J = 4 2m u = u du
E (−F ) F 0

8 2m 3/2
J = E (9.117)
3F
despejando E = H en términos de J encontramos la frecuencia de movimiento
 
3F J 2/3 (3F )2/3 2/3
E = H= √ = √ J
8 2m 4 3 2m
∂H (3F )2/3 −1/3
ν = = √ J
∂J 6 3 2m
198 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

y utilizando de nuevo la Ec. (9.117) tenemos


 1/3
∂H (3F )2/3 3F 3F
ν = = √3
√ = √
∂J 6 2m 8 2m E 3/2 12 2mE

F 1 4 2mE
ν = √ ; τ= = (9.118)
4 2mE ν F

que nos da la frecuenciay periodo del movimiento en términos de los parámetros del sistema (F y m) y las
condiciones iniciales (la energı́a).

9.10. Variables acción-ángulo para sistemas completamente separables14


Cuando tenemos un número arbitrario de grados de libertad, el formalismo de Hamilton Jacobi es parti-
cularmente relevante cuando existe uno o mas conjuntos coordenados en los cuales la ecuación de Hamilton
Jacobi es completamente separable. Si además existe algún tipo de periodicidad análoga a la discutida en la
sección anterior, entonces tendremos que la variante del formalismo de Hamilton Jacobi conocida como el for-
malismo de las variables acción ángulo, puede ser particularmente ventajosa. Tomaremos además la suposición
simplificadora de que H es constante, de modo que podemos usar el formalismo de HJR. La separabilidad
completa nos lleva a que las ecuaciones de la transformación canónica tengan la forma
∂Wi (qi ; α1 , . . . , αn )
pi = (9.119)
∂qi
lo cual nos da cada pi en función de su coordenada conjugada qi y las n constantes de integración

pi = pi (qi ; α1 , . . . , αn ) (9.120)

la Ec. (9.120) es el equivalente de (9.100), pero aplicado ahora a varios grados de libertad. La Ec. (9.120)
representa la ecuación de órbita de la proyección del punto del sistema sobre el plano (qi , pi ) en el espacio de
fase (i es un ı́ndice fijo en este caso). Es útil definir variables acción ángulo cuando las ecuaciones de órbita
para todos los planos (qi , pi ), describen órbitas cerradas (libraciones) o funciones periódicas de qi (rotaciones).
Es de anotar que las condiciones anteriores no significan que necesariamente las variables qi , pi sean fun-
ciones periódicas del tiempo, es decir que repitan su valor para intervalos de tiempo regulares. Incluso cuando
cada conjunto (qi , pi ) es periódico en este sentido, el movimiento completo no es necesariamente periódico.
Para tomar un ejemplo concreto, el oscilador armónico con tres grados de libertad puede tener una frecuencia
diferente sobre cada coordenada cartesiana, el movimiento solo será periódico si las tres frecuencias son conme-
surables entre sı́, es decir si los cocientes entre las frecuencias son racionales; de no ser ası́, se describen figuras
de Lissajous que no son curvas cerradas15 . Tal movimiento se denomina movimiento periódico múltiple. Una
de las ventajas de la formulación de Hamilton Jacobi en variables acción ángulo, es que permite evaluar todas
las frecuencias de un movimiento periódico múltiple sin resolver completamente el problema del movimiento.
En analogı́a con (9.102) las variables de acción Ji se definen en términos de integrales de lı́nea sobre periodos
completos de la órbita en el plano (qi , pi ). I
Ji = pi dqi (9.121)

nótese que la separabilidad manifestada en la ecuación (9.120) es indispensable para que cada Ji sea una
constante, ya que si cada pi depende de varios q ′ s, esta integral dependerá de todos los q ′ s excepto de qi . Si
una coordenada es cı́clica, su momento conjugado es constante de modo que la trayectoria u órbita en el espacio
de fase (qi , pi ) es una lı́nea recta horizontal, que no parece ser la naturaleza de un movimiento periódico. En
realidad el movimiento se puede considerar un caso lı́mite de movimiento periódico de rotación, en el cual
14
En lo que sigue del capı́tulo no adoptaremos la convención de suma de ı́ndices repetidos a menos que se indique lo contrario.
15
Vale decir que este ejemplo es en el espacio real y no en el espacio de fase. Pero el razonamiento para el movimiento en el
espacio de fase es idéntico.
9.10. VARIABLES ACCIÓN-ÁNGULO PARA SISTEMAS COMPLETAMENTE SEPARABLES17 199

se le puede asignar un periodo arbitrario a qi . Dado que una coordenada de rotación es invariablemente un
ángulo, si la coordenada cı́clica es angular, entonces tendrá un periodo natural de 2π. En consecuencia, es
natural (aunque no obligatorio) evaluar la integral en la definición de la variable de acción correspondiente
a una coordenada angular cı́clica entre 0 y 2π. Por tanto, para toda variable cı́clica qi su variable de acción
asociada se definirá como
Ji = 2πpi (9.122)
usando la Ec. (9.119) en la definición de Ji Ec. (9.121) se tiene
I
∂Wi (qi ; α1 , . . . , αn )
Ji = dqi (9.123)
∂qi
como ya mencionamos, gracias a la completa separabilidad en las coordenadas, cada Ji es solo función de
las constantes de integración αi que aparecen al integrar la ecuación de Hamilton Jacobi y es por tanto
constante. Por otro lado, debido a la independencia de los pares (qi , pi ), se tiene que además las J ′ s son n
funciones independientes de las α′ s de modo que forman un conjunto adecuado de constantes para definir los
nuevos momentos. Al expresar los α′ s en términos de los J ′ s, podemos redefinir los argumentos en la función
caracterı́stica16
n
X
W = W (q1 , . . . , qn ; J1 , . . . , Jn ) = Wj (qj ; J1 , . . . , Jn ) (9.124)
j=1

en tanto que el Hamiltoniano serı́a función exclusiva de las J

H = α1 = H (J1 , . . . , Jn ) (9.125)

al igual que en el caso de un grado de libertad, podemos definir variables angulares conjugadas wi a través de
la función caracterı́stica W teniendo en cuenta que esta última es una función generatriz de tipo 2
n
X ∂Wj (qj ; J1 , . . . , Jn )
∂W
wi = = (9.126)
∂Ji ∂Ji
j=1

esta ecuación muestra que las wi son en general funciones de todas las qj y todas las Jj .

wi = wi (q1 , . . . , qn ; J1 , . . . , Jn ) (9.127)

De nuevo, la mitad de las ecuaciones de Hamilton conduce a


∂H (J1 , . . . , Jn )
ẇi = = vi (J1 , . . . , Jn ) (9.128)
∂Ji
y de nuevo la otra mitad de las ecuaciones de Hamilton nos conduce a que las J ′ s son constantes. Adicional-
mente, las vi son todas constantes puesto que son funciones exclusivas de las Ji . Por lo tanto, las ecuaciones
de Hamilton anteriores se pueden integrar para obtener wi como funciones lineales del tiempo

wi = vi t + βi (9.129)

en general cada wi se incrementa de forma diferente a los otros.


En este caso se puede ver que las vi son las frecuencias asociadas al movimiento periódico múltiple, pero el
argumento para llegar a esta aseveración es más sutil que en el caso de un grado de libertad. Las ecuaciones
de transformación que conducen al conjunto canónico (w, J) implican que cada qj y pj es una función de las
constantes Ji y las variables wi . El objetivo ahora es encontrar la función matemática de los qi en términos
de los wi , para lo cual examinamos el cambio de cada wi cuando cada una de las variables qj ha ejecutado
un número entero de ciclos mj de libración o rotación. Este es un procedimiento puramente matemático ya
16
Dado que W es de tipo F2 , debe ser escrita en términos de las antiguas coordenadas y los nuevos momentos W = W (q, J),
como en la Ec (9.124).
200 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

que en este caso no estamos ejecutando un movimiento del sistema en el tiempo. Es como si congeláramos el
tiempo y cada qi fuera movido independientemente a través de un cierto número de ciclos de su movimiento.
Esto es análogo al concepto de desplazamiento virtual desarrollado para el principio de D’Alembert, de modo
que los cambios infinitesimales en las wi cuando cambian las qi infinitesimalmente, son también de naturaleza
virtual por lo cual usamos la notación δwi
n n n
" n
#
X ∂wi X ∂2W X ∂2 X
δwi = dqj = dqj = Wk (qk ; J1 , . . . , Jn ) dqj
∂qj ∂Ji ∂qj ∂Ji ∂qj
j=1 j=1 j=1 k=1

donde hemos usado (9.126). La derivada con respecto a qj se anula excepto para Wj y usando (9.119) y (9.120)
se obtiene
n
∂ X
δwi = pj (qj ; J1 , . . . , Jn ) dqj (9.130)
∂Ji
j=1

la Ec. (9.130) representa a δwi como una suma de contribuciones independientes cada una asociada al movi-
miento virtual de un qj . El cambio total en wi se puede escribir entonces
n
X I

∆wi = pj (qj , J) dqj (9.131)
∂Ji
j=1 mj

el operador diferencial con respecto a Ji se puede mantener por fuera de la integral ya que en el proceso de
integración i.e. de variación de las qi el conjunto de las Ji permanece inalterado. El sı́mbolo mj indica que cada
una de las n integrales se realiza sobre un cierto número de ciclos, siendo mj el número de ciclos que ejecuta
la coordenada qj . Por otro lado, en virtud de la definición de variables acción ángulo Ec. (9.121) cada una de
estas integrales es mj Jj . Adicionalmente, dado que cada Ji es independiente, se sigue que

∆wi = mi (9.132)

si algún qj no se barre en un número entero de ciclos en la correspondiente integración, habrá un remanente


debido a la fracción del ciclo que no se completó de modo que ∆wi no tendrá un valor entero. Si tratamos a
los wi y los mi como arreglos vectoriales podemos escribir la relación anterior de la forma

∆w = m (9.133)

en estas instancias conviene reafirmar la importancia de la naturaleza virtual del movimiento de rotación o
libración en cada plano qi , pi . Nótese que en (9.130) δwi se representa como una suma de contribuciones
independientes gracias a la virtualidad del movimiento de cada qj ; pues de lo contrario, el parámetro tiempo
hace que estos ciclos se recorran en forma correlacionada. Más importante aún, en el movimiento real si las
frecuencias en cada plano qi ,pi no son conmesurables, no existirá un valor finito del tiempo para el cual se hayan
ejecutado ciclos completos en cada plano. Es decir para un movimiento real con frecuencias no conmesurables,
no hay un valor del tiempo para el cual las Ecs. (9.132, 9.133) sean válidas.
Finalmente, es importante insistir en que hasta el momento no se ha utilizado periodicidad en el tiempo,
lo cual está enfatizado por el caracter virtual de los δwi .

9.10.1. Movimientos periódicos múltiples de libración


Supongamos que cada movimiento separado es de tipo libración, de modo que cada qj , pj vuelve a su valor
inicial cuando se completa un ciclo. El resultado dado por la Ec. (9.133) puede ser expresado de la siguiente
forma: sea η el arreglo vectorial de dimensión 2n de las qi , pi , que es en general función de w de tal manera que
un cambio no trivial en el cual ∆η = 0, debe corresponder a un cambio ∆w = m, que es un arreglo vectorial
de componentes enteras18 . Dado que el número de ciclos para cada coordenada se puede elegir arbitrariamente,
18
Estrictamente η es función de w y J, pero J es constante durante el proceso de completar uno o más ciclos.
9.10. VARIABLES ACCIÓN-ÁNGULO PARA SISTEMAS COMPLETAMENTE SEPARABLES20 201

tomemos mk = δki , de modo que completamos un ciclo en las variables qi , pi dejando a las otras variables sin
transformar, es decir que todas las componentes qk , pk con k 6= i permanecen sin cambiar en tanto que las
componentes qi , pi vuelven a sus valores originales luego de completar un ciclo, esto nos da como resultado que
∆η = 0. Por tanto, en el caso más general las componentes de η tienen que ser funciones periódicas de cada
wi con periodo unidad; esto es, las q ′ s y las p′ s son funciones periódicas múltiples de las w′ s con periodos
unidad19 . Una función periódica múltiple como esta puede ser siempre representada por una expansión de
Fourier, la cual para un cierto qk se escribe como

X ∞
X (k)
qk = ... aj1 ,...,jn exp [2πi (j1 w1 + . . . + jn wn )] (9.134)
j1 =−∞ jn =−∞

donde los jm son enteros. Naturalmente podemos tratar al conjunto de las j ′ s y las w′ s como arreglos vectoriales
para escribir esta relación en forma mucho más compacta
X (k)
qk = aj exp [2πi (j · w)] (9.135)
j

análogamente, la Ec. (9.129) también se puede escribir en forma vectorial

w = vt + β (9.136)

y la dependencia temporal de qk se escribe de la forma


X (k)
qk (t) = aj exp [2πij· (vt + β)] (9.137)
j

obsérvese que en general qk (t) no es necesariamente una función periódica en el tiempo; pues la expansión
de Fourier solo ha requerido la periodicidad en cada coordenada wi por aparte y cada una de ellas crece a
diferente ritmo, no es necesario ni siquiera que haya periodicidad temporal para completar cada ciclo en un
qi , pi dado. Incluso si asumimos periodicidad temporal para cada qi , pi , la periodicidad en qk (t) ocurrirá solo
si los vi son todos conmesurables entre sı́, es decir múltiplos racionales unos de otros. Por lo tanto, en el caso
más general qk se considera una función cuasi periódica del tiempo. Finalmente, debe recordarse que los
(k)
coeficientes aj pueden encontrarse usando el procedimiento estándar para encontrar coeficientes de Fourier.
Ellos están dados por integrales múltiples sobre la celda unitaria en el espacio w
Z 1 Z 1
(k)
aj = ... qk (w) exp [−2πi (j · w)] dw
0 0

dw define el elemento de volumen en el espacio n dimensional de las wi . Un procedimiento análogo se puede


hacer para pk (t).

9.10.2. Movimientos cuasi periódicos múltiples de rotación


Cuando el movimiento periódico es del tipo rotación, la coordenada qk no retorna a su valor original cuando
se realiza un ciclo completo del par de variables separables (qi , pi ), sino que se incrementa en una cantidad q0k .
Tal coordenada de rotación no es en sı́ multiplemente periódica. Sin embargo, cuando se realiza un número
entero de ciclos mk vemos que la variable wk ha aumentado en mk unidades. En consecuencia, la función
qk − wk q0k sı́ retorna a su valor inicial para cualquier número entero de ciclos y a semejanza del caso de la
libración, es una función periódica múltiple de todos los w′ s con periodo unidad. Por tanto, podemos expandir
19
Nótese que para llegar a esta conclusión, fué necesario que cada plano qi , pi se barriera independientemente, es decir fué im-
portante que el movimiento fuera virtual.
202 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

la función en una serie de Fourier múltiple análoga a (9.134), y encontrar la dependencia temporal usando
(9.129)
X (k)
qk − wk q0k = aj exp [2πi (j · w)] ⇒
j
X (k)
qk = q0k (vk t + βk ) + aj exp [2πij · (vt + β)]
j

por lo tanto, es siempre posible generar una función periódica múltiple a partir de una coordenada de ro-
tación, la cual puede ser manipulada exactamente de la misma forma que una coordenada de libración. En
consecuencia, para simplificar la discusión nos restringiremos a trabajar con el movimiento periódico tipo
libración.

9.10.3. Movimientos periódicos simples y múltiples tipo libración


En el movimiento periódico múltiple tipo libración, los momentos separables pk son funciones periódicas
múltiples de las w′ s, y pueden ser expandidos en una serie de Fourier múltiple similar a la presentada en
(9.134). De esto se deduce que cualquier función de varios de los pares de variables (qi , pi ), también serán
funciones periódicas múltiples de los w′ s. De modo que se pueden escribir como
X X
f (q, p) = bj exp [2πij · w] = bj exp [2πij · (vt + β)] (9.138)
j j

por ejemplo, cuando las coordenadas cartesianas de las partı́culas en el sistema no son en sı́ las coordenadas
de separación, ellas aún se pueden escribir como funciones del tiempo en la forma de las Ecs. (9.138), ya que
ri = ri (q).
Cuando asumimos periodicidad temporal en cada plano qi , pi ; las Ecs. (9.134, 9.137), representan el tipo
más general de movimiento periódico múltiple del tipo libración. Sin embargo, no todos los sistemas con este
tipo de movimiento poseen todas las caracterı́stica mostradas en (9.134, 9.137). Por ejemplo, en una amplia
gama de problemas de aplicación de las variables acción ángulo las Ecs. (9.126, 9.127) se simplifican a

∂Wi
wi = (qi ; J1 , . . . , Jn ) ; wi = wi (qi ; J1 , . . . , Jn ) (9.139)
∂Ji
de modo que cada coordenada qi de separación es función únicamente de su wi asociado. Cuando esto ocurre,
qk es una función periódica solo de wk , y la serie de Fourier múltiple se reduce a una serie de Fourier sencilla

X ∞
X
(k) (k)
qk = aj exp [2πi (jwk )] = aj exp [(2πi) j (vk t + βk )] (9.140)
j=−∞ j=−∞

En el lenguaje de los sistemas de osciladores acoplados, se puede decir que estas q ′ s son las coordenadas
normales del sistema. Sin embargo, incluso cuando el movimiento de las q ′ s se pueda simplificar ası́, ocurre
con frecuencia que las funciones f (q) de todas las q ′ s, tales como las coordenadas cartesianas, continúan
siendo funciones periódicas múltiples de las w′ s y deben ser representadas como en la Ec. (9.138). Aunque
haya periodicidad temporal en cada plano (qk , pk ), solo habrá periodicidad temporal de tales funciones si las
varias frecuencias vk son conmesurables. Una vez más, el movimiento de un oscilador armónico bidimensional
anisotrópico es un buen ejemplo para ilustrar estas consideraciones.
Supongamos que en un conjunto particular de coordenadas cartesianas, el Hamiltoniano viene dado por
1  2  
H= px + 4π 2 m2 vx2 x2 + p2y + 4π 2 m2 vy2 y 2
2m
estas coordenadas cartesianas son entonces coordenadas de separación adecuadas y cada una exhibe movi-
miento armónico simple con frecuencias vx y vy respectivamente. Luego, las soluciones para x, y son formas
9.10. VARIABLES ACCIÓN-ÁNGULO PARA SISTEMAS COMPLETAMENTE SEPARABLES22 203

particularmente simples de expansiones sencillas de Fourier de la forma (9.140). Supongamos ahora que las
coordenadas están rotadas π/4 alrededor del eje z. Las componentes del movimiento a lo largo de los ejes x′ , y ′
serán21
1
x′ = √ [x0 cos 2π (vx t + βx ) + y0 cos 2π (vy t + βy )]
2
1
y′ = √ [y0 cos 2π (vy t + βy ) − x0 cos 2π (vx t + βx )] (9.141)
2

si el cociente vx /vy es racional, estas dos expresiones serán conmesurables y corresponderán a figuras de
Lissajous cerradas. Pero si el cociente no es racional, la figura es tal que el punto en el espacio de fase nunca
vuelve exactamente sobre el mismo trazo y las Ecs. (9.141) nos dan un ejemplo sencillo de expansiones de
Fourier de periodicidad múltiple de la forma (9.138).
Incluso cuando qk es una función periódica múltiple de todas las w′ s, intuitivamente parece existir una
relación entre qk y su wk asociado (y por tanto con la frecuencia vk ). Después de todo es de anotar que el
argumento que nos llevó a la Ec. (9.132), nos dice que cuando qk completa un ciclo (moviendo solo a qk ), wk
se incrementa en la unidad en tanto que las otras w′ s retornan a sus valores iniciales. Un argumento riguroso
para esta relación fué desarrollado por J. Vinti en 1961.
Supongamos que un cierto intervalo de tiempo T contiene a mk ciclos completos de qk mas una fracción
de un ciclo. En general el tiempo requerido para cada ciclo sucesivo puede ser diferente, puesto que qk no es
necesariamente una función periódica en el tiempo. Vinti demostró, sobre la base de un teorema de la teorı́a
de números, que cuando T crece indefinidamente
mk
lı́m = vk
T →∞ T

de modo que la frecuencia promedio del movimiento de qk está siempre dada por vk , incluso cuando el movi-
miento completo es más complicado que una función periódica con frecuencia vk .
Es notable el hecho de que la ecuación (9.123) nos dice que cuando qi hace un recorrido virtual de un ciclo
completo (es decir cuando wi se incrementa en la unidad) la función caracterı́stica se incrementa en Ji . Con
una estrategia similar a la que se sigue para el movimiento periódico de rotación, se tiene que la función
X
W′ = W − wk Jk (9.142)
k

permanece invariante cuando cada wk se incrementa en la unidad, con las otras variables de acción perma-
neciendo constantes. La ecuación (9.142) representa entonces una función periódica múltiple que se puede
expandir en términos de las wi (o las frecuencias vi y el tiempo), por una serie de la forma (9.138). Puesto que
las ecuaciones de transformación para las variables angulares vienen dadas por

∂W
wk =
∂Jk

se puede reconocer que la ecuación (9.142) define una transformación de Legendre desde la base (q, J) hacia la
base (q, w). Recordando que W es una función generatriz tipo 2 y usando las Ecs. (7.14, 7.18) tenemos que si
W (q, J) es de tipo F2 entonces W ′ (q, w) es la función correspondiente de tipo F1 . Por tanto, ambas transforman
de las variables (q, p) a las variables (w, J). Sin embargo aunque W ′ genera la misma transformación que W ,
no es una solución de la ecuación de Hamilton Jacobi, ya que el formalismo de Hamilton Jacobi está diseñado
para funciones tipo 2.
Hemos visto que asumiendo periodicidad temporal para cada plano (qi , pi ), la conmesurabilidad es un
criterio esencial para distinguir entre un sistema periódico múltiple o un sistema periódico simple. Cuando las
frecuencias todas son conmesurables entre sı́, la configuración se repite después de un tiempo suficientemente
21
La clave es que x = x (vx ) , y = y (vy ) en tanto que x′ = x′ (vx , vy ) y y ′ = y ′ (vx , vy ).
204 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

largo y será periódico simple. Matemáticamente la conmesurabilidad entre pares de frecuencias se manifiesta
en las siguientes ecuaciones
ji vi = jk vk (no suma) (9.143)
siendo ji y jk enteros positivos. Basta con probar que un cierto vi es conmesurable con los demás para demostrar
que todos son conmesurables entre sı́, en cuyo caso se habla de una sistema completamente conmesurable.
Pero si solo m de las n frecuencias satisfacen (9.143), el sistema se dice m−conmesurable. Por ejemplo si
tenemos las frecuencias

v1 = 3M Hz, v2 = 5M Hz, v3 = 7M Hz, v4 = 2 2M Hz
√ √ √
v5 = 3 2 M Hz, v6 = 3M Hz, v7 = 7M Hz
Los tres primeros son 3-conmesurados y los dos siguientes son doble conmesurados. Hay una relación interesante
entre conmesurabilidad y las coordenadas en las cuales las Ecuaciones de Hamilton Jacobi son separables. Puede
demostrarse que el camino que recorre el punto en el espacio de configuraciones o de fase para un sistema no
conmesurable llena completamente una región limitada del correspondiente espacio (es decir para cualquier
punto de esta región, la curva pasa por dicho punto en algún instante de tiempo). Esto se vé en las figuras de
Lissajous para frecuencias inconmesurables.
Supongamos que el sistema es tal que en cualquiera de las coordenadas de separación el movimiento
es simplemente periódico y que por tanto es independiente del movimiento en las otras coordenadas. En
consecuencia, el camino que traza el punto del sistema como un todo tiene que estar limitado por las superficies
de qi y pi constantes que marcan los lı́mites del movimiento oscilatorio de las variables de separación (esto es
extendible al movimiento periódico rotacional si restringimos el valor del ángulo entre 0 y 2π). Estas superficies
por tanto definen un volumen en el espacio que está densamente lleno por la órbita del punto del sistema. De
esto se sigue que las variables de separación en un sistema no conmesurado tienen que ser únicas; la ecuación
de Hamilton Jacobi no puede ser separable en dos sistemas coordenados diferentes (excepto por variaciones
triviales tales como cambios de escala). La posibilidad de separar el movimiento de un sistema en más de un
sistema coordenado es usualmente una evidencia de conmesurabilidad.

9.10.4. Variables acción-ángulo para sistemas degenerados


Un ejemplo particularmente simple de conmesurabilidad lo da el caso de la degeneración, que ocurre
cuando dos o más de las frecuencias son iguales. Si dos de las constantes elásticas en el oscilador armónico
tridimensional son iguales, sus frecuencias asociadas son iguales y hay una degeneración simple. Si el oscilador
es isotrópico, el sistema es completamente degenerado.
Cuando hay degeneración presente, las frecuencias no son todas independientes. Si ordenamos las n frecuencias
de modo que las m + 1 primeras sean iguales, tendremos m ecuaciones de degeneración (degeneración de orden
m)
ν1 − ν2 = 0 , ν2 − ν3 = 0 , . . . , νm − νm+1 = 0 (9.144)
de modo que solo una de estas frecuencias (digamos νm+1 ) es independiente, es claro entonces que tendremos
n − m frecuencias independientes
{νm+1 , νm+2 , . . . , νn }
Veamos un método sistemático de reducir las frecuencias usando una transformación canónica de las variables
acción-ángulo (w, J), hacia otras variables también del tipo acción-ángulo (w′ , J ′ ). Si tenemos m condiciones
de degeneración sobre las frecuencias vi , podemos escribir las ecuaciones (9.144) en la forma
n
X
jki vi = 0, k = 1, ..., m. (9.145)
i=1

donde las jki toman los valores 0 y ±1. Haremos ahora una transformación canónica desde (w, J) hasta
(w′ , J ′ ) definida por una función generatriz del tipo descrito en (7.23), con g = 0. En nuestro caso tenemos las
asignaciones
qi → wi ; pi → Ji ; Qi → wi′ ; Pi → Ji′ (9.146)
9.10. VARIABLES ACCIÓN-ÁNGULO PARA SISTEMAS COMPLETAMENTE SEPARABLES24 205

definiendo la función  Pn
fk (w1 , . . . , wn ) = i=1 jki wi si k = 1, . . . , m
(9.147)
wk si k = m + 1, . . . , n
reemplazando (9.147) en (7.23) teniendo en cuenta las asignaciones (9.146) y el hecho de que en (7.23) hay
convención de suma sobre ı́ndices repetidos, se obtiene una función tipo F2 de la forma
n m n
! n

 X ′
X X X
F2 w, J = fk (w1 , . . . , wn ) Jk = jki wi Jk′ + Jk′ wk
k=1 k=1 i=1 k=m+1

de modo que
m X
n n
 X X
F2 w, J ′ = Jk′ jki wi + Jk′ wk (9.148)
k=1 i=1 k=m+1

las coordenadas nuevas se encuentran con las ecuaciones de transformación (7.19) y las asignaciones (9.146)
 
′) Xm Xn Xn
∂F2 (w, J ∂ 
wk′ = = Jp′ jpi wi + Jp′ wp 
∂Jk′ ∂Jk′ p=1 p=m+1i=1

con lo cual resulta


n
X
wk′ = jki wi ; k = 1, ..., m
i=1
wk′ = wk ; k = m + 1, ..., n (9.149)

La forma funcional de las J con respecto a las J ′ se obtiene utilizando la ecuación (7.26) con las asignaciones
(9.146)
 X
n
∂f ∂fk ′

J = J ⇒ Ji = J ⇒
∂w ∂wi k
k=1
(m " n #) ( n )
X X X
′ ∂ ′ ∂wk
Ji = Jk jkl wl + Jk
∂wi ∂wi
k=1 l=1 k=m+1

donde hemos usado (9.147). Las correspondientes constantes asociadas a las variables de acción Ji son las
soluciones de las n ecuaciones de transformación23
m
X n
X
Ji = Jk′ jki + Jk′ δki ; i = 1, . . . , n (9.150)
k=1 k=m+1

Nuestra hipótesis es que el sistema es periódico en las variables canónicas (qi , pi ) y ello nos lleva a que las
variables del sistema son periódicas múltiples en las coordenadas wk . Cuando se ejecutan mi ciclos completos
en cada plano (qi , pi ) el cambio en las variables wi viene dado por

∆wi = mi

ahora bien, de las Ecs. (9.149) vemos que para k > m tenemos ∆wi′ = ∆wi . Por otro lado, las Ecs. (9.149)
para k ≤ m, se pueden escribir

k≤m ⇒ wk′ = wk − wk+1 ⇒ ∆wk′ = ∆wk − ∆wk+1 = mk − mk+1 = entero


23
Nótese que las Ecs. (9.149, 9.150), nos dicen que esta es una transformación canónica en donde las nuevas coordenadas solo
son funciones de las antiguas coordenadas y los nuevos momentos solo son funciones de los antiguos momentos wk′ = wk′ (w) , Jk′ =
Jk′ (J).
206 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

Si hacemos una solo ciclo en el plano (qk , pk ) y ningún ciclo en los otros planos tenemos ∆wk′ = 1 (para cualquier
valor de k). Estas consideraciones nos llevan a concluı́r que el sistema también es periódico múltiple en las wk′
coordenadas con periodo unidad. Por tanto, estas nuevas variables también son del tipo acción-ángulo, y las
nuevas frecuencias se pueden calcular como en las ecuaciones (9.128, 9.129)
n
X
vk′ = ẇk′ = jki vi = 0 ; k = 1, ..., m
i=1
vk′ = ẇk′ = vk ; k = m + 1, ..., n (9.151)

donde hemos tenido en cuenta (9.145). En el nuevo sistema canónico tenemos entonces n − m frecuencias
independientes (cuando k ≥ m + 1) que además coinciden con las frecuencias originales del sistema, y las
m frecuencias espúreas asociadas con la m−degeneración se han traducido en m frecuencias nulas25 . Puesto
que wk′ = vk′ t + βk′ , las frecuencias nulas corresponden a wk′ = βk′ y por tanto a factores constantes en la
expansión de Fourier, como se puede ver por ejemplo en la Ec. (9.134). Estos factores constantes también
aparecen en la expansión original, siempre que los ı́ndices ji satisfagan una condición de degeneración. Por
ejemplo, supongamos que tenemos tres frecuencias ν1 , ν2 , ν3 y que ν1 = ν2 , la expansión (9.137) en las bases
(w, J) y (w′ , J ′ ) se escribe
X X X (k)
qk (t) = aj1 ,j2,j3 exp {2πi [j1 (ν2 t + β1 ) + j2 (ν2 t + β2 ) + j3 (ν3 t + β3 )]}
j1 j2 j3
XXX
qk (t) = a(k)
m1 ,m2 ,m3 exp {2πi [m1 (β1 − β2 ) + m2 (ν2 t + β2 ) + m3 (ν3 t + β3 )]}
m1 m2 m3

Volviendo al caso general, dado que las frecuencias νi′ se calculan como

∂H
vi′ = (9.152)
∂Ji′

el Hamiltoniano tiene que ser independiente de las variables de acción Ji′ asociadas a las frecuencias nulas, que
por construcción son las m primeras frecuencias. Por tanto
′ ′

H = H Jm+1 , Jm+2 , . . . , Jn′ (9.153)

En particular, si el sistema es completamente degenerado (i.e. degeneración de orden n−1), existirán m = n−1
condiciones de degeneración del tipo (9.145), y el Hamiltoniano dependerá de solo una de las Ji′ . Vemos entonces
que el paso del sistema (w, J) al sistema (w′ , J ′ ) conduce a una simplificación en la estructura del Hamiltoniano
y en las expansiones de Fourier de las variables del sistema.
Dado que las J ′ son n cantidades constantes independientes, las constantes originales de integración pueden
ser expresadas en términos de los J ′ , y por tanto W puede expresarse como W = W (q, J ′ ). Con estos
argumentos W genera una transformación a un nuevo conjunto canónico en donde las J ′ son los nuevos
momentos canónicos26 . Pero en virtud de la transformación puntual generada por F2 en (9.148), sabemos que
w′ es el conjugado de J ′ . Se sigue entonces que las nuevas coordenadas generadas por W (q, J ′ ) tienen que ser
el conjunto de variables angulares w′ , con ecuaciones de transformación dadas por
∂W
wi′ = (9.154)
∂Ji′

en conclusión, la función caracterı́stica W sirve también como generatriz de la transformación desde (q, p)
hasta (w′ , J ′ ).
25
Es obvio que las m frecuencias nulas no son frecuencias fı́sicas, sino artificios matemáticos para simplificar el problema. En
todo caso, el número de frecuencias no-nulas independientes permanece constante.
26
El hecho de que W (q, J) se pueda escribir como W (q, J ′ ), también se puede ver teniendo en cuenta que la transformación
(w, J) → (w′ , J ′ ) es tal que J ′ = J ′ (J).
9.11. COMENTARIOS FINALES SOBRE LAS VARIABLES ACCIÓN-ÁNGULO 207

9.11. Comentarios finales sobre las variables acción-ángulo


Hemos visto que para sistemas que poseen movimientos tipo libración o rotación en el espacio de fase, existe
un formalismo adecuado para estudiar las frecuencias del movimiento sin resolver completamente las ecuaciones
de movimiento. El formalismo de las variables acción ángulo es una variante de la técnica de Hamilton Jacobi
en la cual los nuevos momentos no se eligen como las constantes de integración sino como ciertas cantidades
constantes que contienen información sobre la órbita de libración o rotación, y que son en todo caso función
exclusiva de las constantes de integración. Cuando asumimos que el movimiento es periódico en el tiempo
este formalismo nos permite extraer de forma sencilla las frecuencias múltiples sin resolver completamente
las ecuaciones de movimiento. No obstante, debe tenerse claro que en el formalismo no hay ningún criterio
que nos asegure que el movimiento es de tipo libración o rotación, ni mucho menos que sea periódico en el
tiempo. Estas son hipótesis de trabajo que deben estar sustentandas por argumentos alternativos teóricos y/o
experimentales. Vale destacar sin embargo, que si los movimientos son de tipo rotación o libración pero no son
periódicos en el tiempo, el formalismo permite extraer la frecuencia promedio tomada sobre muchos ciclos.
De otra parte, cuando existe degeneración en ciertas frecuencias del sistema, es posible pasar de las variables
canónicas acción-ángulo (w, J) a otras variables canónicas de acción-ángulo (w′ , J ′ ) que me conducen a las
mismas frecuencias independientes, y en donde las frecuencias no independientes se convierten en frecuencias
nulas. Estas frecuencias nulas no son fı́sicas pero permiten simplificar considerablemente el problema. En
algunos casos, la hipótesis de periodicidad puede conducir automáticamente a la presencia de degeneración
debido a algunas simetrı́as del sistema (ver por ejemplo la sección 9.12). No obstante, en problemas generales
pueden existir degeneraciones accidentales (por ejemplo debidas a condiciones iniciales) que deben incorporarse
en este formalismo como hipótesis de trabajo.

9.12. El problema de Kepler en variables acción-ángulo


Para exhibir todas las propiedades de la solución usaremos las tres dimensiones en coordenadas esféricas
tal como en la sección 9.6.2. Lo primero que debemos determinar es el tipo de periodicidad en los planos
(θ, pθ ) , (φ, pφ ) y (r, pr ). Para ello despejamos a cada momento generalizado en función de su coordenada de
las ecuaciones (9.73, 9.76, 9.77, 9.79) con lo cual obtenemos

pφ = αφ (9.155)
α2φ
p2θ = α2θ − (9.156)
sin2 θ
α2θ
p2r = 2m [E − V (r)] − (9.157)
r2
como φ es variable angular cı́clica se le puede asociar la acción Jφ = 2παφ de acuerdo con (9.122), y asumir
que es una rotación eligiendo por conveniencia el periodo 2π (recuérdese que para variable cı́clica el periodo
de rotación es arbitrario). A primera vista, la Ec. (9.156) parece mostrar que la trayectoria en el plano de fase
(θ, pθ ) es periódica. No obstante, es necesario tener cierta información del movimiento para saber si θ está en
un intervalo acotado que se recorre de ida y vuelta en un intervalo finito de tiempo (o si tiene periodo tipo
rotación donde el periodo en θ se recorra en un intervalo finito de tiempo). Algo similar ocurre con el plano
(φ, pφ ) y con el plano (r, pr ). En el movimiento real estos planos definirán trayectorias periódicas solo si la
energı́a del sistema es negativa, pues de lo contrario la órbita no será cerrada ni acotada (para más detalles,
ver Cap. 10). Por ejemplo cuando la trayectoria es abierta, φ no barre el intervalo completo entre 0 y 2π y el
intervalo acotado solo se recorre de ida, no hay en consecuencia movimiento de rotación ni de libración en el
plano (φ, pφ ). Por otro lado, cuando la trayectoria es cerrada y acotada se puede ver que θ y r son acotados (van
y vuelven dentro de un intervalo finito de tiempo) de modo que su movimiento es de libración27 . En contraste
φ aumenta indefinidamente y su movimiento es de rotación. La discusión anterior refuerza el hecho de que el
27
Si suponemos que el plano de movimiento pasa por el origen, y que el eje z no yace en el plano de movimiento, podemos
asegurar que θ 6= 0 (y en general θ 6= nπ) en todo punto de la trayectoria, lo cual nos evita una singularidad en la Ec. (9.156).
208 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

carácter periódico en el espacio de fase y/o en el tiempo son una hipótesis de trabajo para iniciar el tratamiento
con variables acción ángulo, pero no hay nada en este formalismo que nos garantice tal periodicidad, la cual
debe ser extraı́da por otros argumentos.
Asumiendo entonces periodicidad en cada plano (qi , pi ), vamos a construir las variables de acción asociadas
a cada coordenada. Para ello usamos los valores de los momentos conjugados a φ, θ, r de las Ecs. (9.155, 9.156,
9.157), y usando un potencial de la forma V = −k/r
I I
∂W
Jφ = dφ = αφ dφ = 2παφ (9.158)
∂φ
s 
I I 2
∂W αφ 
Jθ = dθ =  α2θ − dθ (9.159)
∂θ sin2 θ
s 
I I
∂W 2mk α2θ
Jr = dr =  2mE + − 2  dr (9.160)
∂r r r

la primera integral es trivial y está asociada con el hecho de que la variable asociada es cı́clica. Para calcular la
segunda integral es conveniente introducir el ángulo polar del momento angular total que denotaremos por θi .
Recordando que αφ representa la componente polar del momento angular (ver Sec. 9.6.2), el ángulo θi viene
dado claramente por
Lz αφ
cos θi = = (9.161)
L αθ
en términos de cos θi , la integral (9.159) queda
s 
I
α2φ 1
Jθ = αθ  1 − 2  dθ
αθ sin2 θ
I r
cos2 θi
Jθ = αθ 1− dθ (9.162)
sin2 θ
podemos asumir sin pérdida de generalidad, que el plano del movimiento pasa por el origen de coordenadas.
Para analizar los lı́mites de integración debemos calcular los ángulos mı́nimo y máximo θ0 y θ1 entre un vector
de posición de la partı́cula y el eje Z.
La Fig. 9.3 nos ayuda a encontrar estos ángulos extremos. En esta figura, el plano Y Z se define de modo
que sea perpendicular al plano de movimiento. Por simplicidad, el plano Y Z se hace coincidir con el plano del
papel y el eje X sale del papel. La lı́nea punteada que pasa por el origen define la intersección entre el plano
de movimiento y el plano Y Z. Puesto que L es perpendicular al plano de movimiento, si lo trasladamos al
origen claramente yacerá en el plano Y Z. Teniendo en cuenta que θi es el ángulo entre el momento angular
L y el eje Z, y que L es perpendicular a cualquier vector de posición dentro del plano de movimiento, es
fácil ver que el menor y el mayor valor de θ se obtienen cuando el momento angular, el eje Z y el vector de
posición son coplanares. Hay dos vectores unitarios de posición que cumplen esta condición: los dos vectores
unitarios que van a lo largo de la lı́nea punteada denotados por rA y rB , los cuales definen los ángulos θ0 y θ1
respectivamente. Adicionalmente, la Fig. 9.3 muestra que
π π
θ0 = − θi , θ1 = π − θ0 = + θi .
2 2
De lo anterior, se deduce que el circuito completo del ángulo θ consiste en ir desde (π/2) − θi , hasta (π/2) + θi
y volver, donde sin θ0 = cos θi . La integral circuital (9.162) se puede escribir como 4 veces la integral entre π/2
y (π/2) + θi quedando28
s
Z (π/2)+θi r Z (π/2)+θi
cos2 θi sin2 θ − cos2 θi
Jθ = 4αθ 1− dθ = 4α θ dθ (9.163)
π/2 sin2 θ π/2 sin2 θ
28
θ0 es el ángulo mı́nimo pero no necesariamente el ángulo inicial.
9.12. EL PROBLEMA DE KEPLER EN VARIABLES ACCIÓN-ÁNGULO 209

Figura 9.3: Movimiento bajo una fuerza central. El plano Y Z es perpendicular al plano de movimiento. Cuando
la partı́cula alcanza la posición de mı́nimo o máximo valor de θ, el vector posición de la partı́cula está en el
mismo plano que el eje Z y el momento angular.

ahora bien, en nuestra convención L está en el plano Y Z. Por tanto, siempre es posible escoger el sentido del
eje Z de tal forma que el ángulo θi entre Z y L esté en el intervalo [0, π/2). Esto equivale a escoger cos θi y
sin θi como positivos29 , y dado que la integral anterior se evalúa entre π/2 y (π/2) + θi , tendremos que sin θ
también será positivo. Por tanto, la integral (9.163) queda
Z (π/2)+θi p 2 Z (π/2)+θi √
sin θ − cos2 θi − cos2 θ + 1 − cos2 θi
Jθ = 4αθ dθ = 4αθ dθ
π/2 sin θ π/2 sin θ
Z (π/2)+θi p 2
sin θi − cos2 θ
Jθ = 4αθ dθ (9.164)
π/2 sin θ
La sustitución
cos θ = − sin θi sin ψ ⇒ sin θ dθ = sin θi cos ψ dψ
convierte la integral (9.164) en
Z (π/2)+θi Z π/2 q
sin θ dθ p 2 sin θi cos ψ dψ
Jθ = 4αθ 2
2
sin θi − cos θ = 4αθ 2 sin2 θi − (sin θi sin ψ)2
π/2 sin θ 0 1 − (sin θi sin ψ)
Z π/2 2 q
sin θi cos ψ dψ
= 4αθ 1 − sin2 ψ
0 1 − sin2 θi sin2 ψ
quedando
Z π/2
2 cos2 ψ dψ
Jθ = 4αθ sin θi (9.165)
0 1 − sin2 θi sin2 ψ
29
Elegimos el intervalo [0, π/2), ya que θi = π/2, equivale a que el eje Z esté sobre el plano de movimiento, y esto permite
que θ = 0, en los puntos de la trayectoria en los cuales la órbita cruza al eje Z. Esto a su vez nos lleva a una singularidad en la
expresión (9.156).
210 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

la sustitución adicional  
u = tan ψ ; du = 1 + tan2 ψ dψ = 1 + u2 dψ
nos da
Z π/2 Z π/2
2 dψ 2 dψ
Jθ = 4αθ sin θi 1 = 4αθ sin θi
0 cos2 ψ
2 2
− sin θi tan ψ 0 (1 + tan ψ) − sin2 θi tan2 ψ
2
Z  Z ∞
∞ du/ 1 + u2 du
= 4αθ sin2 θi 2
2
= 4αθ sin θi  
0
2
(1 + u ) − sin θi u 2
0 (1 + u ) 1 + u2 1 − sin2 θi
2
Z ∞
sin2 θi
Jθ = 4αθ du
0 (1 + u2 ) [1 + u2 cos2 θi ]

al utilizar fracciones parciales esta integral queda


Z ∞   Z ∞ Z ∞
1 cos2 θi du 2 du
Jθ = 4αθ du 2
− 2 cos2 θ
= 4αθ 2
− 4αθ cos θ i 2 cos2 θ
0 1 + u 1 + u i 0 1 + u 0 1 + u i

haciendo el cambio de variable u′ = u cos θi , du′ = cos θi du en la segunda integral queda


Z ∞ Z ∞ ′ Z ∞ Z ∞ 
du 2 du / cos θi du du′
Jθ = 4αθ − 4αθ cos θi = 4αθ − cos θi
0 1 + u2 0 1 + u′2 0 1 + u2 0 1 + u′2
Z ∞
du π
Jθ = 4αθ [1 − cos θi ] 2
= 4αθ (1 − cos θi ) [arctan u]∞
0 = 4αθ (1 − cos θi ) = 2παθ (1 − cos θi )
0 1+u 2

con lo cual se obtiene finalmente


 
αφ
Jθ = 2παθ 1− = 2π (αθ − αφ ) (9.166)
αθ

puesto que la idea es escribir todo en términos de las J ′ s, invertimos las Ecs. (9.158, 9.166) para obtener αθ , αφ
en términos de Jθ , Jφ
Jφ Jθ + Jφ
αφ = ; αθ = (9.167)
2π 2π
sustituyendo (9.167) en la expresión (9.160) para Jr resulta
s
I I
∂W 2mk (Jθ + Jφ )2
Jr = dr = 2mE + − dr (9.168)
∂r r 4π 2 r 2

después de realizar esta integración, obtenemos una función cuyos argumentos son

Jr = Jr (E, Jθ + Jφ ) (9.169)

y si despejamos la energı́a E = H en esta ecuación obtenemos

∂H ∂H
E = H = H (Jr , Jθ + Jφ ) ⇒ =
∂Jθ ∂Jφ
⇒ νθ = νφ (9.170)

de modo que las frecuencias en los ángulos están degeneradas. Este resultado no depende de la ley del
inverso cuadrado sino solo del hecho de que la fuerza sea central, y de que la órbita sea acotada, en
cuyo caso el movimiento será al menos simplemente degenerado. Esta degeneración es consecuencia del hecho
de que el movimiento se hace en un plano perpendicular al momento angular. El movimiento en este plano
indica que θ y φ están relacionados de tal manera que cuando φ completa un periodo entre 0 y 2π, θ recorre
9.12. EL PROBLEMA DE KEPLER EN VARIABLES ACCIÓN-ÁNGULO 211

un ciclo completo entre los lı́mites θ1 y θ2 ida y vuelta siendo θ1,2 = (π/2) ± θi , de modo que las frecuencias
en θ y φ son necesariamente iguales.
Para realizar la integración en Jr primero tengamos en cuenta que el movimiento es acotado solo para
energı́as negativas y dado que el integrando es igual a pr = mṙ, los lı́mites del movimiento están comprendidos
entre las raı́ces r1 y r2 de la expresión que está dentro del radical en (9.168) y que forman los puntos de retorno
en r. Los extremos r1 y r2 son entonces las raı́ces de

2mk (Jθ + Jφ )2
2mE + − = 0
r 4π 2 r 2
(Jθ + Jφ )2
2mEr 2 + 2mkr − = 0 (9.171)
4π 2
Si r1 , r2 son los lı́mites inferior y superior respectivamente (las dos raı́ces de la cuadrática 9.171), un ciclo
completo incluye ir desde r1 hasta r2 y volver. En la ida (vuelta) pr es positivo (negativo) y por tanto la raı́z
cuadrada en (9.168) debe ser positiva (negativa). Con lo cual (9.168) se escribe como
s
Z r2
2mk (Jθ + Jφ )2
Jr = 2 2mE + − dr
r1 r 4π 2 r 2

La integración por variable compleja se puede ver en la Pág 469 de la Ref. [1], el resultado es
r
2m
Jr = − (Jθ + Jφ ) + πk
−E

el cual tiene la estructura dada por (9.169) como se anticipó. Nótese que Jr solo es real para energı́as negativas,
en concordancia con el hecho de que las trayectorias deben tener energı́a negativa para ser acotadas. Despejando
la energı́a i.e. el Hamiltoniano se tiene

2π 2 mk2
E=H=− (9.172)
(Jr + Jθ + Jφ )2

se vé que para fuerzas atractivas inversas al cuadrado de la distancia, la degeneración es aún mayor de lo
predicho para fuerzas centrales en general. En este caso los tres periodos coinciden y el movimiento es comple-
tamente degenerado, lo cual nos dice que la órbita es cerrada cuando la energı́a es negativa. Con una órbita
cerrada el movimiento es simplemente periódico y en este caso, completamente degenerado. Si la fuerza central
contiene un término proporcional a r −3 (por ejemplo una corrección relativista de primer orden), la órbita ya
no es cerrada sino que tiene la forma de una elipse que precesa. Una de las degeneraciones se remueve en este
caso, pero el movimiento es aún simplemente degenerado ya que la fuerza aún es central.
Volviendo al caso de Kepler, la frecuencia y el periodo vienen dados por

∂H ∂H ∂H 4π 2 mk2 1 (Jr + Jθ + Jφ )3
v= = = = ; τ = = (9.173)
∂Jr ∂Jθ ∂Jφ (Jr + Jθ + Jφ )3 ν 4π 2 mk2

la suma de los J ′ s se puede escribir en términos de la energı́a a partir de (9.172), y el periodo resulta
r
m
τ = πk (9.174)
−2E 3

esta fórmula para el periodo está de acuerdo con la tercera ley de Kepler si tenemos en cuenta que el semieje
mayor a es igual a −k/2E, como se verá en el Cap. 10, Ecs(10.94, 10.110).
Recalcamos finalmente, que para encontrar el periodo del movimiento no utilizamos la ecuación de la
trayectoria ni la dependencia de las variables con el tiempo. Para integrar los Ji , solo fué necesario hacer
algunas suposiciones generales tales como: (a) El movimiento es periódico y acotado en todos los planos de
212 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

fase, solo si la energı́a es negativa30 . (b) El momento angular es una constante de movimiento y esto implica
que el movimiento es en un plano.
Vale decir que en este caso fué posible predecir con base en estas hipótesis, la presencia de degeneración
simple en el caso de fuerzas centrales (νθ = νφ ), y de degeneración total para interacción kepleriana atractiva
i.e. V (r) = −k/r.

9.12.1. Variables acción-ángulo teniendo en cuenta la degeneración


La degeneración completa nos indica que existe un conjunto de variables acción-ángulo (w′ , J ′ ) en las cuales
H solo depende de un Ji′ y solo una de las frecuencias es no nula. Vamos a encontrar la transformación canónica
caracterizada por 
(wθ , wφ , wr , Jθ , Jφ , Jr ) → w1′ , w2′ , w3′ , J1′ , J2′ , J3′
para lo cual usamos los resultados de la sección (9.10.4). Expresemos las condiciones de degeneración en la
forma
vφ − vθ = 0 ; vθ − vr = 0 (9.175)
Ordenaremos las variables acción-ángulo originales en la forma
(wθ , wφ , wr , Jθ , Jφ , Jr ) ≡ (w1 , w2 , w3 , J1 , J2 , J3 )
con este criterio de orden, conviene reescribir las m = 2 condiciones de degeneración (9.175), para las n = 3
frecuencias, en la forma
−vθ + vφ + 0 · vr = 0 ; vθ + 0 · vφ − vr = 0 (9.176)
comparando con (9.145) se tiene que
j11 = −1, j12 = 1, j13 = 0 ; j21 = 1, j22 = 0, j23 = −1
y reemplazando los elementos de jki en (9.148)
2 X
3 3
" 2 #
X X X
F2 = Jk′ jki wi + Jk′ wk = Jk′ (jk1 w1 + jk2 w2 + jk3 w3 ) + J3′ w3
k=1 i=1 k=3 k=1
F2 = J1 (j11 w1 + j12 w2 + j13 w3 ) + J2′ (j21 w1

+ j22 w2 + j23 w3 ) + J3′ w3
F2 = J1′ (−wθ + wφ ) + J2′ (wθ − wr ) + J3′ wr (9.177)
las nuevas variables angulares se obtienen de (9.149)
3
X
w1′ = j1i wi = j11 w1 + j12 w2 + j13 w3 = −wθ + wφ
i=1
X3
w2′ = j2i wi = j21 w1 + j22 w2 + j23 w3 = wθ − wr ; w3′ = wr (9.178)
i=1

para obtener la transformación de los momentos, aplicamos (9.150), de lo cual resulta


2
X 3
X
Jθ ≡ J1 = Jk′ jk1 + Jk′ δk1 = J1′ j11 + J2′ j21 + J3′ δ31 = −J1′ + J2′
k=1 k=3
X2 X3
Jφ ≡ J2 = Jk′ jk2 + Jk′ δk2 = J1′ j12 + J2′ j22 + J3′ δ32 = J1′
k=1 k=3
2
X 3
X
Jr ≡ J3 = Jk′ jk3 + Jk′ δk3 = J1′ j13 + J2′ j23 + J3′ δ33 = −J2′ + J3′
k=1 k=3
30
En la sección 10.4.1, Pág. 222, veremos que se puede concluı́r que la curva es acotada solo para energı́as negativas, a través
del análisis de curvas de energı́a potencial efectiva. En tal análisis, no es necesario recurrir a las ecuaciones de movimiento o de
trayectoria.
9.13. EJERCICIOS 213

quedando
Jθ = J2′ − J1′ ; Jφ = J1′ ; Jr = J3′ − J2′ (9.179)
las Ecs. (9.178) y el inverso de las ecuaciones (9.179), me caracterizan a (w′ , J ′ ) en términos de los (w, J)
originales
w1′ = wφ − wθ ; w2′ = wθ − wr ; w3′ = wr (9.180)
J1′ = Jφ ; J2′ = Jθ + Jφ ; J3′ = Jθ + Jφ + Jr (9.181)
y reemplazando estas expresiones en (9.172) resulta
 2π 2 mk2
H J3′ = E = − (9.182)
J3′2
como se predijo, el Hamiltoniano es función de una sola Ji′ en esta base de variables, debido a la completa
degeneración del sistema. La única frecuencia caracterı́stica (no nula) del problema es
∂H 4π 2 mk2
ν3′ = =
∂J3′ J3′3
para escribir la frecuencia y el periodo en términos de constantes más Fı́sicas, podemos despejar J3′ de la Ec.
(9.182) de modo que queda en términos de la energı́a, esencialmente en la misma forma en que pasamos de la
Ec. (9.173) a la Ec. (9.174).
Si realizamos un análisis detallado de las variables angulares w′ veremos que éstas también conducen a
constantes de movimiento. Esto se puede ver más fácilmente si trabajamos el problema bidimensionalmente
desde el principio (ver sección 10.16).

9.13. Ejercicios
1. Un sistema de un grado de libertad está descrito por el Hamiltoniano
p2
H=− mAtx
2m
siendo A una constante. Resuelva el problema dinámico utilizando la función principal de Hamilton
bajo las condiciones iniciales x (0) = 0 y p (0) = mv0 . Nótese que este es un ejemplo de Hamiltoniano
dependiente del tiempo que se puede resolver por HJ. Es claro que para este Hamiltoniano no se puede
emplear la ecuación de HJR para la función caracterı́stica de Hamilton.
2. Una partı́cula de masa m está restringida a moverse sobre una curva en el plano vertical definida por las
ecuaciones paramétricas
y = l (1 − cos 2φ) ; x = l (2φ + sin 2φ)
sobre la partı́cula actúa la fuerza gravitacional en la dirección vertical y. Encuentre las frecuencias del
movimiento empleando variables acción-ángulo, empleando todas las condiciones iniciales que nos lleven
a que el máximo de φ sea menor o igual a π/4.
3. Consideremos una partı́cula de carga q que se mueve en el plano XY sujeta a un campo magnético
constante y uniforme B, perpendicular al plano XY . Escogeremos el vector potencial A de modo que
solo tenga componente y (esta escogencia se conoce como gauge de Landau), de modo que Ay = Bx y el
Hamiltoniano del sistema será
p2x (py + bx)2
H (x, y, px , py ) =
+ ; b ≡ −qB (9.183)
2m 2m
asuma separación de variables para la función principal de Hamilton
S = Wx (x) + Wy (y) − αt
y reduzca el problema a cuadraturas.
214 CAPÍTULO 9. TEORÍA DE HAMILTON-JACOBI Y VARIABLES ACCIÓN-ÁNGULO

4. Con respecto al Hamiltoniano (9.183), consideremos la transformación gauge A → A′ = A + ∇Ψ, con


Ψ = −bxy/2. (a) Demuestre que el nuevo Hamiltoniano queda
 2  2
1 by 1 bx
H (x, y, px , py ) = px − + py + (9.184)
2m 2 2m 2

si bien este Hamiltoniano es claramente equivalente al Hamiltoniano (9.183), la ecuación de Hamilton-


Jacobi para el Hamiltoniano (9.184), es considerablemente más difı́cil de separar. (b) Pruebe el ansatz
de separación
1
S = Kxy + Wx (x) + Wy (y) − αt
2
y reduzca el problema a cuadraturas. Este problema ilustra el hecho de que la separabilidad de la ecuación
de HJ no solo depende del sistema coordenado elegido, sino también del gauge elegido.

5. Una partı́cula de masa m está restringida a moverse sobre el eje X sujeta al potencial V = a sec2 (x/l).
(a) Resuelva la ecuación de HJ y a partir de la función generatriz, encuentre x (t). (b) Encuentre las
variables acción-ángulo y la frecuencia ν asociada al sistema. Obtenga la dependencia de la frecuencia
con la amplitud y encuentre el lı́mite de pequeñas amplitudes para ν.

6. Reduzca a cuadraturas la ecuación de HJ para el Hamiltoniano


 2 
p kq 2
H (q, p, t) = f (t) +
2m 2

donde m y k son constantes y f (t) una función integrable. Encuentre q (t) y p (t) ası́ como la trayectoria
en el espacio de fase, para los tres casos siguientes

f (t) = eαt ; f (t) = e−αt ; f (t) = cos Ωt ; α>0

donde α y Ω son constantes.


Capı́tulo 10

Fuerzas centrales

Discutiremos a continuación, el problema de la interacción entre dos masas puntuales que se mueven
bajo la influencia de una fuerza que va a lo largo de la lı́nea que las une. Este es un problema que posee
muchas aplicaciones tanto en Fı́sica Clásica como en Fı́sica Moderna. Siguiendo el espı́ritu de las formulaciones
aquı́ presentadas, primeros nos concentraremos en las primeras integrales que se pueden hallar sin resolver el
problema completo, para luego analizar algunos potenciales especı́ficos.

10.1. Reducción al problema equivalente de dos partı́culas desacopladas

Figura 10.1: Variables de posición fundamentales en el problema de dos cuerpos.

Consideremos un sistema monogénico de dos masas puntuales m1 y m2 como lo indica la Fig. 10.1, donde las
únicas fuerzas que actúan sobre ellas son las debidas al potencial mutuo U . La isotropı́a del espacio nos sugiere
que si las masas no poseen alguna propiedad vectorial, la interacción entre ellas debe ir dirigida a lo largo de
la lı́nea que las une, esto indica que el potencial debe ser función del valor absoluto de la coordenada relativa
r2 − r1 ≡ r. Este sistema tiene seis grados de libertad y por tanto requiere de seis coordenadas generalizadas.
Quizás el sistema de coordenadas generalizadas más conveniente lo constituye las coordenadas de posición del
centro de masa R, y las coordenadas que determinan al vector relativo r. Estas coordenadas se pueden escribir
en términos de las coordenadas de posición de las partı́culas r1 y r2

m1 r1 + m2 r2
r ≡ r2 − r1 ; R ≡ (10.1)
m1 + m2

215
216 CAPÍTULO 10. FUERZAS CENTRALES

estas ecuaciones se pueden invertir para obtener


m2 m1
r1 = R − r ; r2 = R + r (10.2)
m1 + m2 m1 + m2
también son útiles las coordenadas de posición de las partı́culas relativas al centro de masa r′1 y r′2

r1 = R + r′1 ; r2 = R + r′2 (10.3)

con lo cual
m2 m1
r′1 = − r ; r′2 = r (10.4)
m1 + m2 m1 + m2
En esta sección consideraremos una situación algo más general en donde el potencial puede depender también
de las derivadas temporales del vector relativo r. El Lagrangiano del sistema se puede escribir como
 
L = T Ṙ, ṙ − U (r, ṙ, ..)

es bien sabido que la energı́a cinética de un sistema de partı́culas se puede escribir como la energı́a cinética
del centro de masa mas la energı́a cinética con respecto al centro de masa (ver Ec. 1.32, Pág. 13)
1 1 1 1 1
T = m1 ṙ21 + m2 ṙ22 = m1 ṙ′2 ′2
1 + m2 ṙ2 + M Ṙ
2
(10.5)
2 2 2 2 2
donde M ≡ m1 + m2 . Usando (10.4) se puede escribir la energı́a cinética en términos de las coordenadas
generalizadas elegidas i.e. las componentes de Ṙ y ṙ
  1m m 1
1 2 2
T Ṙ, ṙ = ṙ + M Ṙ2 (10.6)
2 M 2
el Lagrangiano queda de la forma
1 1 m1 m2 2
L = M Ṙ2 + ṙ − U (r, ṙ, ..) (10.7)
2 2 M
se puede ver que las 3 coordenadas de R son cı́clicas. Si elegimos como coordenadas generalizadas las tres
componentes cartesianas de R, vemos que los tres momentos lineales (que serı́an los momentos canónicos)
son constantes y por tanto, Ṙ = cte, de modo que el centro de masa está en reposo o movimiento rectilı́neo
uniforme1
R = R0 + Ṙt (10.8)
si nuestro sistema original de referencia es inercial, entonces el sistema con origen en el centro de masa también
lo es. Podemos entonces ver el movimiento a partir del centro de masa, en cuyo caso el Lagrangiano (10.7)
queda
1
L = µṙ2 − U (r, ṙ, ..) (10.9)
2
donde hemos definido la masa reducida del sistema como
m1 m2
µ≡ (10.10)
M
El Lagrangiano (10.9) es el equivalente al Lagrangiano que se obtendrı́a si tuviéramos una partı́cula de masa
µ (que llamaremos la µ−partı́cula) sometida a una fuerza que apunta siempre hacia un punto fijo (fuerza
central), y a una distancia r del centro de fuerza. Por otro lado, el Lagrangiano (10.7) que se escribe desde
el sistema de referencia del laboratorio, es equivalente al Lagrangiano de dos partı́culas desacopladas, una de
ellas es la µ−partı́cula ya mencionada y la otra es una partı́cula libre de masa M = m1 + m2 , que se mueve
1
Desde el punto de vista Newtoniano esto se puede ver por el hecho de que el sistema está aislado, de modo que el centro de
masa no puede estar acelerado. En términos de simetrı́as, se dice que el sistema tiene invarianza traslacional que conduce a la
conservación del momento lineal.
10.2. ECUACIONES DE MOVIMIENTO Y PRIMERAS INTEGRALES 217

con velocidad constante como se vé en la Ec. (10.8) y que llamaremos la M −partı́cula. Sin embargo, dado que
la dinámica de la M −partı́cula es trivial, solo necesitaremos resolver la dinámica de la µ−partı́cula. Por esta
razón suele decirse que el problema de dos cuerpos sometidos a fuerzas centrales mutuas, se puede reducir a
un problema de una sola partı́cula que interactúa con un centro de fuerzas2 .
Debemos recordar sin embargo, que tanto la µ−partı́cula como la M −partı́cula SON IMAGINARIAS,
no hay ninguna partı́cula en el sistema Fı́sico con masa µ o con masa M . Las trayectorias que encontraremos
son las trayectorias de estas partı́culas imaginarias. Para encontrar la trayectoria de las partı́culas reales con
respecto al sistema inercial original (laboratorio), es necesario devolverse tomando las Ecs. (10.2, 10.8) junto
con las soluciones que encontremos para r.
No obstante, si ocurre que m1 << m2 entonces tanto la trayectoria como la masa de la µ−partı́cula,
van a ser muy semejantes a la trayectoria y masa real de m1 . En el mismo lı́mite, la trayectoria y la masa
de la M −partı́cula son muy similares a la trayectoria y la masa de la partı́cula real m2 . De hecho, en esta
aproximación la posición del centro de masa es casi igual a la posición de la partı́cula m2 .
Podemos decir entonces que el paso de las coordenadas r1 , r2 a las coordenadas R, r nos lleva de un
sistema de dos partı́culas (reales) acopladas o interactuantes, a otro sistema de dos partı́culas (imaginarias)
desacopladas o no interactuantes entre sı́, donde una de ellas es libre y la otra interactúa con el potencial
central.

10.2. Ecuaciones de movimiento y primeras integrales


Nos concentraremos de aquı́ en adelante en el problema de una sola partı́cula sometida a un potencial
que solo depende de r y no de sus derivadas temporales, de modo que la fuerza va en la dirección de r. Es
natural tomar el origen en el punto de convergencia de las fuerzas. Dado que en tal sistema de referencia
la energı́a potencial solo depende de la distancia al origen, el problema exhibe simetrı́a esférica, por lo tanto
cualquier rotación sobre cualquier eje fijo que pase por el origen no tiene efecto en la solución. Por lo tanto debe
haber algún ángulo que representa la rotación sobre el eje en cuestión que debe ser cı́clico. Estas propiedades
de simetrı́a llevan a una simplificación significativa del problema.
La simetrı́a esférica del Lagrangiano (invarianza ante rotaciones arbitrarias) nos lleva a la conservación del
momento angular L como vimos en la sección 5.4.3 aplicando el teorema de Noether3

L = r × p = cte

Naturalmente los vectores r y p forman el plano instantáneo de movimiento. Si el vector L es constante,


esto significa que todos los planos instantáneos de movimiento pertenecen a un mismo plano. En sı́ntesis, el
movimiento es bidimensional, además el “sentido de giro” dictaminado por las condiciones iniciales no se puede
invertir ya que esto implicarı́a que L invirtiera su sentido. Un caso particular resulta cuando L es nulo, esto
solo se logra si r es paralelo a p, en cuyo caso el movimiento es lineal y la recta que contiene a la trayectoria
pasa por el centro de fuerzas (aunque no necesariamente la partı́cula pasará por el centro de fuerzas)4 .
Por comodidad podemos asumir que el movimiento yace en el plano XY de modo que L es paralelo al eje
Z. La conservación de L nos provee de tres constantes de movimiento, al restringir el movimiento a un plano
hemos usado dos de ellas (los dos grados de libertad necesarios para definir el vector unitario en la dirección
de L), la tercera deberá aparecer como la magnitud de L. El momento angular se puede calcular usando los
2
Es importante tener en cuenta que en el sistema de referencia del laboratorio, el problema equivalente es de dos cuerpos
desacoplados en donde uno de ellos tiene dinámica trivial. Por ejemplo, el número de grados de libertad se tiene que conservar en
una transformación de coordenadas, y los seis grados de libertad originales no se pueden manifestar en una sola partı́cula. Cuando
pasamos al sistema de referencia centro de masa (que también es inercial) absorbemos tres grados de libertad triviales y solo nos
quedamos con los tres grados de libertad no triviales de la µ−partı́cula.
3
Recuérdese que desde el punto de vista Newtoniano, esto se puede ver teniendo en cuenta que para fuerzas centrales r es
paralelo a F de modo que el torque r × F es nulo y por tanto se conserva el vector momento angular (ver sección 1.4 Pág. 4).
4
L también es nulo si r = 0 y/o p = 0 para todo tiempo. Pero esto implicarı́a que la partı́cula es libre.
218 CAPÍTULO 10. FUERZAS CENTRALES

vectores unitarios radial y transversal de las coordenadas polares

L = r × p = mr × v = mrur × (vr ur + vθ uθ ) = mrvθ ur × uθ


L = mr 2 θ̇ uz (10.11)

Trabajaremos entonces en coordenadas polares planas para las cuales el Lagrangiano se escribe
1  
L = m ṙ 2 + r 2 θ̇ 2 − V (r)
2
como se previó, existe una coordenada angular cı́clica θ. El momento conjugado a esta variable es constante y
corresponde a la magnitud del momento angular
∂L
pθ = = mr 2 θ̇ = cte
∂ θ̇
nótese que esta cantidad contiene la información sobre el sentido de giro (dada por el signo de θ̇) y por tanto del
sentido de L, como se observa en la Ec. (10.11), es decir θ̇ nos dice si L apunta en forma paralela o antiparalela
al eje Z. Una de las primeras integrales de movimiento es entonces
d  2 
ṗθ = mr θ̇ = 0 (10.12)
dt
y se puede integrar en forma inmediata
mr 2 θ̇ = l (10.13)
siendo l la magnitud del momento angular. Podemos extraer mas información útil a partir de (10.12), de la
cual se deduce  
d 1 2
r θ̇ = 0 (10.14)
dt 2
veamos la interpretación del término entre paréntesis. Sea ds la longitud de arco recorrida por la partı́cula
en un intervalo infinitesimal de tiempo dt, el diferencial de área que barre el radio vector de posición en un
tiempo dt es
r ds 1
dA = = r (rdθ)
2 2
y la velocidad de área, es decir el área que barre el radio vector de posición por unidad de tiempo es
dA 1 dθ 1
= r2 = r 2 θ̇ (10.15)
dt 2 dt 2
pero de acuerdo con (10.14) se llega a que
 
d dA dA
=0⇒ = cte
dt dt dt
de modo que la velocidad de área es constante y se obtiene la segunda ley de Kepler, el radio vector de
posición barre áreas iguales en tiempos iguales. El valor de la velocidad de área se puede encontrar
fácilmente a partir del valor del momento angular l. Kepler obtuvo esta ley con base en la interacción gravita-
cional en donde V (r) = −k/r. Sin embargo, en nuestra presente derivación solo se empleó la conservación del
momento angular, mostrando que esta ley es válida para cualquier fuerza central.
La ecuación de Lagrange para la coordenada no cı́clica r es
d ∂V
(mṙ) − mr θ̇ 2 + =0
dt ∂r
recordando que la fuerza viene dada por −∇V que en este caso es − (∂V /∂r) ur se tiene que

mr̈ − mr θ̇ 2 = f (r)
10.2. ECUACIONES DE MOVIMIENTO Y PRIMERAS INTEGRALES 219

teniendo en cuenta la primera integral dada por (10.13) podemos eliminar θ̇ de la anterior ecuación

l2
mr̈ − = f (r) (10.16)
mr 3
con lo cual se obtiene una ecuación diferencial ordinaria solo en la variable r. Aunque esto reduce formalmente
el problema a cuadraturas, resulta más ventajoso obtener otra primera integral de movimiento teniendo en
cuenta que la función energı́a (o el Hamiltoniano) reúne las condiciones para ser la energı́a del sistema y además
no es función explı́cita del tiempo lo cual nos lleva a la conservación de la energı́a del sistema (esto también
se puede ver por el hecho de que las fuerzas centrales son conservativas). Esta ley de conservación se escribe
 
1 2 2
 1  2 2 2
 1 2 r 2 l2
E = m vr + vθ + V (r) = m ṙ + r θ̇ + V (r) = m ṙ + 2 4 + V (r) (10.17)
2 2 2 m r
1 2 1 l2
E = mṙ + + V (r) (10.18)
2 2 mr 2
donde hemos tenido en cuenta de nuevo (10.13). Nótese que la Ec. (10.18) es de primer orden en tanto que
(10.16) es de segundo orden, es decir formalmente hemos hecho un primer proceso de integración. Este primer
proceso de integración se puede ver de manera más transparente usando las Ecs. (10.12, 10.16). La Ec. (10.16)
se puede reescribir como  
d 1 l2
mr̈ = − V +
dr 2 mr 2
multiplicando a ambos lados por ṙ  
d 1 l2
mṙ r̈ = −ṙ V + (10.19)
dr 2 mr 2
el miembro de la izquierda se escribe como
 
d 1 2
mṙ r̈ = mṙ
dt 2
para el miembro de la derecha se tiene en cuenta que la derivada total respecto al tiempo de una función g que
solo depende de r, se escribe como dg (r) /dt = (dg/dr) ṙ. De modo que
    
d 1 l2 d 1 l2
− V + = − ṙ V +
dt 2 mr 2 dr 2 mr 2
con lo cual la Ec. (10.19) queda
   
d 1 2 d 1 l2
mṙ = − V + ⇒
dt 2 dt 2 mr 2
1 2 1 l2
mṙ + V + = cte ≡ E (10.20)
2 2 mr 2
y la Ec. (10.20) coincide con (10.18). Se observa que el último paso es un proceso de integración que me redujo
la ecuación diferencial de segundo orden a una de primer orden. El procedimiento anterior nos muestra también
la ventaja de conocer constantes de movimiento por argumentos de simetrı́a, ya que permite obtener primeras
integrales de movimiento sin tener que realizar explı́citamente el primer proceso de integración.
Dado que originalmente tenemos dos variables r y θ y ecuaciones diferenciales de segundo orden, se requieren
cuatro integraciones para resolver las ecuaciones de movimiento de las cuales hemos obtenido dos. Como se
puede ver las primeras integrales obtenidas han convertido las ecuaciones de Lagrange en dos ecuaciones
de primer orden que requieren de dos integraciones Ecs. (10.13, 10.18). Nótese que la Ec. (10.18) tiene una
apariencia muy similar a una ecuación unidimensional con potencial conservativo
1
E= mẋ2 + V (x)
2
220 CAPÍTULO 10. FUERZAS CENTRALES


excepto por el término l2 / 2mr 2 . Esto nos induce a definir un potencial efectivo de la forma

1 l2
Vef f ≡ V (r) + (10.21)
2 mr 2
de modo que la Ec. (10.18) se reescribe como
1
E = mṙ 2 + Vef f (r) (10.22)
2
con la Ec. (10.22) el análogo unidimensional se hace perfecto. Esto nos permitirá realizar curvas de energı́a
potencial efectiva versus r e interpretar el movimiento de manera análoga al caso unidimensional, aunque con
algunas diferencias que ya indicaremos más adelante.
Ya hemos visto varios métodos para obtener las integrales de movimiento, el más sencillo a partir del
procedimiento que hemos seguido es el de resolver para ṙ en la Ec. (10.22)
r
2
ṙ = [E − Vef f (r)] (10.23)
m
con lo cual
dr
dt = q
2
m [E − Vef f (r)]

integrando y teniendo en cuenta los valores iniciales r (t0 ) = r0 se escribe


Z r
dr
t − t0 = q (10.24)
r0 2
m [E − Vef f (r)]

la Ec. (10.24) nos da t en función de r y de las constantes de integración E, l, r0 , recordemos que l está contenido
en el potencial efectivo. Este puede invertirse al menos formalmente para obtener r en función del tiempo y
las constantes. Una vez encontrada la solución para r (t) se puede sustituı́r en (10.13) para obtener la solución
en θ
l
θ̇ = (10.25)
mr 2 (t)
l dt
dθ = (10.26)
mr 2 (t)
tomando a θ0 como el valor inicial de θ, la integración nos da
Z t
l dt
θ − θ0 = 2
(10.27)
m t0 r (t)

finalmente, si estamos interesados en la ecuación de la trayectoria, esta se puede obtener haciendo el cociente
de (10.25) sobre (10.23)

dθ/dt dθ l
= = q  (10.28)
dr/dt dr mr 2 2
m (E − Vef f )
Z r
l dr
θ − θ0 = q  (10.29)
r0 mr 2 2
m (E − Vef f )

formalmente las Ecs. (10.24, 10.27) nos proveen de las dos integrales restantes necesarias para determinar las
ecuaciones de movimiento5 . Dado que se requieren cuatro integrales también se requieren cuatro constantes
5
La integral (10.28) no es independiente y se obtiene a partir de las anteriores.
10.3. PROBLEMA UNIDIMENSIONAL ASOCIADO Y CLASIFICACIÓN DE ÓRBITAS 221

de movimiento, las cuales pueden ser r0 , θ0 , ṙ0 , θ̇0 , sin embargo un conjunto mas conveniente para la mayorı́a
de aplicaciones es E, l, r0 , θ0 . En todo caso, un conjunto se puede convertir en el otro. En los problemas que
analizaremos será mas conveniente usar E y l. En mecánica cuántica, los valores iniciales de las coordenadas
y sus derivadas pierden su significado, pero E, l son todavı́a útiles en este formalismo y de por sı́ muchas
de las diferencias entre los comportamientos clásicos y cuánticos estriban en el comportamiento de estas dos
cantidades. Por este motivo, para cuantizar una teorı́a es conveniente que esté escrita en términos de la energı́a
y el momento angular del sistema.

10.3. El problema unidimensional equivalente y la clasificación de órbitas

Ya hemos visto que la definición de un nuevo potencial efectivo (10.21) conduce a que una de las primeras
integrales asociada a la conservación de la energı́a, tenga un análogo unidimensional ya que queda escrito de
la forma
1
E = mṙ 2 + Vef f (r) (10.30)
2
Donde el potencial efectivo Vef f corresponde al potencial real más un término adicional en la forma

1 l2 1
Vef f ≡ V (r) + Vcent ; Vcent ≡ = mvθ2 (10.31)
2 mr 2 2
Vcent se conoce como potencial centrı́fugo. Este nombre se debe a que si este término correspondiera a un
potencial real, corresponderı́a a una fuerza central repulsiva (ya que es positivo). No obstante, debe tenerse
claro que este término no da cuenta de una interacción real, es decir no es un verdadero potencial, realmente
corresponde a una porción de la energı́a cinética de la partı́cula (la correspondiente a la velocidad transversal)
como puede verse en la sección anterior Ecs. (10.17, 10.18). Este término centrı́fugo depende de l y por tanto
depende en general de las condiciones iniciales, un cambio en el momento angular corresponderá a un cambio
en el potencial centrı́fugo, obsérvese que el potencial real unidimensional es independiente de las condiciones
iniciales lo cual constituye una de las principales diferencias con el potencial efectivo. Sin embargo, mientras
el sistema no interactúe con otros cuerpos, el momento angular será una constante y por lo tanto el potencial
efectivo no cambiará.
Veamos ahora qué observables se pueden determinar con base en las primeras integrales, la velocidad por
ejemplo se puede obtener en magnitud y dirección, su magnitud se obtiene de la conservación de la energı́a
r
1 2 2
E = mv + V (r) ⇒ v = [E − V (r)] (10.32)
2 m
en este caso solo interviene el potencial real ya que el efectivo lo que hace es tomar una porción de la energı́a
cinética la cual aquı́ se escribe completa. La componente radial de la velocidad se puede obtener de (10.23)6 .
Con la rapidez y la velocidad radial es suficiente para obtener el vector velocidad7 . Otra manera de hacerlo es
obtener θ̇ a través de l en la Ec. (10.13), y ṙ con la ecuación (10.23).
Las siguientes relaciones se siguen de las Ecs. (10.30, 10.31)

1 2 1
E − Vef f = mṙ = mvr2 (10.33)
2 2
1 1 
E − V (r) = mv 2 = m vr2 + vθ2 (10.34)
2 2
1 2 2 1
Vef f − V = mr θ̇ = mvθ2 (10.35)
2 2
6
Nótese que esto es equivalente a tomar (10.32), descomponiendo la velocidad en sus términos radial y transversal y absorbiendo
el término transversal en el potencial para definir el potencial efectivo que aparece en (10.23).
7
La conservación del momento angular evita una posible ambigüedad en el sentido de la velocidad transversal.
222 CAPÍTULO 10. FUERZAS CENTRALES

Las Ecs. (10.33, 10.34, 10.35) nos inspiran a hacer gráficas de la energı́a total, el potencial efectivo, y el
potencial real en función de r. Naturalmente, la curva de E corresponde a una recta horizontal en virtud de su
conservación. De las mencionadas ecuaciones vemos que las regiones accesibles, es decir los valores permitidos
para r deben cumplir que E ≥ Vef f (r) puesto E − Vef f es la cantidad no negativa 12 mṙ 2 , esta cantidad a lo
más puede ser cero lo cual ocurre en los puntos de retorno8 ri , en donde se anula la velocidad radial. De la
misma manera, la región accesible debe cumplir que E ≥ V (r) ya que E − V (r) es la energı́a cinética completa
para un valor dado de r. Finalmente, en la región permitida se debe cumplir que Vef f (r) ≥ V (r) puesto que
Vef f − V es la energı́a cinética transversal.
Las Ecs. (10.33, 10.34, 10.35), muestran que la brecha entre la energı́a total y la curva de potencial efectivo
es la energı́a cinética radial, la brecha entre E y la curva V (r) nos da la energı́a cinética total y la brecha
entre las curvas Vef f y V (r) nos da la energı́a cinética transversal (término centrı́fugo). Por tanto, estas curvas
proveen la rapidez de la partı́cula ası́ como sus componentes radial y transversal para una distancia dada r,
con una energı́a y momento angular dados.
Por otro lado, vemos que la definición (10.21) conduce automáticamente a la condición Vef f (r) ≥ V (r), y
que el cumplimiento de la condición E ≥ Vef f , nos lleva automáticamente a E ≥ V (r). En consecuencia, solo
la condición E ≥ Vef f nos da información fı́sica sobre regiones permitidas o excluı́das para la partı́cula.
El análisis cualitativo aquı́ descrito permite pintar la órbita en forma aproximada.

10.4. Análisis de curvas de potencial efectivo


Vamos a ilustrar el análisis de curvas de potencial efectivo a través de algunos ejemplos

10.4.1. Potencial efectivo para interacción kepleriana


Tomemos primero el ejemplo de una fuerza atractiva proporcional al inverso al cuadrado de la distancia al
centro de fuerzas
k k k l2
f (r) = − 2 ur ; V (r) = − ; Vef f (r) = − +
r r r 2mr 2
este potencial efectivo se ilustra en la figura 10.2a, y con lı́neas punteadas se grafican el término centrı́fugo
y el potencial real V (r). El término centrı́fugo domina para r → 0, en tanto que el potencial real domina
cuando r → ∞. Existe un mı́nimo local que nos permitirá tener equilibrio estable (órbitas acotadas) en ciertas
circunstancias.
Si la partı́cula tiene una energı́a positiva E1 , ésta tendrá una distancia mı́nima de aproximación r1 al centro
de fuerza de acuerdo con el diagrama 10.2b (valores menores de r implican E1 < Vef f que de acuerdo con
la Ec. 10.33 nos dice que la energı́a cinética radial es negativa, lo cual no es posible), pero no posee un valor
máximo para r de modo que la órbita no está acotada. Una partı́cula que viene desde el infinito se tropieza con
la “barrera efectiva repulsiva” para ser “repelida” y vuelve hacia el infinito. Esta situación se ilustra en la Fig.
10.4a. Nótese que esta barrera repulsiva efectiva no es causada solamente por la interacción real sino que es
generada por la conjugación entre la interacción real y las condiciones iniciales. Efectivamente, si redirigimos
la partı́cula (cambiamos la dirección de v0 ) de manera que “apunte” desde el infinito directamente hacia el
centro atractor, la trayectoria serı́a una lı́nea recta que en principio puede pasar por el centro atractor. Este
cambio en las condiciones iniciales (en v0 ) corresponde a un cambio en el potencial centrı́fugo, mostrando que
esta barrera efectiva está relacionada con las condiciones iniciales y no solamente con la interacción9 . Por otro
lado, en el análisis anterior con la condición inicial r0 > r1 , hemos supuesto que r disminuirá hasta rebotar
8
Hay que tener cuidado con la interpretación de los puntos de retorno en problemas bidimensionales como este. En el caso
unidimensional significaba un verdadero “volver sobre los pasos” de la partı́cula. En el caso bidimensional se devuelven los valores
de r, pero θ sigue avanzando en el mismo sentido de giro. De modo que corresponde a un retorno en el valor de la coordenada pero
no en el movimiento.
9
Naturalmente, puede verse que la interacción juega un papel en la creación de la barrera efectiva, ya que si la interacción
estuviera ausente, la trayectoria serı́a una lı́nea recta para cualquier dirección inicial v0 y la distancia mı́nima de acercamiento
serı́a diferente al caso en que la interacción está presente y la trayectoria se curva. Esto también se puede ver teniendo en cuenta
que el potencial efectivo es la suma del potencial real (interacción) y la energı́a cinética transversal (condiciones iniciales).
10.4. ANÁLISIS DE CURVAS DE POTENCIAL EFECTIVO 223

Figura 10.2: (a) Gráficas del potencial centrı́fugo (lı́nea punteada superior), potencial real (gráfica punteada
inferior) y potencial efectivo (gráfica contı́nua), como funciones de r, para un potencial Kepleriano. Las lı́neas
horizontales representan diversos valores de la energı́a total de la partı́cula. (b) Gráfica del potencial efectivo
y de la energı́a total para el caso de energı́a total positiva.

en la barrera efectiva para volver a aumentar ahora indefinidamente. No obstante, el perfil de la curva no nos
prohı́be que la partı́cula empiece a aumentar su coordenada r desde el principio aumentando indefinidamente
sin acercarse nunca a la barrera de potencial, efectivamente esta serı́a la situación si ṙ0 > 0 como se puede ver
de la Fig. 10.4a, si invertimos el sentido de la velocidad inicial. Nuevamente las condiciones iniciales son las
que nos permiten dicernir cual es la situación que está ocurriendo10 . De lo anterior, vemos que dependiendo
de las condiciones iniciales es posible que la partı́cula no acceda a toda la región permitida por la curva de
potencial efectivo.
Ahora bien, para el caso de una energı́a E2 = 0, la historia es muy parecida al caso de energı́a positiva
excepto que en el infinito la partı́cula no poseerá energı́a cinética (la energı́a cinética en el infinito es preci-
samente la energı́a total ya que todos los potenciales se van para cero). En contraste, cuando la energı́a es
positiva la partı́cula posee energı́a cinética incluso en el infinito.
La Fig. 10.3a, muestra que para cualquier valor E3 < 0 que sea mayor que el mı́nimo de Vef f 11 , la
coordenada r está acotada entre dos puntos de retorno r1 y r2 que serán los valores máximo y mı́nimo de
la distancia al centro atractor, conocidas como distancias apsidales. Esto no significa que las órbitas sean
necesariamente cerradas, solo nos demuestra que están acotadas por la región definida entre los cı́rculos de
radios r1 y r2 , donde los puntos de retorno siempre están sobre una de las circunferencias. La forma genérica
de la órbita esperada se muestra en la figura 10.4b.
La Fig. 10.3b ilustra la situación en la cual la energı́a E4 es igual al mı́nimo de Vef f de modo que solo hay
un valor accesible de r donde ṙ = 0, en cuyo caso la trayectoria es circular. Definiendo una fuerza efectiva
de la forma
∂Vef f l2
fef f (r) = − =f+ (10.36)
∂r mr 3
el requerimiento de órbita circular ∂r Vef f = 0, corresponde claramente a la anulación de la fuerza efectiva. Es
10
Recordemos que en principio se requieren cuatro condiciones iniciales para determinar la dinámica del sistema, y en la curva de
potencial hay solo dos, la energı́a y el momento angular. Usualmente las dos condiciones restantes que permiten un mejor análisis
son los valores iniciales de r y de ṙ.
11
Si E < Vef f (r) para todo r, no hay regiones accesibles ya que conduce a energı́a cinética radial negativa.
224 CAPÍTULO 10. FUERZAS CENTRALES

Figura 10.3: (a) Gráfica del potencial efectivo kepleriano y de la energı́a total para el caso de energı́a total
negativa donde E3 es mayor que el valor del mı́nimo del potencial efectivo. (b) Gráfica del potencial efectivo
kepleriano y la energı́a total para el caso de energı́a total negativa donde E4 coincide con el valor del mı́nimo
del potencial.

el equivalente a pararse en el sistema no inercial atado a la partı́cula para ver la anulación entre la fuerza real
y la fuerza centrı́fuga de carácter ficticio.
Por otro lado, recordemos que el cambio en l cambia el perfil de Vef f aunque esto no cambia la clasificación
general de los tipos de órbitas (a menos que l se vuelva nulo). Es decir para valores negativos de la energı́a
seguimos teniendo órbitas acotadas, y para energı́as no negativas las órbitas continúan siendo no acotadas sin
importar el valor del momento angular (siempre que sea no nulo), aunque por supuesto el perfil especı́fico del
potencial efectivo y la forma especı́fica de la órbita cambian con el momento angular. Sin embargo, cuando
el momento angular se vuelve nulo la clasificación de las órbitas sı́ cambia, ya que el potencial centrı́fugo se
anula y la trayectoria es una lı́nea recta.
Más adelante veremos que en el caso de la ley de inverso cuadrado atractivo, las energı́as positivas conducen
a órbitas hiperbólicas, energı́a cero conduce a órbitas parabólicas y energı́a negativa a elipses. Estos resultados
están en concordancia con el análisis cualitativo que mostramos aquı́. Sin embargo, además de los detalles de
la órbita, veremos que toda órbita acotada para potencial kepleriano corresponde a una trayectoria cerrada,
lo cual no se puede garantizar con el análisis del potencial efectivo. De hecho, son muy pocos los potenciales
para los cuales toda órbita acotada es cerrada (ver sección 10.9, Pág. 238).

10.4.2. Potencial efectivo equivalente para dos cuerpos no interactuantes


La gran simplicidad de este problema nos permitirá reforzar el significado fı́sico del potencial centrı́fugo.
Sean dos cuerpos no interactuantes que se mueven con velocidades paralelas y opuestas como se vé en la
Fig. 10.5a. Las lı́neas paralelas que forman las trayectorias de las partı́culas están separadas una distancia b
usualmente denominada parámetro de impacto.
Antes de realizar el análisis del potencial efectivo, realizaremos un análisis puramente cinemático. El gráfico
10.5a muestra que inicialmente r es muy grande y cuando las partı́culas se acercan, r disminuye hasta alcanzar
su valor mı́nimo en r = b (ver Fig. 10.5b). Posteriormente, r vuelve a aumentar y crece indefinidamente. Esto
nos muestra que r = b es un punto de retorno para la coordenada r, la cual disminuye hasta llegar a b para
luego volver a aumentar. Nótese que r = b es un punto de retorno para r, pero no para el movimiento como
tal. Por otro lado, es fácil ver que si en la Fig. 10.5a invertimos el sentido de ambas velociadades, y r (0) > b,
la coordenada r aumenta a partir de su valor inicial r (0) y crece indefinidamente, de modo que r nunca pasa
por el punto de retorno.
Ahora para construı́r el potencial efectivo, veremos como son las ecuaciones para la µ−partı́cula equivalente
10.4. ANÁLISIS DE CURVAS DE POTENCIAL EFECTIVO 225

Figura 10.4: (a) Ilustración del tipo de órbita no acotada que corresponde a una energı́a total no negativa en un
potencial kepleriano. r1 es la menor distancia de aproximación al centro de fuerzas. (b) Ilustración del tipo de
órbita acotada entre dos valores de r que corresponde a una energı́a total negativa. De momento no podemos
garantizar que esta órbita sea cerrada.

a este problema de dos cuerpos. Denotaremos por v0 la velocidad relativa la cual viene dada por

v0 = ṙ = ṙ2 − ṙ1 = v2 − v1

claramente v0 es constante ya que v1 y v2 lo son. La energı́a total del sistema relativa al centro de masa es
1 2 1
E= µv0 + V (r) = µv02
2 2
puesto que V (r) = 0. El potencial efectivo está dado por

l2 l2
Vef f = + V (r) =
2µr 2 2µr 2
podemos evaluar l en forma directa pero es más fácil usando la relación

1 l2 1
E = µṙ 2 + = µv02 (10.37)
2 2µr 2 2
es claro que cuando los dos cuerpos alcanza su distancia mı́nima de aproximación r = b y ṙ = 0 puesto que r
es un mı́nimo local en este punto, esto se ilustra en la Fig. 10.5b. Por tanto

l2 1
2
= µv02 ⇒ l = µbv0 (10.38)
2µb 2
con lo cual el potencial efectivo tendrá la forma

1 b2
Vef f = µv02 2
2 r
226 CAPÍTULO 10. FUERZAS CENTRALES

Figura 10.5: Ilustración del comportamiento de la coordenada r para el caso de dos partı́culas no interactuan-
tes. (b) Ilustración de la “barrera de potencial efectivo” que nos indica el valor de la mı́nima distancia de
aproximación. (c) Gráfica de potencial efectivo para la partı́cula equivalente al problema de dos cuerpos no
interactuantes.

de modo que el gráfico del potencial efectivo es el indicado en la Fig. 10.5c. La región permitida es aquella
en la cual E ≥ Vef f . Haremos un análisis del movimiento de la µ−partı́cula equivalente. Denotaremos el
punto de retorno como rt . Si las condiciones iniciales son tales que r (0) > rt y ṙ (0) < 0, entonces la partı́cula
inicialmente se aproxima al punto de retorno y al llegar a él “rebota” en la “barrera de potencial efectivo” luego
de lo cual se invierte el sentido radial de movimiento y la coordenada r crece indefinidamente. Debe tenerse
presente que el retorno es en la coordenada radial de la µ−partı́cula, pero no en la coordenada θ, de modo
que no hay retorno del movimiento como tal. Si cambiamos las condiciones iniciales de modo que r (0) > rt y
ṙ (0) > 0, la partı́cula inicialmente se aleja del punto de retorno y la coordenada r aumenta indefinidamente
puesto que no hay puntos de retorno a la derecha de r (0), en cuyo caso la µ−partı́cula nunca pasa por el
punto de retorno. Compárese este análisis con el estudio puramente cinemático de las dos partı́culas reales al
principio de este sección.
La Fig. 10.5c muestra además que cuando la µ−partı́cula se dirige hacia el punto de retorno, la energı́a
cinética radial va disminuyendo12 , y cuando se aleja del punto de retorno, la energı́a cinética radial está au-
mentando hasta llegar al valor E en el infinito.
A manera de consistencia, encontraremos el punto de retorno con la condición E = Vef f (rt ) lo cual nos da

1 2 1 2 b2
µv = µv0 2 ⇒ rt = b
2 0 2 rt

en concordancia con nuestro análisis cinemático. Esto se vé de las gráficas 10.5a,b ya que r disminuye hasta
llegar a r = b, y a partir de allı́ vuelve a aumentar. En nuestra gráfica unidimensional 10.5c, esto se interpreta
diciendo que la µ−partı́cula equivalente “rebota” en la “barrera de potencial efectivo”. Insistiendo en que estos
“rebotes” o “retornos” son en la coordenada r y no en el movimiento del sistema.
Este ejemplo es muy enfático en su mensaje, el potencial efectivo (que aquı́ coincide con el potencial
centrı́fugo) no está de ninguna manera relacionado con interacción, ya que estas partı́culas no interactúan
entre sı́. En este caso, la barrera de potencial efectiva (centrı́fuga) es debida exclusivamente a las condiciones
iniciales del problema. Efectivamente, si el choque fuera frontal i.e. b = 0, el potencial efectivo se anuları́a
y se desvanecerı́a la barrera de potencial efectiva, lo cual se refleja en el hecho de que dos partı́culas no
interactuantes que se aproximan frontalmente, puede acercarse una a otra en forma indefinida.
12
Naturalmente, la energı́a cinética total es constante y está dada por E − V (r) = E. De modo que la energı́a cinética transversal
debe estar aumentando. Efectivamente, esta energı́a está dada por Vef f (r) − V (r) = Vef f (r), y el potencial efectivo aumenta
cuando disminuye r.
10.4. ANÁLISIS DE CURVAS DE POTENCIAL EFECTIVO 227

10.4.3. Potencial atractivo proporcional al inverso del cubo de la distancia

Figura 10.6: Gráficas del potencial centrı́fugo (lı́nea punteada superior), potencial real (gráfica punteada infe-
rior) y potencial efectivo (gráfica contı́nua), como funciones de r, para un potencial de la forma V = −a/r 3 .

Tomemos como ejemplo un potencial atractivo de la forma

a 3a
V (r) = − 3
⇒ f =− 4 (10.39)
r r
a l2
Vef f = − 3+ (10.40)
r 2mr 2

el potencial efectivo junto con el potencial real y el término centrı́fugo, se grafican en la figura 10.6. Este
potencial efectivo solo tiene un máximo local y tiende a cero por la derecha cuando r → ∞, también tiende
a −∞ cuando r → 0. Para una energı́a E positiva menor que el máximo local, hay dos tipos de movimiento
dependiendo del valor inicial de r. Si r0 ≤ r1 el movimiento será acotado entre 0 y r1 ; además la energı́a
cinética tenderá a infinito a medida que se acerca al centro atractor. Si r0 ≥ r2 el movimiento es no acotado y
su distancia mı́nima de acercamiento es r2 , la partı́cula no podrá nunca acceder al pozo de potencial, debido
a que existe entre r1 y r2 una barrera de potencial. El intervalo r1 < r < r2 es claramente inaccesible.
Para el caso E ≤ 0 la órbita estará acotada entre r = 0 y un punto de retorno, la energı́a tiende a infinito
cuando r → 0. Cuando E es mayor que el máximo del potencial todas las regiones son permitidas.
Resulta interesante el caso en el cual E coincide con el valor del máximo del potencial, llamemos rm al valor
de r en el cual ocurre el máximo. Si r0 > rm y ṙ0 < 0 la coordenada r disminuirá acercándose a rm , en este
proceso disminuye la energı́a cinética radial hasta anularse cuando r = rm , y la partı́cula queda atrapada en
una trayectoria circular de radio rm . Nótese sin embargo que si la energı́a es ligeramente mayor o ligeramente
menor a este valor del máximo de potencial, la naturaleza del movimiento cambia drásticamente, de modo que
tenemos una órbita circular inestable. De otra parte, si r0 > rm y ṙ0 > 0 la partı́cula se aleja indefinidamente
del valor rm y nunca retorna. Un análisis similar se puede hacer para la condición inicial r0 < rm .
228 CAPÍTULO 10. FUERZAS CENTRALES

10.4.4. Potencial efectivo para fuerza restauradora lineal

Figura 10.7: (a) Gráfica del potencial efectivo correspondiente a una fuerza restauradora lineal para momento
angular nulo. (b) Gráficas de potencial centrı́fugo, potencial real y potencial efectivo para una fuerza restaura-
dora lineal con momento angular no nulo.

Otro caso interesante es el de una fuerza restauradora lineal (oscilador armónico isotrópico)
1
f = −kr ; V = kr 2
2
para momento angular cero, correspondiente a movimiento a lo largo de una lı́nea recta, Vef f = V y la situación
es como la que se ilustra en la Fig. 10.7a. Para cualquier valor positivo de la energı́a el movimiento está acotado
y como se sabe, es armónico simple. Si l 6= 0, surge un potencial centrı́fugo y las caracterı́sticas del movimiento
se ilustran en la Fig. 10.7b. El movimiento es siempre acotado para todas las energı́as fı́sicamente posibles y
no pasa por el centro de fuerzas. En este caso particular es fácil ver que la órbita es elı́ptica, ya que si f = −kr,
las componentes x, y de las fuerzas son

fx = −kx ; fy = −ky

el movimiento consta de la composición de dos movimientos armónicos simples de la misma frecuencia cada
uno perpendicular al otro. Esto conduce en general a órbitas elı́pticas.
Un ejemplo bien conocido es el del péndulo esférico de pequeñas oscilaciones. Las famosas figuras de
Lissajous se obtienen como la composición de dos movimientos armónicos simples perpendiculares entre sı́,
y son cerradas cuando los cocientes entre las frecuencias son números racionales. Para dos oscilaciones con
la misma frecuencia, la figura es una lı́nea recta cuando las oscilaciones están en fase, un cı́rculo cuando su
diferencia de fase es π/2, y una forma elı́ptica en los demás casos. En consecuencia, el movimiento bajo una
fuerza central restauradora lineal nos provee las figuras de Lissajous más sencillas.

10.4.5. Consideraciones generales sobre curvas de potencial efectivo


Para un potencial central (real) dado, la forma detallada de las órbitas puede ser muy compleja y depender
fuertemente de las condiciones iniciales. Sin embargo, de los análisis anteriores podemos deducir la siguiente
división cualitativa de las órbitas para una partı́cula sometida a una fuerza central (1) Movimiento acotado,
(2) Movimiento no acotado, (3) Movimiento circular, (4) Movimiento rectilı́neo.
Cuando el potencial efectivo posee un mı́nimo local, existen valores de la energı́a para los cuales la órbita
está acotada en un intervalo [ra , rb ] siendo ra y rb puntos de retorno de r en donde la energı́a cinética radial
10.5. EL TEOREMA DEL VIRIAL 229

se anula. Sin embargo, el movimiento estará acotado en este intervalo solo si la posición inicial es tal que
r0 ∈ [ra , rb ]. Aunque la presencia de un mı́nimo local en el potencial efectivo es una condición suficiente
para que el movimiento acotado sea posible, el ejemplo de la sección 10.4.3 muestra que no es una condición
necesaria. Adicionalmente, el ejemplo del potencial tipo Hooke de la sección 10.4.4, nos muestra que existen
potenciales (reales) para los cuales el movimiento es siempre acotado sin importar las condiciones iniciales13 .
Los análisis anteriores también muestran que para muchos potenciales (reales) el movimiento no acotado
es posible. Para un par de valores fijos de la energı́a y el momento angular, esto ocurre cuando existe un punto
rb para el cual no hay puntos de retorno a la derecha de rb . Si en este caso las condiciones iniciales son tales
que r (0) > rb y ṙ (0) > 0, la coordenada r crece indefinidamente.
Cuando el potencial efectivo posee un mı́nimo o un máximo local en un punto r1 , el movimiento circular
es posible si se cumple la condición E = Vef f (r1 ). Para el caso de un mı́nimo local se requiere además la
condición14 r (0) = r1 . El movimiento circular tendrá radio r1 y será estable (inestable) si Vef f (r1 ) corresponde
a un mı́nimo (máximo) local. Para más detalles, ver sección 10.7.
Una condición especial interesante ocurre cuando el momento angular es nulo, lo cual cinemáticamente
implica que la velocidad inicial de la partı́cula es tal que su prolongación pasa por el centro de fuerzas. En
otras palabras, ocurre cuando la partı́cula “apunta” directamente al centro de fuerzas. En este caso la simetrı́a
esférica del potencial implica que la trayectoria debe ser una lı́nea recta (no hay velocidad inicial transversal
ni aceleración transversal). En realidad, la velocidad inicial v0 rompe la simetrı́a esférica del potencial y la
reduce a una simetrı́a cilı́ndrica donde el eje de simetrı́a es aquél paralelo a v0 que pasa por el centro de
fuerzas. No obstante, hay un remanente de la simetrı́a esférica si tenemos en cuenta que la dirección de este
eje es arbitraria. Es decir no importa cual sea la dirección de v0 (siempre y cuando la partı́cula “apunte” hacia
el centro de fuerzas) vamos a obtener una simetrı́a cilı́ndrica. Podemos expresar esto diciendo que hay una
simetrı́a esférica que nos permite escoger el eje de simetrı́a en dirección arbitraria, pero una vez elegido un
eje especı́fico, la simetrı́a esférica se “rompe” reduciéndose a una simetrı́a cilı́ndrica alrededor de dicho eje. En
todo caso, los argumentos de simetrı́a nos dicen que el movimiento de la partı́cula para L = 0 debe realizarse
a lo largo del eje de simetrı́a determinado por v0 y el centro de fuerzas, de modo que la trayectoria debe ser
recta.
No todos los potenciales pueden exhibir los cuatro tipo de órbita. Por ejemplo, el potencial real de Hooke
no puede conducir a órbitas no acotadas para ningún conjunto de condiciones iniciales. Existe un conjunto de
condiciones suficientes (pero no necesarias), para que los cuatro tipos de movimiento sean posibles para un
potencial dado, y son las siguientes: (a) el potencial real decae mas lentamente que 1/r 2 cuando r → ∞ y (b)
diverge mas lentamente que 1/r 2 cuando r → 0. La primera condición asegura que el potencial real predomina
sobre el término centrı́fugo para valores grandes de r, en tanto que la segunda condición asegura que para
pequeños valores de r predomina el término centrı́fugo. En sı́ntesis, estas condiciones nos garantizan que el
potencial en cuestión tendrá un comportamiento asintótico similar al del potencial de Kepler V (r) = −k/r.

10.5. El teorema del virial


Algunas propiedades de las fuerzas centrales se pueden derivar como un caso particular del teorema del
virial, el cual es de carácter estadı́stico ya que se refiere a los promedios temporales de varias cantidades
mecánicas. Consideremos un sistema de masas puntuales con vectores de posición ri y fuerzas resultantes Fi .
Las ecuaciones fundamentales de movimiento son
ṗi = Fi
ahora nos concentraremos en la cantidad
N
X
G= pi · ri
i=1
13
En el caso del potencial de Hooke esto es de esperarse, debido a que se trata de una interacción que aumenta con la distancia.
14
Puede pensarse que para mı́nimos locales con E = Vef f (r1 ) la condición r (0) = r1 es redundante, ya que en cierta vecindad
de r1 , el único valor permitido para r es precisamente r1 . No obstante, si el mı́nimo local no es un mı́nimo absoluto del potencial
efectivo, pueden existir otras regiones permitidas para r.
230 CAPÍTULO 10. FUERZAS CENTRALES

donde la suma es sobre todas las partı́culas del sistema. Fi incluye a las fuerzas internas y externas sobre la
partı́cula i. La derivada total en el tiempo de esta cantidad es
N
X N
X N
X N
X N
X N
X
dG 1
= ṙi · pi + ṗi · ri = mi ṙi · ṙi + Fi · ri = 2 mi vi2 + Fi · ri
dt 2
i=1 i=1 i=1 i=1 i=1 i=1
N
X
dG
= 2T + Fi · ri
dt
i=1

calculemos ahora el promedio temporal de esta cantidad tomado sobre un intervalo [0, τ ], lo cual se obtiene
integrando en dicho intervalo y dividiendo por τ
Z τ    X
1 dG dG
dt ≡ = 2T + Fi · ri
τ 0 dt dt
i
X 1
2T + Fi · ri = [G (τ ) − G (0)]
τ
i

hay dos situaciones interesantes para las cuales el término de la derecha se anula. (a) Cuando el movimiento
es periódico de tal modo que todas las coordenadas y velocidades se repiten después de cierto tiempo, en tal
caso el término de la derecha se anula si elegimos a τ como el periodo del movimiento. (b) Las coordenadas y
velocidades de todas las partı́culas permanecen finitas para todo tiempo, el sistema está entonces acotado y el
valor de G también. En este caso el término de la derecha tiende a cero para tiempos suficientemente largos.
En cualquiera de estas situaciones se tiene
1X
T =− Fi · ri (10.41)
2
i

La ecuación (10.41) se conoce como el teorema del virial, y el lado derecho se conoce como el virial de Clausius.
(e)
Con frecuencia es conveniente separar las fuerzas externas Fi e internas Fij de cada partı́cula para escribir
cada contribución en forma separada. Si asumimos que se cumple el principio de acción y reacción el teorema
queda ( )
1 X (e) X
T =− Fi · ri + Fij · rij (10.42)
2 pares
i

Si las fuerzas son derivables de un potencial, el teorema del virial (10.41) queda de la forma

1X
T = ∇V · ri (10.43)
2
i

En el contexto de las fuerzas centrales, examinaremos la información que nos da el teorema del virial aplicado
a una sola partı́cula sujeta a un potencial central. Si usamos una ley de potencial de la forma

V (r) = ar n+1

de manera que la fuerza va como r n , se tiene que


 
∂V ∂V
∇V · r = ur · (rur ) = r = (n + 1) V
∂r ∂r

de modo que la Ec. (10.43) para una partı́cula queda

n+1
T = V (10.44)
2
10.6. ECUACIÓN DE LA ÓRBITA Y POTENCIALES INTEGRABLES 231

este mismo resultado se puede obtener aplicando el teorema de Euler Ec. (5.16) para un potencial homogéneo
en r de grado n + 1 (lo cual es más general). Para el caso particular de una fuerza con ley de inverso al
cuadrado, usamos n = −2 y resulta
1
T =− V (10.45)
2
nótese que aunque el teorema del virial está relacionado con promedios temporales, se puede emplear para
una sola partı́cula o para muchas. Ya vimos que el promedio temporal debe tomarse sobre un periodo si el
movimiento es periódico, o para tiempos muy grandes si el movimiento no es periódico pero es acotado en el
espacio y las velocidades. En el caso de fuerzas centrales, el promedio dado por la Ec. (10.44) solo será válido
si la órbita es acotada. Si la órbita no es periódica, el promedio se debe tomar sobre un intervalo muy grande
de tiempo, si es periódica se debe tomar sobre el periodo.

10.5.1. Otras aplicaciones del teorema del virial


Una de las aplicaciones mas interesantes del teorema del virial es la derivación de la ecuación de estado
de un gas. Aplicando el teorema del virial junto con ciertas consideraciones estadı́sticas para un gas en un
contenedor, se obtiene
1X
pV = N kT + Fij · rij
3 pares

El lector interesado puede consultar los detalles por ejemplo en la Ref. [2]. Nótese que la contribución del
término de fuerzas internas puede ser negativo (positivo) para fuerzas atractivas (repulsivas). En el caso de
un gas ideal, se desprecia la interacción entre moléculas y solo se considera la interacción con las paredes, de
modo que todas las fuerzas internas se anulan y la ecuación de estado queda en la forma

pV = N kT ; gas ideal

Adicionalmente, si la fuerza resultante (para una o más partı́culas) es la suma entre fuerzas no friccionales
y fuerzas friccionales proporcionales a la velocidad, entonces el virial solo depende de las primeras, no hay con-
tribución de las fuerzas friccionales viscosas. No obstante, es necesario que se le inyecte energı́a al sistema para
mantener el movimiento ya que si las fuerzas viscosas detienen el movimiento todos los promedios temporales
tienden a cero para tiempos suficientemente grandes.

10.6. Ecuación de la órbita y potenciales integrables


Ya hemos escrito la ecuación de la órbita Ec. (10.29). Una forma alternativa que nos provee de cierta
información interesante, se obtiene reescribiendo la Ec. (10.13) de la siguiente forma

mr 2
dt = dθ
l
esta ecuación permitirá relacionar la derivada temporal de una función arbitraria F con su derivada con
respecto a θ. Para nuestros propósitos nos interesa también la segunda derivada

dF dF l dF
=  2 =
dt mr
dθ mr 2 dθ
l

     
d2 F d dF d l dF d l dF
= = = 
dt2 dt dt dt mr 2 dθ mr 2
dθ mr 2 dθ
l
 
d2 F l d l dF
=
dt2 mr 2 dθ mr 2 dθ
232 CAPÍTULO 10. FUERZAS CENTRALES

y como F es arbitrario, hemos encontrado una relación entre las derivadas en θ y en t


 
d (. . .) l d (. . .) d2 (. . .) l d l d (. . .)
= ; = (10.46)
dt mr 2 dθ dt2 mr 2 dθ mr 2 dθ

esta ecuación se puede sustituir bien sea en la Ec. (10.16) o en (10.23). La sustitución en (10.16) nos da una
ecuación de segundo orden, en tanto que la sustitución en (10.23) nos da una ecuación de primer orden en el
tiempo. Aunque las ecuaciones de segundo orden son en general más difı́ciles de resolver, aplicaremos primero
la Ec. (10.46) a la Ec. (10.16) ya que esta ecuación diferencial también nos dará un información útil. Aplicando
las relaciones (10.46) en la Ec. (10.16) se obtiene
 
l d l dr l2
m 2 − = f (r) (10.47)
mr dθ mr 2 dθ mr 3

usando la identidad
1 dr d (1/r)
=−
r 2 dθ dθ
en la Ec. (10.47) se obtiene
     2 2  
l d l d (1/r) l2 1 3 l2 1 d (1/r) l2 1 3
− − = f (r) ⇒ + = −f (r)
r 2 dθ m dθ m r m r dθ 2 m r

de lo cual se vé conveniente el cambio de variable u = 1/r, resultando


   
l2 u2 d2 u 1
2
+ u = −f (10.48)
m dθ u
 2   
d u m 1 d 1
2
+u = 2 2 V (10.49)
dθ l u dr u

y teniendo en cuenta
d dr d 1 d
= =− 2
du du dr u dr
la Ec. (10.49) se puede escribir en función del potencial
 2   
d u m d 1
2
+u =− 2 V (10.50)
dθ l du u

empleando cualquiera de las Ecs. (10.48, 10.50) podemos hallar la órbita con base en la fuerza o el potencial de
interacción. Es también interesante el caso inverso, es decir dada la órbita (determinada experimentalmente)
encontrar el potencial de interacción. Por el momento, deseamos demostrar a partir de (10.50) que la órbita es
simétrica respecto a los puntos de retorno del movimiento. Notemos que si la órbita es simétrica será posible
reflejarla respecto a la dirección del ángulo de retorno sin producir ninguna variación. Si se eligen las coorde-
nadas de tal modo que el punto de retorno corresponda a θ = 0, la reflexión podrá hacerse matemáticamente
sustituyendo θ por −θ. La ecuación diferencial (10.50) que describe la órbita es evidentemente invariante ante
dicha sustitución, ya que aparece la segunda derivada en θ pero no la primera derivada. Veamos ahora si las
condiciones iniciales son también invariantes15 , para verlo será más útil escribir las condiciones iniciales en
términos de derivadas en θ en lugar de derivadas temporales

du d (1/r) 1 dr 1 dr dt ṙ
= = − = − = − =0
dθ t=0 dθ t=0 r 2 dθ t=0 r 2 dt dθ t=0 θ̇r 2 t=0
15
Hemos visto en la sección 10.4.5, que las condiciones iniciales pueden romper las simetrı́as del potencial. Similarmente, las
condiciones iniciales pueden romper la simetrı́a de las ecuaciones de movimiento. Podemos expresarlo diciendo que las simetrı́as
dinámicas pueden ser rotas por la cinemática.
10.6. ECUACIÓN DE LA ÓRBITA Y POTENCIALES INTEGRABLES 233

donde hemos tenido en cuenta que ṙ0 = 0 ya que empezamos a una distancia apsidal. Por otro lado, también
por nuestras hipótesis de trabajo t = 0 corresponde a θ = 0 por tanto las condiciones iniciales quedan
   
du du
u = u (θ = 0) , = =0
dθ t=0 dθ θ=0
y estas condiciones iniciales tampoco se ven afectadas por la transformación de inversión angular. Por lo tanto,
la ecuación de la órbita es la misma tanto si la expresamos en términos de θ, como si la expresamos en función
de −θ, siempre que θ se mida con respecto a una lı́nea apsidal. Esto nos lleva a la conclusión de que la órbita
es invariante ante una reflexión respecto a los vectores apsidales. Esto implica que se puede construı́r
la órbita completa si se conoce la porción de la órbita comprendida entre dos puntos de retorno cualesquiera.
La reflexión de la porción dada respecto a uno de los vectores apsidales produce un trozo adicional de la órbita
y se puede repetir este proceso indefinidamente hasta completar el resto de la órbita como se ilustra en la Fig.
10.8.

Figura 10.8: Construcción de la órbita a partir de una sección orbital entre dos lı́neas apsidales (curva 1
contı́nua). La curva 2 se formó por imagen especular de la curva 1 con respecto al ápside r2 en tanto que la
curva 3 se formó por reflexión de la curva 1 con respecto al ápside r1 .

Retornaremos ahora a la ecuación de órbita en la forma (10.29) pero escribiéndola de nuevo en términos
del potencial real V (r) Z r
l dr
θ − θ0 = r h i
r0 2 l2
mr 2 m E − V (r) − 2mr 2

la cual se puede reescribir apropiadamente como


Z r
dr
θ= q + θ0 (10.51a)
2mE
r0 r 2
l2
− 2mV
l2
− 1
r2

de nuevo haciendo un cambio de variable u = 1/r, du = − 1/r 2 dr = −u2 dr resulta
Z u
du
θ = θ0 − q (10.52)
2mE
u0
l2
− 2mV
l2
− u2
la integración detallada de esta expresión no es en general sencilla. En realidad solo ciertos tipos de potenciales
han sido estudiados en forma detallada. Los más importantes son los potenciales de la forma
V = kr n+1 (10.53)
234 CAPÍTULO 10. FUERZAS CENTRALES

para los cuales la ecuación (10.52) queda


Z u
du
θ = θ0 − q (10.54)
2mE 2mk −n−1
u0
l2 − l2 u − u2

la cual es integrable en términos de funciones sencillas solo en algunos casos. Las soluciones se pueden escribir
en términos de funciones trigonométricas en los casos en que

n = 1, −2, −3

en tanto que para las potencias


n = 5, 3, 0, −4, −5, −7
las soluciones se pueden expresar en términos de funciones elı́pticas. Estos son todos los casos para potencias
enteras en los cuales las soluciones se pueden escribir en términos de funciones sencillas. Algunos exponentes
fraccionarios también se pueden escribir en términos de funciones elı́pticas y muchos otros en términos de
funciones hipergeométricas. Las funciones trigonométricas y elı́pticas son casos especiales de las funciones
integrales hipergeométricas. Un análisis mas detallado se puede ver en la segunda edición de la Ref. [1].

10.7. Condición para órbitas circulares estables e inestables


Aún es posible extraer información adicional del problema unidimensional equivalente ası́ como de la
ecuación de la trayectoria. En particular, se puede deducir un teorema relacionado con los tipos de fuerzas
centrales atractivas que nos llevan a órbitas cerradas, es decir órbitas en las cuales la partı́cula trace de nuevo
los mismos pasos.
Ya hemos descrito un tipo de órbita cerrada: la órbita circular centrada en el centro de fuerzas. Para un
valor dado de l (es decir para un perfil dado del potencial efectivo), este movimiento se dá si la energı́a total
E de la partı́cula coincide con un mı́nimo o máximo local del potencial efectivo, y el radio r0 del cı́rculo
estará dado por el valor de r para el cual se encuentra dicho mı́nimo o máximo. Recordemos que el requisito
de que Vef f tenga un extremo coincide con el requisito de que la fuerza efectiva dada por (10.36) se anule
para el valor r0 donde se ubica el extremo, por lo tanto

l2
f (r0 ) = − (10.55)
mr03

esto nos dice que la fuerza (real) debe ser atractiva al menos a la distancia r0 , con el fin de lograr una órbita
circular. Adicionalmente, la energı́a de la partı́cula se obtiene de las Ecs. (10.30, 10.31) simplemente teniendo
en cuenta que la energı́a cinética radial es cero ya que ṙ0 debe ser nulo.

l2
E = Vef f (r0 ) = V (r0 ) + (10.56)
2mr02

las Ecs. (10.55) y (10.56) implican que para toda fuerza central atractiva se puede obtener una órbita circular
de radio arbitrario r0 dado, si el momento angular viene dado por (10.55) y la energı́a viene dada por (10.56).
Si el potencial efectivo presenta un mı́nimo local y elevamos la energı́a ligeramente, la órbita ya no será circu-
lar pero estará acotada entre dos cı́rculos de radios cercanos al de la órbita original, de modo que la trayectoria
no se desvı́a significativamente de la original (aunque podrı́a dejar de ser cerrada). Tomando la terminologı́a
del caso unidimensional decimos que esta órbita circular es estable. Por el contrario si estamos en un máximo
local, el más leve aumento (o disminución) de la energı́a puede llevar a órbitas totalmente diferentes aunque
podrı́an todavı́a ser acotadas como se vé en la Fig. 10.9a, pero en algunos casos como el de la figura 10.9b el
movimiento se vuelve no acotado. El hecho importante es que un ligero cambio en la energı́a (y por tanto en
las condiciones iniciales) conduce a trayectorias totalmente distintas por lo cual decimos que la órbita circular
es inestable. Dado que la estabilidad (inestabilidad) está dictaminada por la condición de mı́nimo (máximo),
10.7. CONDICIÓN PARA ÓRBITAS CIRCULARES ESTABLES E INESTABLES 235

Figura 10.9: (a) Para este potencial efectivo el movimiento es acotado para energı́as alrededor de E. (b) Para
este potencial un ligero aumento en la energı́a conduce a movimiento no acotado, una ligera disminución de
la energı́a conduce a movimiento no acotado si r (t = 0) > r0 .

del potencial efectivo, podemos en consecuencia traducirlo algebráicamente en segunda derivada positiva (ne-
gativa) que corresponde a un perfil cóncavo hacia arriba (abajo) en el punto donde se encuentra el extremo.
El criterio de estabilidad se escribe entonces como

∂ 2 Vef f ∂ 2 V 3l2 ∂f 3l2 df 3l2
= + = − + > 0 ⇒ − > −
∂r 2 r=r0 ∂r 2 r=r0 mr 4 r=r0 ∂r r=r0 mr04 dr r=r0 mr04

df 3l2
<
dr r=r0 mr04
usando (10.55) resulta:
df 3f (r0 )
<− (10.57)
dr r=r0 r0
y teniendo en cuenta que r0 /f (r0 ) es negativo lo cual se puede verificar de (10.55), obtenemos
 
df
r0 df f d ln f
> −3 ⇒  > −3 ⇒ > −3
f (r0 ) dr r=r0 dr
r
d ln r r=r0
r=r0

la condición de estabilidad se puede escribir entonces de dos maneras equivalentes



r0 df d ln f
= > −3 (10.58)
f (r0 ) dr r=r0 d ln r r=r0
como caso particular, si la fuerza está gobernada por una ley de potencias de r de la forma
f = −kr n ; k > 0 (10.59)
sacando logaritmo resulta
ln f = ln (−k) + ln r n = ln (−k) + n ln r ⇒ d ln f = n d ln r
d ln f
= n (10.60)
d ln r
combinando (10.60) con (10.58), la condición de estabilidad (10.58) resulta
n > −3
Nótese que esta condición de estabilidad no depende del radio. Por tanto, una ley de fuerza atractiva del tipo
(10.59) que varı́e mas lentamente que 1/r 3 puede sostener órbitas circulares estables para todos los valores de
r0 .
236 CAPÍTULO 10. FUERZAS CENTRALES

10.8. Órbitas circulares perturbadas a primer orden


Ya hemos visto que si la órbita circular es estable, un ligero aumento en la energı́a conduce a una pequeña
variación de r alrededor de r0 . Para u = 1/r, usaremos la identidad
   
d 1 dr d dr 1 1
V = V (r) = − f (r) = 2 f
du u du dr du u u
Escribamos la Ec. (10.50) en la forma
 2     
d u m d 1 m 1
+ u = J (u) ; J (u) ≡ − 2 V = − 2 2f (10.61)
dθ 2 l du u l u u
La condición de órbita circular dada por (10.55), para un radio r0 = u−1
0 queda en la forma
   
1 l2 m 1
f = − u30 ⇒ − 2 2 f = u0 (10.62)
u0 m l u0 u0
sustituyendo (10.62) en la segunda de las Ecs. (10.61), con u = u0 resulta
J (u0 ) = u0 (10.63)
y la energı́a debe cumplir la condición (10.56). Ahora bien, bajo la condición de estabilidad, con una energı́a
ligeramente superior a la dada por (10.56) obtendremos un movimiento acotado en el que para todo tiempo la
variable u solo difiere ligeramente de u0 . Utilizando (10.63), la expansión de Taylor de J (u) alrededor de u0 ,
es h i
dJ 2
J (u) = u0 + (u − u0 ) + O (u − u0 ) (10.64)
du0
y para u ≈ u0 , esta expansión se podrá tomar a primer orden. Denotando x ≡ u − u0 y reemplazando esta
expansión a primer orden en (10.61) resulta
 2   2 
d u dJ d (u − u0 ) dJ
+ u = u0 + (u − u0 ) ⇒ + (u − u0 ) = (u − u0 ) ⇒
dθ 2 du0 dθ 2 du0
 2   
d x dJ d2 x dJ
2
+ x = x ⇒ 2
+x 1− =0
dθ du0 dθ du0
la ecuación se puede escribir en la forma
 
d2 x dJ
+ β2x = 0 ; 2
β ≡ 1− (10.65)
dθ 2 du0
es claro que β 2 es una cantidad real, adicionalmente la condición de estabilidad para x exige que β 2 sea
definido positivo16 . Para encontrar la relación de β 2 con la interacción y las condiciones iniciales debemos
evaluar dJ/du0 . De la definición de J (u) en (10.61) resulta
     
dJ 2m 1 m d 1 2J m d 1
= 2 3f − 2 2 f =− − 2 2 f
du l u u l u du u u l u du u
y aplicando las condiciones de circularidad (10.55, 10.63), se tiene que
 
dJ 2J (u0 ) m df m df
= − − 2 2 = −2 + u0 − 2 3
du0 u0 l u0 du0 l u0 du0
dJ u0 df
= −2 + (10.66)
du0 f0 du0
16
Se podrı́a pensar que una solución estable con β 2 negativo es posible ya que en este caso x = Ae|β|θ + Be−|β|θ y si A = 0,
entonces x permanece acotado. No obstante podemos ver que cuando θ → ∞ se tiene que x → 0. Fı́sicamente, esto significa que la
energı́a E inicial ha disminuı́do al valor E0 de la energı́a que corresponde a la condición de circularidad. Pero las fuerzas centrales
son conservativas de modo que esto solo es posible si se introduce una fuerza disipativa adicional.
10.8. ÓRBITAS CIRCULARES PERTURBADAS A PRIMER ORDEN 237

reemplazando (10.66) en la segunda de las Ecs. (10.65), β 2 queda en la forma


 
2 u0 df u0 dr df u0 1 df 1 df
β = 3− =3− =3+ =3+
f0 du0 f0 du dr r=r0 f0 u20 dr r=r0 f0 u0 dr r=r0

r0 df d ln f
β2 = 3 + =3+ (10.67)
f0 dr r=r0 d ln r r=r0

nótese que la condición de estabilidad (i.e. de positividad de β 2 ) coincide con la condición de estabilidad dada
por la Ec. (10.58). Con β 2 definida positiva y tomando un origen adecuado para θ, la ecuación diferencial
(10.65) tendrá como solución

r0 df d ln f
x ≡ u − u0 = a cos βθ ; β2 ≡ 3 + = 3 + (10.68)
f0 dr r=r0 d ln r r=r0
En resumen, hemos demostrado que para pequeñas variaciones con respecto a la condición de circularidad
estable, la partı́cula ejecuta un movimiento armónico simple en u (≡ 1/r) alrededor de u0

u = u0 + a cos βθ (10.69)

donde a es la amplitud del movimiento, la cual depende de la desviación de la energı́a con respecto al valor
de ésta cuando la órbita es circular, β es un valor que surge de la expansión de Taylor de J (u) alrededor de
la órbita circular de radio r0 = u−1
0 y está dado por la Ec. (10.67). Por otro lado, la ecuación (10.69) muestra
que cuando el radio vector de la partı́cula ha barrido completamente el plano (i.e. θ ha barrido un intervalo
entre 0 y 2π), u ha ejecutado β oscilaciones. Si β es un número racional, de tal forma que β = n/m con n
y m enteros, entonces después de m revoluciones del radio vector la órbita comenzará a repetirse17 , es decir
obtenemos una órbita cerrada a primer orden18 .
Para cada valor de r0 que cumpla la desigualdad (10.57) o (10.58), es posible construı́r una órbita circular
estable de radio r0 si el momento angular y la energı́a adquieren los valores prescritos por las Ecs. (10.55,
10.56). La pregunta natural es ¿para qué formas funcionales de la fuerza, las órbitas ligeramente perturbadas
con respecto a la circular son cerradas a primer orden?. Es claro que la condición de que β sea racional es
necesaria, pero se requiere un ingrediente adicional: el valor de β debe ser el mismo para todos los valores de
r0 para los cuales se pueden construı́r órbitas circulares estables. De no ser ası́, puesto que β solo puede tomar
valores discretos (por ser racional), el número de periodos de oscilación cambiarı́a discontı́nuamente con r0 , y
las órbitas no podrı́an ser cerradas en la discontinuidad. Con β 2 constante para todo el rango de r0 , podemos
sin ambigüedad quitar la evaluación en r0 de la expresión de la derecha en la Ec. (10.67)
r df d ln f
β2 = 3 + =3+ (10.70)
f dr d ln r
con lo cual resulta una ecuación diferencial para f en términos de la variable r, siempre que tengamos en cuenta
que solo es válida en el rango de r en donde las órbitas circulares estables son posibles. Tenemos entonces
d ln f dF ′
= β2 − 3 ≡
d ln r dr ′
la solución para F ′ en términos de r ′ es inmediata
 
F ′ = β 2 − 3 r′ + C ′ ⇒ ln f = β 2 − 3 ln r + C ′

ahora tendremos en cuenta que C ′ es una constante que en general puede ser compleja. Definiremos entonces
C ′ ≡ ln (−k) con lo cual queda
2
ln f = ln r β −3 + ln (−k)
17
Naturalmente, para obtener el mı́nimo de revoluciones necesarias para repetir la órbita, se requiere que n y m sean primos
entre sı́.
18
Esta órbita tal vez no es exactamente cerrada ya que aquı́ solo estamos en aproximación de primer orden, en seguida veremos
un criterio para tener órbitas exactamente cerradas.
238 CAPÍTULO 10. FUERZAS CENTRALES

h 2
i
ln f = ln −kr β −3

de aquı́ resulta
2 −3
f (r) = −kr β ; k>0 (10.71)

donde la condición k > 0 proviene del hecho ya discutido de que la condición de circularidad requiere de una
fuerza atractiva como se vé en la Ec. (10.55). Todas las leyes de fuerza de la forma (10.71) con β racional,
conducen a ecuaciones de órbitas que son cerradas a primer orden, es decir cuando las condiciones iniciales solo
difieren ligeramente de aquellas que conducen a una órbita circular. Aparecen dentro del espectro de fuerzas
permitidas las leyes de fuerza mas familares: ley del inverso cuadrado (β = 1) y ley de Hooke (β = 2). También
aparecen por supuesto un infinito espectro de otras leyes de fuerza.

10.9. Órbitas circulares perturbadas a orden superior al primero y con-


diciones para órbitas cerradas (teorema de Bertrand)
Ahora supongamos que las condiciones iniciales se mueven en una forma no necesariamente ligera, pero de
tal forma que la órbita sigue estando acotada. El problema se puede resolver tomando un término adicional en
la expansión de Taylor y resolviendo la ecuación de órbita resultante (primer término anarmónico) J. Bertrand
resolvió el problema en 1873 y encontró que para desviaciones a segundo orden en la circularidad, las órbitas
son cerradas para todo movimiento acotado solo si β 2 = 1 ó 4. Estos valores corresponden a la ley de inverso
cuadrado y la ley de Hooke respectivamente. Por supuesto, aún es posible que a orden más alto estas órbitas
puedan ser abiertas. Por fortuna, dado que solo quedan dos leyes de interacción, éstas se pueden examinar
en todo detalle y se puede demostrar que ambas conducen a órbitas cerradas de manera exacta (de hecho lo
demostraremos para la ley del inverso al cuadrado), siempre que la órbita sea acotada. Estas son entonces las
únicas leyes de fuerza que conducen a órbitas cerradas para cualquier órbita acotada, es decir para condiciones
iniciales arbitrarias en E y l salvo por la condición de que estos valores conduzcan a órbita acotada. De
aquı́ resulta el teorema de Bertrand

Theorem 6 Las únicas fuerzas centrales (atractivas) que producen órbitas cerradas para toda trayectoria
acotada de una partı́cula, son la ley del inverso cuadrado y la ley de Hooke.

Este resultado es muy notable ya que las apreciaciones astronómicas muestran que muchos cuerpos celestes
se mueven en órbitas cerradas al menos a primer orden. Esto nos conduce a leyes de la forma (10.71). Sin
embargo, si pensamos que la órbita debe ser cerrada cuando solo interactúan dos cuerpos y las pequeñas
desviaciones se atribuyen a la interacción con otros cuerpos quedamos con solo dos leyes posibles. La ley
de Hooke es descartable ya que implicarı́a que la interacción aumenta con la distancia haciendo imposible
despreciar la interacción con muchos cuerpos. Nos queda entonces que la ley de gravitación debe ser de la
forma 1/r 2 .
En el formalismo de Hamilton Jacobi vimos una forma alterna de ver el movimiento orbital cerrado: El
movimiento orbital en el plano se puede ver como la composición de dos movimientos oscilatorios periódicos
uno en r y el otro en θ. En el caso de la ley inverso cuadrado y de Hooke, ambos movimientos tienen el mismo
periodo y tenemos entonces una degeneración que como vimos, tiene una fuerte relación con la naturaleza del
potencial.
Un comentario final, el teorema de Bertrand no prohibe la existencia de órbitas cerradas para otras leyes de
fuerzas. Lo que el teorema prohibe para otras leyes de fuerzas es que toda trayectoria acotada sea cerrada, pero
es posible que ciertas trayectorias acotadas con condiciones iniciales muy especı́ficas nos lleven a trayectorias
cerradas. De hecho hemos demostrado que toda fuerza central atractiva puede generar órbitas circulares para
cualquier valor del radio del cı́rculo, siempre que los valores de E y l se ajusten de una manera muy especı́fica.
10.10. ÓRBITAS CIRCULARES PERTURBADAS CON VARIABLES AC.-ANG. (OPCIONAL) 239

10.10. Órbitas circulares perturbadas usando variables acción-ángulo (Op-


cional)
Describiremos las pequeñas oscilaciones radiales alrededor de un movimiento circular estable perturbado,
utilizando el formalismo del potencial efectivo y las variables acción-ángulo. Expandiendo el potencial efectivo
alrededor de algún valor r = r0 , tenemos

dVef f (r0 ) 1 d2 Vef f (r0 )


Vef f (r) = Vef f (r0 ) + (r − r0 ) + (r − r0 )2 + ...
dr 2 dr 2
el Hamiltoniano en coordenadas polares asociado al potencial central real V (r), está dado por
 
1 2 l2 1 2
H= pr + 2 + V (r) ≡ p + Vef f (r)
2m r 2m r
una órbita circular estable existe si r0 corresponde a un mı́nimo local del potencial efectivo, en cuyo caso

dVef f (r0 ) l2 dV (r0 )


= − 3 + =0
dr mr0 dr
d2 Vef f (r0 ) 3l2 d2 V (r0 )
= + ≡k>0 (10.72)
dr 2 mr04 dr 2

dado que las oscilaciones alrededor del movimiento circular son pequeñas, podemos definir

r = r0 + λ ; λ << r0
y el Hamiltoniano queda

1 2 1 2 1 d2 Vef f (r0 )
H = pr + Vef f (r0 + λ) ≃ pr + Vef f (r0 ) + (r − r0 )2
2m 2m 2 dr 2
1 2 1
H = E≃ pr + Vef f (r0 ) + λ2 k (10.73)
2m 2
las pequeñas oscilaciones se dan cuando la energı́a es apenas un poco mayor al valor del mı́nimo del potencial
efectivo. Podemos entonces definir el pequeño valor de energı́a dado por

ǫ ≡ E − Vef f (r0 ) (10.74)


y teniendo en cuenta que ṙ = λ̇ se tiene que
∂L ∂L
pr = = = pλ (10.75)
∂ ṙ ∂ λ̇
utilizando las Ecs. (10.74, 10.75), la Ec. (10.73) queda
   
1 2 1 2 1 2 2 k
ǫ≃ pλ + λ k = pλ + m λ2
2m 2 2m m
lo cual es equivalente a redefinir el Hamiltoniano con un corrimiento constante, que claramente no afecta a la
Fı́sica del problema. Este es el Hamiltoniano de un oscilador armónico para la variable λ. Comparándolo con
el Hamiltoniano (9.109), con q → λ resulta
1  k
ǫ≃ p2λ + m2 ω 2 λ2 ; ω2 ≡
2m m
Por tanto, podemos utilizar la Ec. (9.111) para escribir
240 CAPÍTULO 10. FUERZAS CENTRALES


ǫ=

con lo cual la frecuencia está dada por (9.112)
r
∂H ∂ǫ ω 1 k
ν= = = = (10.76)
∂J ∂J 2π 2π m
y el movimiento está descrito por las Ecs. (9.115) con la asignación q → λ.
r r
J mJω
r = r0 + sin 2πw ; pr = cos 2πw
πmω π
se deja como ejercicio al lector escribir la frecuencia de pequeñas oscilaciones radiales (10.76) en términos de
las condiciones iniciales, y comprobar que coincide con la obtenida en las Ecs. (10.68).

10.11. El problema de Kepler: Ley del inverso al cuadrado (atractiva)


Examinemos brevemente el problema inverso19 : dada la trayectoria, encontrar la ley de fuerzas que gobierna
la dinámica de la partı́cula. Vale recordar que Newton empleó las leyes de Kepler para deducir la ley de
gravitación universal, es decir abordó el problema de manera inversa. Es lógico pensar que esta interacción sea
de naturaleza central, en virtud de la isotropı́a del espacio. Emplearemos las leyes de Kepler que describen el
movimiento planetario como postulados observacionales:

1. Todo planeta se mueve con una trayectoria elı́ptica, en uno de cuyos focos se encuentra el Sol

2. El radio vector que une el Sol y el planeta recorre áreas iguales en tiempos iguales

3. El cociente k entre el cubo de la distancia r del sol al planeta y el cuadrado del periodo de revolución T
del planeta
r3
k= 2 (10.77)
T
es idéntico para todos los planetas.

Tomaremos por simplicidad una trayectoria circular (elipse con distancia focal cero) con rapidez constante.
El movimiento lunar es un buen ejemplo de esta trayectoria, la fuerza centrı́peta es de la siguiente forma

v2
F = mac = m (10.78)
r
como la velocidad tangencial constante es de la forma
2πr
v= (10.79)
T
entonces 
m 4π 2 r 2 4π 2 mr
F = = (10.80)
rT 2 T2
Aplicando la tercera ley de Kepler Ec. (10.77) a la Ec. (10.80), resulta

4π 2 m r 3 4π 2 km
F = =
r2 T 2 r2
lo cual nos lleva a una ley proporcional al inverso cuadrado de la distancia que además involucra como constante
de proporcionalidad a la masa (inercial) de la partı́cula. Es natural además asumir que esta fuerza depende de
19
Este problema inverso se conoce usualmente como problema de dispersión o scattering como veremos más adelante.
10.12. SOLUCIÓN PARA LA ÓRBITA EN EL PROBLEMA DE KEPLER 241

dos constantes de acople m1 y m2 asociadas con cada cuerpo y que llamaremos masas gravitacionales, llegando
a la llamada ley de gravitación universal
Gm1 m2
F = (10.81)
r2
Donde G es una constante que se ajusta experimentalmente y que se denomina constante de gravitación
universal. Por otro lado, la segunda ley de Kepler fortalece la idea de que la fuerza es de naturaleza central,
ya que vimos que esta ley se cumple para cualquier fuerza central (ver sección 10.2).
Newton calculó la relación entre la aceleración de la gravedad en la tierra g y la aceleración centrı́peta ac de
la Luna. Aplicando la ley de gravitación universal (asumiendo que la masa inercial y la masa gravitacional son
idénticas) podemos calcular la fuerza FR que la tierra hace sobre una masa m1 en su superficie, ası́ como la
fuerza centrı́peta Fr que la tierra hace sobre la luna.
G 6 m1 mT G 6 mL mT
FR = =6 m1 g ; Fr = =6 mL ac
R2 r2
siendo R el radio de la tierra y r la distancia de la tierra a la luna; mT y mL son las masas de la tierra y la
luna. De esta relación se obtiene
g r2
= 2 (10.82)
ac R
Cavendish realizó la corroboración de esta igualdad. Veamos algunos datos tı́picos

R = 6,37 × 106 m ; r = 3,84 × 108 m ; T = 2,36 × 106 s ; g = 9,8m/s2

siendo T un periodo lunar. Aplicando estos valores a las Ecs. (10.78, 10.79) se tiene

v2 4π 2 r g
ac = = ≃ 2,72 × 10−3 m/s2 ⇒ ≈ (60)2
r T2 ac

en tanto que los cocientes entre r 2 y R2 son


2
3,84 × 108
= 3634 ≈ (60)2
(6,37 × 106 )2

de modo que la igualdad (10.82) está sustentada por los valores experimentales. Este análisis le da consistencia
a la ley del inverso al cuadrado.

10.12. Solución para la órbita en el problema de Kepler


Habiendo establecido que la atracción gravitacional es inversamente proporcional al cuadrado de la distancia
en el caso de trayectoria circular, tomaremos esta ley de fuerza como hipótesis de trabajo para obtener las
posibles trayectorias para diversas condiciones iniciales y contrastar con las observaciones astronómicas. La
fuerza y el potencial vienen dados por
k k
f =− 2 ; V =− (10.83)
r r
como ya vimos, existen varias maneras de integrar la ecuación de movimiento. La mas simple, consiste en
sustituir (10.83) en (10.48). Con lo cual se obtiene

d2 u mf u1 mk
+u = − 2 2 = 2
dθ 2 l u l
mk
usando el cambio de variable y = u − l2 , la ecuación diferencial queda

d2 y
+y =0 (10.84)
dθ 2
242 CAPÍTULO 10. FUERZAS CENTRALES

cuya solución más general se puede escribir de la forma


 mk 
y = B cos θ − θ ′ ⇒ u− = B cos θ − θ ′
l2
mk 
u = 2
+ B cos θ − θ ′
l
donde B y θ ′ son las constantes de integración. Escribiendo la solución en función de r
1 mk   l2
= 2 1 + ε cos θ − θ ′ ; ε≡B (10.85)
r l mk
Otra alternativa consiste en hacer las asignaciones n → −2 y k → −k en las ecuaciones (10.53, 10.54) 20
Z
′ du
θ=θ − q (10.86)
2mE 2mku 2
l2
+ l2
− u
tomaremos la integral como indefinida y a cambio θ ′ absorbe las constantes de integración que surjan, de modo
que θ ′ no necesariamente coincide con el valor inicial de θ. Puesto que θ ′ absorbe a la constante θ0 y a los
lı́mites de integración en la ecuación (10.54) se sigue que θ ′ dependerá tanto de θ0 como de r0 .
La integral indefinida tiene la estructura siguiente
Z  
du 1 β + 2γu
p = √ arc cos − √ ; q ≡ β 2 − 4αγ (10.87)
α + βu + γu 2 −γ q

la integral (10.86) se resuelve a través de (10.87) con las siguientes sustituciones


   
2mE 2mk 2mk 2 2El2
α= 2 , β = 2 ; γ = −1 ; q = 1 + (10.88)
l l l2 mk2
donde el valor de q se obtuvo de
 2
     2 2 2 2
2mk
2mE 2mk 2 2 m k El
q ≡ β 2 − 4αγ = −4
(−1) = + 2
l2l2 l2 l4 mk2
 2  2     2  
2mk 2mk 2El2 2mk 2El2
q = + = 1 +
l2 l2 mk2 l2 mk2
sustituyendo (10.87, 10.88) en la integral (10.86) se tiene
   i 
 2mk
h 2ul2
 2mk
− 2u   l2
1− 2mk 
l2
θ = θ ′ − arc cos   − r  
 = θ ′ − arc cos −
  r 

2mk 2
 2El2 2mk
 2El 2
l 2 1 + mk 2 l 2 1+ mk 2
 
l2 u
′  q mk − 1 
θ = θ − arc cos
2
1 + 2El
mk 2

y resolviendo para u ≡ 1/r la ecuación de la trayectoria queda


r
 l2 u  l2 u
′ mk −1 2El2
cos θ − θ = q ⇒ 1+ 2
cos θ − θ ′ = −1
2El2
1 + mk2 mk mk
r " r #
l2 u 2El2  mk 2El 2 
= 1+ 1+ cos θ − θ ′ ⇒ u= 2 1+ 1+ cos θ − θ ′
mk mk2 l mk2
20
Aunque este camino es más largo, tiene la ventaja de que la constante ε queda directamente en términos de la energı́a y el
momento angular
10.12. SOLUCIÓN PARA LA ÓRBITA EN EL PROBLEMA DE KEPLER 243

ε>1 E>0 l 6= 0 hipérbola


ε=1 E=0 l 6= 0 parábola
ε<1 E<0 l 6= 0 elipse
2
ε=0 E = − mk
2l2
l 6= 0 circunferencia

Cuadro 10.1: Tipos de cónicas que se obtienen con diferentes valores de la excentricidad. La segunda columna
nos da el valor de la energı́a para el cual se obtienen estas cónicas. El momento angular se asume diferente de
cero.
" r #
1 mk 2El2 ′

= 2 1+ 1+ cos θ − θ (10.89)
r l mk2

se puede ver que esta ecuación coincide con (10.85) excepto que ε aparece en (10.89) como función de E y l
tal como se anticipó. La Ec. (10.89) nos permite identificar a θ ′ como uno de los ángulos correspondientes a la
inversión del movimiento de la órbita, ya que si tomamos θ ′ = 0 vemos que esta ecuación queda invariante ante
la transformación especular θ → −θ. Esto nos indica según la discusión de la sección 10.6 que θ = θ ′ corresponde
al lugar geométrico de un ápside, de hecho la Ec. (10.89) nos indica que es un periápside, puesto que para θ = θ ′
la coordenada r adquiere su valor mı́nimo. Notemos que de las cuatro constantes de integración solo aparecen
tres (E, l, θ ′ ), esto se debe a que la cuarta constante (θ0 ó r0 ) ubica la posición inicial de la partı́cula, la cual
es claramente irrelevante en la ecuación de la órbita21 . Sin embargo, esta cuarta constante deberá aparecer
cuando se solucione el problema de r y θ en función del tiempo. En particular, si queremos resolver la primera
integral de movimiento asociada a la conservación del momento angular Ec. (10.13), tenemos que conocer el
valor inicial de θ i.e. θ0 .

10.12.1. Clasificación de las órbitas según los valores de E y l


Teniendo en cuenta que en coordenadas polares, la ecuación general de una cónica con foco en el origen es
de la forma
1  
= C 1 + ε cos θ − θ ′
r
siendo ε la excentricidad de la sección cónica, se tiene por comparación con (10.89) que la órbita siempre
corresponde a una sección cónica con foco en el centro de fuerzas y excentricidad
r
2El2
ε = 1+ (10.90)
mk2
como se sabe de la teorı́a de secciones cónicas, el tipo de cónica depende del valor de la excentricidad según la
tabla 10.1
Los valores de la tabla 10.1 corresponden a todos los casos posibles con l 6= 0. Cuando el momento angular
es nulo la Ec. (10.89) ya no es válida, y recalculando se observa fácilmente que la trayectoria consiste en una
lı́nea recta, que corresponde al caso en el cual la velocidad inicial es tal que la partı́cula “apunta” directamente
al centro de fuerzas. La clasificación anterior coincide con la clasificación general de trayectorias acotadas y no
acotadas que se hizo en la sección 10.4.1, basados en el análisis de la curva de energı́a potencial efectiva. Nótese
que siempre que garanticemos que l 6= 0, el tipo de cónica solo depende de la energı́a, aunque la trayectoria
detallada depende de E y l. Adicionalmente, si la trayectoria es abierta y la posición inicial de la partı́cula no
está en el infinito22 , la partı́cula solo recorrerá una porción de la sección cónica (parábola o hipérbola).
21
No obstante, si la órbita es abierta, esta información será necesaria para encontrar la porción de la órbita que la partı́cula
recorre, la cual depende del punto de partida. Para trayectoria cerrada el punto de partida no es relevante para trazar la trayectoria
completa.
22
Si la partı́cula está inicialmente en el infinito (que en la práctica significa “muy lejos”), aún es posible que la velocidad inicial
lo aleje aún más del centro de fuerza.
244 CAPÍTULO 10. FUERZAS CENTRALES

10.12.2. Condición de circularidad


Veamos como se relaciona la condición de circularidad con la estudiada en la sección 10.7. Aplicando el
teorema del virial (10.45) y teniendo en cuenta que en la órbita circular E, T y V son constantes, tenemos

1 V V
E =T +V =− V +V = =
2 2 2
por lo tanto
k
E=− (10.91)
2r0
pero recordando la condición de circularidad (10.55), que equivale a la anulación de la fuerza efectiva podemos
escribir
k l2 l2
f (r0 ) = − 2 = − 3 ⇒ r0 = (10.92)
r0 mr0 mk
que al reemplazar en (10.91) resulta
mk2
E=− (10.93)
2l2
esta expresión coincide con la que se obtendrı́a haciendo ε = 0 (condición de circularidad) en la Ec. (10.90).
Un breve cálculo nos muestra que esta expresión también coincide con la que se obtuvo en (10.56) para la
condición de circularidad con un potencial central arbitrario. Partiendo de (10.93) y usando (10.92) se tiene
que
 
mk2 mk2 mk l2 mk 2 k l2 l2
E = − 2 + 2 = −k 2 + = − + = V (r0 ) +
l 2l l 2m l2 r0 2mr02 2mr02
que coincide con (10.56).

10.12.3. Órbitas elı́pticas


Para el caso de órbitas elı́pticas (ε < 1, E < 0, l 6= 0), se puede demostrar que el eje mayor solo depende
de la energı́a, hecho fundamental en la teorı́a atómica de Bohr. De las propiedades de la elipse, la suma de las
distancias apsidales r1 + r2 es la longitud del eje mayor. Como en los puntos ri que determinan las ápsides la
velocidad radial es por definición nula, la conservación de la energı́a nos dice que

1 k l2
E = V (ri ) + mvθ2 = − + ; i = 1, 2
2 ri 2mri2

por tanto, las distancias apsidales corresponden a las raı́ces de la siguiente ecuación

l2 k
E− 2 + = 0
2mri r i
k l 2
ri2 + ri − = 0
E 2mE
en una ecuación cuadrática, la suma de las raı́ces es el cociente entre el coeficiente del término lineal sobre el
coeficiente del término cuadrático cambiado de signo. Por lo tanto el semieje mayor viene dado por
r1 + r2 k
a= =− (10.94)
2 2E
y el semieje mayor solo depende de la energı́a como se anticipó. En el lı́mite de circularidad la Ec. (10.94)
coincide con (10.91). Despejando la energı́a en (10.94) y reemplazando en (10.90), se obtiene la excentricidad
de la elipse en función del semieje mayor r
l2
ε = 1− (10.95)
mka
10.13. MOVIMIENTO EN EL TIEMPO EN EL PROBLEMA DE KEPLER 245

la cual se puede despejar en la forma


l2 
= a 1 − ε2 (10.96)
mk
con lo cual la ecuación de la órbita (10.85) cuando ésta es elı́ptica se puede reescribir en la forma

a 1 − ε2
r= (10.97)
1 + ε cos (θ − θ ′ )

de la Ec. (10.97) se encuentra que las dos distancias apsidales (correspondientes a θ − θ ′ igual a cero y π) son
iguales a
r1 = rmı́n = a (1 − ε) ; r2 = rmáx = a (1 + ε)
lo cual es consistente con las propiedades de la elipse.

10.13. Movimiento en el tiempo en el problema de Kepler


La relación entre las coordenadas y el tiempo es mucho más complicada de obtener que la ecuación de la
órbita. Las Ecs. (10.24, 10.27) nos dan en principio la relación entre la distancia radial y el tiempo y la posición
angular y el tiempo, que para el potencial (10.83) toman la forma
Z r Z r
dr dr
t − t0 = q = r   (10.98)
r0 2 r0
(E − V ) 2 k l2
m E + r − 2mr 2
m ef f

Z t
l dt
θ = θ0 + 2
(10.99)
m t0 r (t)

sin embargo, la expresión (10.99) tiene la desventaja de requerir la integración previa de (10.98) y la inversión
de la relación obtenida para encontrar r (t). Por esta razón, es más fácil encontrar la relación entre θ y el
tiempo usando la Ec. (10.13) de conservación del momento angular.

dθ mr 2
mr 2 =l ⇒ dt = dθ (10.100)
dt l
combinando esta ecuación con la ecuación de órbita (10.85) resulta
h i2
l2 1
m mk 1+ε cos(θ−θ ′ ) ml4 dθ
dt = dθ ⇒ dt =
l lm2 k2 [1 + ε cos (θ − θ ′ )]2
Z θ
l3 dθ
t − t0 = (10.101)
mk2 θ0 [1 + ε cos (θ − θ ′ )]2
aunque esta integral se puede escribir en forma cerrada, la forma funcional es muy compleja y su inversión
para obtener las coordenadas en función del tiempo es un problema colosal.

10.13.1. Dependencia temporal en el caso parabólico


Ilustraremos entonces un caso más simple reduciendo nuestra atención al movimiento parabólico (ε = 1). Es
usual medir el ángulo polar a partir del radio vector en el punto de mayor acercamiento conocido como perihe-
lio o periapsis. Este convenio implica hacer θ ′ nulo en la ecuación de órbita (10.85). Correspondientemente
el tiempo se comienza a medir a partir del paso por el periapsis. Usando la identidad

θ
1 + cos θ = 2 cos2
2
246 CAPÍTULO 10. FUERZAS CENTRALES

la ecuación (10.101) aplicada a una sección parabólica (ε = 1) con θ ′ = 0 nos da

Z θ Z θ Z θ
l3 dθ l3 dθ l3 θ
t = 2 = mk 2   2 = sec4 dθ
mk2 θ0 [1 + cos θ] θ0 2 cos 2 θ
2
4mk 0 2
2
Z θ  
l3 θ θ
t = 2
1 + tan2 sec2 dθ
4mk 0 2 2

1 θ
usando el cambio de variable x = tan (θ/2), dx = 2 sec2 2 dθ

Z x  
l3 2
 l3 x3
t = 1 + x dx = x+
2mk2 0 2mk2 3
 
l3 θ 1 θ
t = tan + tan3 (10.102)
2mk2 2 3 2

aún la inversión de esta ecuación implica resolver una cúbica para tan (θ/2), para luego hallar el arcotangente
respectivo. La distancia radial en ese instante se encuentra mediante la ecuación orbital.

10.13.2. Dependencia temporal para el movimiento elı́ptico

Para el movimiento elı́ptico la integración se realiza de manera más conveniente mediante una variable
auxiliar ψ conocida como anomalı́a excéntrica, definida por la relación

r = a (1 − ε cos ψ) (10.103)

al comparar con la Ec. (10.97) para la órbita, queda claro que ψ también cubre el intervalo entre 0 y 2π cuando
θ recorre una revolución completa, además ψ = 0 en el perihelio al igual que θ (por convenio), ası́ mismo en
el afelio ψ = θ = π. A partir de las Ecs. (10.94, 10.95) podemos expresar a E y l en función de a, ε, y k

k l2 
E=− ; ε2 = 1 − ⇒ l2 = mka 1 − ε2
2a mka

estos reemplazos tienen la ventaja de que a y ε son variables más geométricas y por tanto más observables
astronómicamente. Reemplazando estas expresiones en la Ec. (10.98) para movimiento elı́ptico resulta

Z r Z r
dr dr
t = r  = r  
r0 2 k k mka(1−ε2 ) r0 2k r2 a(1−ε2 )
m − 2a + r − 2mr 2 mr 2
− 2a +r− 2
r Z r
m r dr
t = q (10.104)
2k r0 r2 a(1−ε2 )
r− 2a − 2

por convención r (t = 0) = r0 es la distancia al perihelio, para la cual ψ = 0. La introducción de la anomalı́a


excéntrica (10.103)

r = a (1 − ε cos ψ) ; dr = aε sin ψ dψ
10.13. MOVIMIENTO EN EL TIEMPO EN EL PROBLEMA DE KEPLER 247

reduce la integral (10.104) a una forma más simple:


r Z ψ
m a (1 − ε cos ψ) (aε sin ψ dψ)
t = q
2k 2 2)
0
a (1 − ε cos ψ) − [a(1−ε2acos ψ)] − a(1−ε
2
r Z ψ
m a2 ε (1 − ε cos ψ) sin ψ dψ
t = q
2k 2 ψ+ε2 cos2 ψ) a(1−ε2 )
0 a (1 − ε cos ψ) − a (1−2ε cos2a − 2
r Z ψ
ma4 ε (1 − ε cos ψ) sin ψ dψ
t = pap
2k 0 2 2 (1 − ε cos ψ) − (1 − 2ε cos ψ + ε2 cos2 ψ) − (1 − ε2 )
r Z
2ma4 ψ ε (1 − ε cos ψ) sin ψ dψ
t = p
2ka 0 2 − 2ε cos ψ − 1 + 2ε cos ψ − ε2 cos2 ψ − 1 + ε2
r Z r Z
ma3 ψ ε (1 − ε cos ψ) sin ψ dψ ma3 ψ (1 − ε cos ψ) sin ψ dψ
t = p = p
k 0 ε2 − ε2 cos2 ψ k 0 sin2 ψ
r Z ψ
ma3
t= (1 − ε cos ψ) dψ (10.105)
k 0

primero podemos observar que esta ecuación nos permite obtener una expresión para el periodo τ del movi-
miento elı́ptico, si extendemos la integral a todo el dominio de ψ entre 0 y 2π
r
3/2 m
τ = 2πa (10.106)
k

Ahora escribamos (10.105) introduciendo la frecuencia de revolución ω en la forma


r
2π k
ω= =
τ ma3
donde hemos usado (10.106). La integral de (10.105) se calcula fácilmente y se obtiene

ωt = ψ − ε sin ψ ; ψ (t = 0) = 0 (10.107)

esta relación es conocida como ecuación de Kepler. La cantidad ωt barre el dominio entre 0 y 2π junto con ψ y
θ, en el curso de una revolución completa, razón por la cual también se le llama una anomalı́a, más exactamente
anomalı́a media.
Para hallar la posición en la órbita en un tiempo t, se deberı́a en primer lugar invertir la ecuación de
Kepler (10.107) de tal manera que se obtiene la anomalı́a excéntrica ψ en función del tiempo. Esta última se
reemplaza entonces en (10.103) que es la ecuación que define la anomalı́a excéntrica, con ello obtenemos r (t).
Por otro lado, el ángulo polar θ se puede expresar en función de ψ por comparación de (10.103) con la ecuación
de la órbita elı́ptica (10.97), donde nuevamente por convención tomaremos θ ′ = 0, que equivale a que θ = 0 en
el perihelio y por tanto en t = 0.

a 1 − ε2 1 − ε2
= a (1 − ε cos ψ) ⇒ 1 + ε cos θ =
1 + ε cos θ 1 − ε cos ψ
1−ε 2 1 2
1 − ε − (1 − ε cos ψ) ε (−ε + cos ψ)
cos θ = − = =
ε (1 − ε cos ψ) ε ε (1 − ε cos ψ) ε (1 − ε cos ψ)

de modo que esta ecuación se puede escribir como

cos ψ − ε
cos θ = (10.108)
1 − ε cos ψ
248 CAPÍTULO 10. FUERZAS CENTRALES

tenemos a partir de (10.108) que


cos ψ − ε 1 − ε cos ψ − cos ψ + ε (1 − cos ψ) + ε (1 − cos ψ)
1 − cos θ = 1 − = =
1 − ε cos ψ 1 − ε cos ψ 1 − ε cos ψ
(1 − cos ψ) (1 + ε)
1 − cos θ =
1 − ε cos ψ
similarmente
cos ψ − ε 1 − ε cos ψ + cos ψ − ε (1 + cos ψ) − ε (1 + cos ψ)
1 + cos θ = 1 + = =
1 − ε cos ψ 1 − ε cos ψ 1 − ε cos ψ
(1 + cos ψ) (1 − ε)
1 + cos θ =
1 − ε cos ψ
por tanto
1 − cos θ (1 − cos ψ) (1 + ε)
=
1 + cos θ (1 + cos ψ) (1 − ε)
y usando la identidad
1 − cos θ θ
= tan2
1 + cos θ 2
tenemos que
θ (1 + ε) ψ
tan2 = tan2
2 (1 − ε) 2
teniendo en cuenta que tan θ/2, tiene el mismo signo que tan ψ/2 en todo el rango de ambos ángulos, nos
queda finalmente r
θ 1+ε ψ
tan = tan (10.109)
2 1−ε 2
la ecuación (10.109) nos da θ como función de ψ. Para encontrar θ en función del tiempo, es necesario invertir
la ecuación de Kepler (10.107). La solución de esta ecuación ha sido tema de amplio estudio (ver Ref. [1]
segunda edición).

10.13.3. Tercera ley de Kepler


Elevando al cuadrado la Ec. (10.106), obtenemos

4π 2 m 3
τ2 = a (10.110)
k
este resultado también se puede obtener a través de las propiedades de la elipse. Ya hemos visto que la
conservación del momento angular conduce a que la velocidad aerolar es constante y viene dada por la Ec.
(10.15)
dA 1 l
= r 2 θ̇ =
dt 2 2m
si integramos sobre un periodo completo, se obtiene el área total, la cual para una elipse viene dada por πab,
siendo b el semieje menor. Z τ
dA lτ
dt = AT = = πab (10.111)
0 dt 2m
el semieje menor viene dado por p
b = a 1 − ε2 (10.112)
y combinando (10.112) con la relación (10.95) nos permite escribir el semieje menor en la forma
r
a
b=l (10.113)
mk
10.14. VECTOR DE LAPLACE-RUNGE-LENZ 249

y sustituyendo (10.113) en (10.111) resulta


r r
lτ a 3/2 m
= πal ⇒ τ = 2πa
2m mk k

en consistencia con (10.110). Estas expresiones coinciden con la tercera ley de Kepler, la cual se puede enunciar
de la siguiente manera: los cuadrados de los periodos de los distintos planetas son proporcionales a los cubos
de sus ejes (o semi-ejes) mayores.
Kepler enunció además que la constante de proporcionalidad es la misma para todos los planetas. No
obstante, esta última afirmación es solo aproximadamente cierta. Para verlo, recordemos que el movimiento
de un planeta alrededor del sol, es un problema de dos cuerpos y la masa que aparece aquı́ equivale a la masa
reducida del sistema
m1 m2
µ=
m1 + m2
por convención tomaremos a m1 como la masa de un planeta y a m2 como la masa del sol. La fuerza gravitatoria
de atracción se escribe
Gm1 m2 k
f =− = − 2 ; k ≡ Gm1 m2
r2 r
y la Ec. (10.110) queda de la forma
2 m m
2 4π 2 µ 3 4π m11+m22 3
τ = a = a
k Gm1 m2
4π 2 a3 ∼ 4π 2 a3
τ2 = = (10.114)
G (m1 + m2 ) Gm2

nótese que la constante de proporcionalidad es diferente para cada planeta, pero si despreciamos la masa
m1 del planeta con respecto a la masa m2 del sol, la constante será la misma para todos los planetas. En las
órbitas del átomo de Bohr esta constante de proporcionalidad es la misma, ya que todos los electrones poseen
la misma masa y carga (es decir igual valor de la masa reducida y de k).

10.14. Vector de Laplace-Runge-Lenz


A continuación veremos que en el problema de Kepler existe un vector conservado además del momento
angular. La segunda ley de Newton para fuerzas centrales se puede escribir como
r
ṗ = f (r) ur = f (r) (10.115)
r
teniendo en cuenta (10.115), desarrollemos la cantidad
h ri f (r) mf (r)
ṗ × L = f (r) × (r × p) = r × (r × mṙ) = [r × (r × ṙ)]
r r r
mf (r)  
ṗ × L = r (r · ṙ) − r 2 ṙ (10.116)
r
donde hemos usado la identidad
a × (b × c) = (a · c) b − (a · b) c
podemos simplificar la ecuación (10.116) teniendo en cuenta la identidad

1 d 1 d
r · ṙ = (r · r) = (rr) = r ṙ
2 dt 2 dt
o visto de otra forma
r · ṙ = rur · ṙ = rur · (vr ur + vθ uθ ) = rvr = r ṙ
250 CAPÍTULO 10. FUERZAS CENTRALES

de modo que  
mf (r)  2
 2 rṙ ṙ
ṗ × L = r (r ṙ) − r ṙ = mf (r) [rṙ − r ṙ] = mf (r) r −
r r2 r
Teniendo en cuenta esta identidad y el hecho de que L es constante, se tiene que
 
d ṙ rṙ d r
(p × L) = ṗ × L = −mf (r) r 2 − 2 = −mf (r) r 2
dt r r dt r
d dur
(p × L) = −mf (r) r 2 (10.117)
dt dt
hasta aquı́ podemos llegar para una expresión general de la fuerza central. Ahora tomando una fuerza atractiva
proporcional al inverso al cuadrado de la distancia f (r) = −k/r 2 , la integración resulta inmediata, ya que la
Ec. (10.117) se convierte en

d k dur d d
(p × L) = m 2 r 2 = (mkur ) ⇒ (p × L − mkur ) = 0
dt r dt dt dt
que nos dice que en el problema de Kepler hay un vector conservado A definido por

A ≡ p × L − mkur (10.118)

conocido como vector de Laplace-Runge-Lenz (L-R-L). Dado que L = luz , la definición de A nos muestra que

A·L=0 (10.119)

esta ortogonalidad implica que A es un vector fijo que yace en el plano de movimiento. Si llamamos θ el ángulo
que hace r con el vector fijo A, el producto escalar de estos dos vectores será

A · r = Ar cos θ = (p × L) · r − mkr (10.120)

permutando términos en el producto mixto

r · (p × L) = L · (r × p) = l2

con lo que la Ec. (10.120) queda en la forma

Ar cos θ = l2 − mkr ⇒ (A cos θ + mk) r = l2

o alternativamente  
1 mk A
= 2 1+ cos θ (10.121)
r l mk
vemos entonces que el vector de L-R-L proporciona otra manera de llegar a la ecuación de la órbita en el
problema de Kepler. Comparando (10.121) con la ecuación de la órbita en la forma (10.85), se ve que el
módulo de A viene dado por
A = mkε (10.122)
de la Ec. (10.121) es claro que θ = 0 corresponde a la dirección del periápside r (θ = 0) = rmı́n ≡ rm .
Recordando además que θ por definición es el ángulo entre A y r (según la Ec. 10.120), vemos que θ = 0
indica que A es paralelo a rm . Por tanto, A tiene la dirección del radio vector que corresponde al periapsis o
perihelio de la órbita.
Hemos identificado en consecuencia dos vectores y un escalar que se conservan (L, A, E) para un total
de siete cantidades conservadas. Por otro lado, el sistema requiere de seis constantes de movimiento que
corresponden por ejemplo a las tres componentes de la posición inicial y a las tres componentes de la velocidad
inicial de la partı́cula. Nótese por otro lado, que todas las constantes que aparecen en el conjunto (L, A, E) son
funciones algebraicas de r y p que describen la órbita en su conjunto (orientación en el espacio, excentricidad
10.15. PARAMETRIZACIÓN DE LAS ÓRBITAS KEPLERIANAS EN EL ESPACIO 251

etc.), ninguna de las siete cantidades se refiere a la localización de la partı́cula en el instante inicial. Como
una de las constantes de movimiento debe referirse a esta información, por ejemplo en forma del tiempo de
paso T de la partı́cula por el perihelio, solo podrá haber cinco cantidades de movimiento independientes en
el conjunto (L, A, E) que describan el tamaño, forma y orientación de la órbita. Es necesario entonces que
existan dos relaciones entre las cantidades L, A y E. La primera viene dada por la relación de ortogonalidad
entre L y A, Ec. (10.119). La otra se deduce de la Ec. (10.122) cuando se escribe la excentricidad en términos
de E y l, Ec. (10.90) r
2El2
A = mk 1 + ⇒ A2 = m2 k2 + 2mEl2 (10.123)
mk2
confirmando que solo hay cinco cantidades independientes entre las siete descritas por el conjunto (L, A, E).
Dado que el momento angular y la energı́a proveen cuatro cantidades independientes, el vector de L-R-L
nos da una más. Es entonces natural preguntarse si para una fuerza central arbitraria existe una cantidad
conservada análoga al vector de L-R-L que junto con L y E nos sirvan para definir la órbita. Parece ser que
sı́ se pueden construı́r cantidades de este tipo pero en general no son funciones muy simples del movimiento
(D. M. Fradkin, Progress of Theoretical Physics 37, 798, mayo 1967). Esto se debe a que las constantes de
movimiento relacionadas con la órbita definen la forma funcional r (θ), pero hemos visto que en general las
fuerzas centrales conducen a órbitas no cerradas, como se vé en el teorema de Bertrand. Es una caracterı́stica
general de las órbitas no cerradas el hecho de que la curva llegará a pasar por un punto (r, θ) arbitrario que
esté entre las cotas de los puntos de retorno de r. Podemos verlo heurı́sticamente teniendo en cuenta que si la
órbita no es cerrada, al variar θ a lo largo de todo un ciclo la partı́cula no deberá recorrer de nuevo sus pasos
sobre ninguna órbita anterior. En consecuencia la órbita es tal que r es función multiforme de θ (módulo 2π),
en realidad es una función infinitiforme de θ. En consecuencia, la cantidad conservada adicional a L y a E que
define la órbita, deberá contener una función infinitiforme del movimiento de la partı́cula. Solo en el caso de
órbitas cerradas o más generalmente cuando el movimiento sea degenerado, como en el problema de Kepler,
se puede esperar que la cantidad conservada adicional sea una función sencilla de r y p tal como el vector de
L-R-L.
Es interesante ver el aporte geométrico de cada constante de movimiento, dos grados de libertad de L
determinan el plano de movimiento, los valores de E y l determinan el tamaño y forma de la elipse23 , finalmente
el vector de L-R-L determina la orientación de la elipse en el plano de movimiento. Nótese que una elipse solo
requiere un parámetro angular para ser orientada dentro de un plano, lo cual coincide con el hecho de que el
vector L-R-L solo contribuye con un parámetro24 .
A la luz del teorema de Bertrand, es de esperarse que en el caso de una ley de fuerza central tipo Hooke,
encontremos una cantidad conservada semejante al vector de L-R-L, puesto que en este caso las órbitas también
son degeneradas. Tal cantidad existe pero la manera más natural de definirla es con un tensor de segundo rango.
De esta forma la existencia de una constante de movimiento adicional a E, L y relacionada con la órbita que
sea función algebraica simple del movimiento, es suficiente para indicar que el movimiento es degenerado y
que las órbitas acotadas son cerradas.

10.15. Parametrización de las órbitas keplerianas en el espacio


Aunque matemáticamente es posible determinar la órbita en el espacio usando cantidades como E, L y
A. Es más conveniente parametrizar la órbita con cantidades más geométricas. Hemos visto que en el espacio
tridimensional que es un problema de tres grados de libertad, se requieren seis condiciones iniciales (por ejemplo
23
El tamaño y forma de la elipse se determinan geométricamente con la excentricidad ε y el semi-eje mayor a. Las Ecs. (10.90,
10.94) nos dicen que E y l nos determinan las cantidades a y ε.
24
Estrictamente un plano requiere para su determinación un vector normal a él y un punto por donde pasa, igualmente la
ubicación de la elipse dentro del plano requiere además de su forma, tamaño y orientación, conocer dos puntos por donde pasa o un
punto por donde pasa con su velocidad. Aquı́ son indispensables la posición y velocidad inicial. Nótese sin embargo, que cambiar
la posición inicial con las mismas cinco constantes de movimiento, implica que la elipse sufre una traslación paralela con lo cual es
obvio que las caracterı́sticas del movimiento son idénticas. No obstante, el análisis anterior muestra que la determinación completa
de la posición de la trayectoria en el espacio requiere de un grado de libertad adicional asociado a la posición inicial.
252 CAPÍTULO 10. FUERZAS CENTRALES

Figura 10.10: Parametrización de la órbita elı́ptica en el espacio para el problema de Kepler.

qi , q̇i para las tres coordenadas generalizadas), para resolver completamente la dinámica. Ya hemos observado
que para el problema de fuerzas centrales es más conveniente tomar las seis constantes de modo que cinco
de ellas sean funciones de las coordenadas y momentos que describen la órbita en el espacio y solo la última
se refiere a la posición de la partı́cula en la órbita en un instante dado (ver sección 10.14). Para el caso de
la órbita elı́ptica, las cinco constantes que determinan la órbita se pueden tomar de la siguiente forma: dos
constantes tı́picamente angulares determinan la orientación del plano de movimiento, un parámetro para la
escala de la elipse (por ejemplo el semieje mayor), otro para la forma de la elipse (digamos la excentricidad
o el eje menor), y finalmente un parámetro que especifique la orientación de la elipse dentro del plano de la
órbita.
Veamos de forma especı́fica la manera de determinar la órbita con cinco parámetros de esta naturaleza y
un sexto parámetro que me introduce la dependencia temporal. La Fig. 10.10, muestra un sistema xyz donde
el origen se eligió en el centro de fuerzas, de modo que el plano de movimiento pasa por dicho origen. En el
proceso de determinación de la órbita seguiremos los siguientes pasos: (a) determinación del plano de la órbita,
(b) determinación de la escala y forma de la elipse, (c) determinación de la orientación de la elipse en el plano
de movimiento y el sentido en que la partı́cula recorre la elipse. Estos pasos nos determinan completamente la
órbita, de modo que para determinar la dinámica completa solo se necesita un paso adicional (d) determinación
de la dependencia de la posición de la partı́cula en la órbita con el parámetro tiempo.
Para realizar el paso (a), observemos que el vector unitario n especifica el plano de movimiento, podrı́amos
en consecuencia pensar en utilizar los ángulos que definen a este vector unitario como los parámetros que
definen la orientación de este plano. Resulta no obstante, más práctico definir la dirección de este plano en la
forma siguiente: La intersección del plano xy con el plano orbital se llama lı́nea de nodos. Si determinamos
la dirección de la lı́nea de nodos, lo que nos falta para determinar el plano orbital es el ángulo diedro entre el
plano xy y el plano de movimiento. Para determinar la dirección de la lı́nea de nodos, notemos que en dicha
lı́nea hay dos puntos que corresponden a la intersección de la órbita elı́ptica con el plano xy. El punto en el
cual la partı́cula pasa del hemisferio inferior o hemisferio sur (z < 0) al hemisferio superior o hemisferio norte
(z > 0) se denomina nodo ascendente. La parte punteada de la órbita en la Fig. 10.10 corresponde a la
porción que está en el hemisferio sur. La recta ON es un segmento de la lı́nea de nodos que va del origen al
nodo ascendente. La dirección de ON en el plano xy (y por tanto la dirección de la lı́nea de nodos) puede
10.16. PROBLEMA DE KEPLER EN VARIABLES ACCIÓN-ÁNGULO REVISADO (OPCIONAL) 253

determinarse con el ángulo que este segmento hace con el eje x conocido como longitud del nodo ascendente
y denotado por Ω. Una vez determinada la dirección de la lı́nea nodal a través de Ω, vemos fácilmente que el
ángulo diedro entre el plano de movimiento y el plano xy corresponde justamente a θi i.e. el ángulo entre n y
el eje z que usualmente se denomina inclinación de la órbita.
El paso (b) se realiza de manera inmediata si conocemos dos de los siguientes tres parámetros: semieje me-
nor, semieje mayor y excentricidad. Usualmente se toman los dos últimos, de modo que tı́picamente obtenemos
la escala de la elipse con el semieje mayor y la forma de ésta con la excentricidad.
Ahora para el paso (c) determinamos la orientación de la elipse en el plano de movimiento. Es natural
tomar como referente la orientación del periápside, la cual se puede obtener a través del ángulo N OC siendo
C el punto de la órbita que corresponde al periápside, este ángulo se denota por ω y se denomina argumento
del perihelio (incluso para órbitas no relacionadas con el sol). Este es el ángulo entre la lı́nea nodal (con su
sentido determinado por el nodo ascendente), y la lı́nea del periápside. Nótese que la determinación del nodo
ascendente ya nos determina el sentido en el cual la partı́cula recorre la elipse.
Finalmente, para el paso (d) de determinar la dependencia de la posición de la partı́cula con el parámetro
tiempo, podemos determinar por ejemplo la posición angular inicial de la partı́cula, digamos con respecto al
periápside. Sin embargo, un parámetro más utilizado es el tiempo T para el cual la partı́cula pasa por el
periápside. Es decir el tiempo que le toma a la partı́cula en ir desde su posición inicial en t = 0 hasta el
periápside.
En sı́ntesis, la dinámica completa de movimiento se determina con los siguientes parámetros

θi , Ω, a, ε, ω, T (10.124)

los dos primeros parámetros definen la orientación del plano por medio de la orientación de la lı́nea de nodos
(Ω), y el ángulo diedro θi entre el plano orbital y el plano xy. El semieje mayor a define la escala de la
elipse, y la excentricidad ε define la forma de ésta. El ángulo ω determina la dirección de la elipse en el plano
de movimiento tomando como referente la lı́nea del periápside. El sentido del movimiento lo determina la
localización del nodo ascendente (que a su vez se usa para definir ω). Finalmente, el parámetro T define la
dependencia de la posición de la partı́cula en la órbita en función del tiempo.

10.16. Problema de Kepler en variables acción-ángulo revisado (opcional)

En la sección 9.12 vimos la reducción a cuadraturas del problema de Kepler con el formalismo de variables
acción-ángulo, comenzando con un problema tridimensional en coordenadas esféricas. Para entonces solo nos
interesaba indicar la solución formal. En esta sección nos ocuparemos de mostrar algunos detalles adicionales
que se pueden observar para el problema de Kepler en variables acción-ángulo, aprovechando además el co-
nocimiento adicional que hemos obtenido en este capı́tulo. En particular usaremos desde el principio el hecho
de que el movimiento corresponde a una órbita bidimensional cerrada, y que la frecuencia es completamente
degenerada.
En primer lugar, cuando utilizamos coordenadas esféricas o polares planas como coordenadas generalizadas,
la transformación de coordenadas cartesianas a las generalizadas no depende explı́citamente del tiempo, por
consiguiente la energı́a cinética en estas coordenadas solo depende cuadráticamente de q̇i (ver sección 2.3.1)
i.e. T = T2 . Por otro lado, para una partı́cula sometida a una fuerza central, el Lagrangiano y el Hamitoniano
en coordenadas esféricas o en coordenadas polares planas poseen las siguientes propiedades estructurales

L = T − V = L2 + L0 ; L2 = T , L0 = −V
H ≡ pi q̇i − L = T + V ⇒ pi q̇i − (T − V ) = T + V
⇒ pi q̇i = 2T = 2L2

por tanto, la energı́a cinética se puede expresar en coordenadas esféricas (r, θ, φ) o en coordenadas polares
254 CAPÍTULO 10. FUERZAS CENTRALES

planas (r, ψ), si tenemos en cuenta la naturaleza bidimensional del movimiento25

2T = pr ṙ + pθ θ̇ + pφ φ̇ = pr ṙ + pψ ψ̇ (10.125)

con lo cual se obtiene


pθ θ̇ + pφ φ̇ = pψ ψ̇ ⇒ pθ dθ = pψ dψ − pφ dφ
esta expresión nos permite calcular la integral de Jθ , teniendo en cuenta además que pψ = l es el módulo del
momento angular, y que pφ es constante ya que φ es cı́clica. La definición de Jθ queda
I I I I I
Jθ ≡ pθ dθ = pψ dψ − pφ dφ = l dψ − pφ dφ

y dado que las frecuencias de θ y φ son iguales, φ y ψ varian en 2π cuando θ realiza un ciclo completo de
libración, de modo que las integrales se simplifican en la forma

Jθ = 2π (l − pφ ) = 2π (αθ − αφ ) (10.126)

donde hemos tenido en cuenta que αφ coincide con el momento conjugado a φ, en tanto que αθ corresponde
al módulo del momento angular, según las Ecs. (9.76, 9.79)26 . La Ec. (10.126) concuerda con la Ec. (9.166).
La variable Jφ es inmediata dado el carácter cı́clico de φ

Jφ = 2παφ = 2πpφ (10.127)

10.16.1. Determinación del Hamiltoniano en términos de variables de acción


Es posible extraer información de manera más directa con las variables acción-ángulo, utilizando la completa
degeneración entre las frecuencias en r, θ y φ. Dicha degeneración nos permite utilizar los resultados de la
sección 9.12.1, en la cual obtenemos la transformación canónica

(wθ , wφ , wr , Jθ , Jφ , Jr ) → w1′ , w2′ , w3′ , J1′ , J2′ , J3′

la cual es independiente de la forma explı́cita de las variables acción-ángulo originales. La completa degeneración
de las frecuencias de r, θ, φ implica que el Hamiltoniano es función de un solo Ji′ como se vé en las Ecs. (9.181,
9.182), aquı́ omitiremos la notación primada de estas ecuaciones. La dependencia de H con este J único se
puede obtener de (10.125). Para verlo, aplicamos el teorema del virial al problema de Kepler Ec. (10.45)

V = −2T (10.128)

de modo que el Hamiltoniano se escribe como

H = E = T + V = −T (10.129)

integrando la Ec. (10.125) en el tiempo sobre un periodo (degenerado y denotado por τ3 ) se tiene que
Z I I I
τ3 τ3
2 T dt = pr ṙ dt + pθ θ̇ dt + pφ φ̇ dt
τ3 0
I I I
2τ3 T = pr dr + pθ dθ + pφ dφ

utilizando la definición de Ji y la Ec. (9.181), obtenemos

2T
= Jr + Jθ + Jφ = J3 (10.130)
v3
25
Nótese que en tanto el movimiento esté confinado a un plano y el origen pase por dicho plano, la coordenada r de distancia al
origen es igual en coordenadas esféricas, que en las coordenadas polares asociadas a dicho plano.
26
Recordemos que αθ y αφ surgen como constantes de integración (ver Sec. 9.6.2, Pág. 185).
10.16. PROBLEMA DE KEPLER EN VARIABLES ACCIÓN-ÁNGULO REVISADO (OPCIONAL) 255

donde v3 es la frecuencia degenerada del movimiento. Combinando las Ecs. (10.129, 10.130) y teniendo en
cuenta (9.128) resulta
dH 2 1 dH
−2H = J3 v3 = J3 ⇒ − =
dJ3 J3 H dJ3
esta ecuación diferencial tiene solución inmediata
D
H= (10.131)
J32

donde D es una constante que no puede contener ningún J y por tanto solo depende de m y k. Podemos
calcular D usando una trayectoria circular de radio r0 para la cual Jr = 0 (ya que pr = mṙ = 0), y por tanto

J3 = Jr + Jθ + Jφ = Jθ + Jφ = 2π (l − αφ ) + 2παφ
J3 = 2πl (10.132)

el teorema del virial Ec. (10.128) nos dice que

V V
H =T +V =− +V =
2 2
y dado que en el movimiento circular el potencial es constante, tenemos

k
H=E=− (10.133)
2r0

Para potenciales keplerianos la condición de circularidad descrita por la Ec. (10.55) se puede escribir en la
forma
k l2 J32
= = (10.134)
r02 mr03 4π 2 mr03
donde hemos tenido en cuenta la Ec. (10.132). Despejando r0 en esta ecuación tenemos

J32
r0 = (10.135)
4π 2 mk
sustituyendo (10.135) en (10.133) obtenemos H en función de J3
 
k k 4π 2 mk
H = − =−
2r0 2 J32
2π 2 mk2
H = E=− (10.136)
J32

aunque esta relación la hemos encontrado para órbitas circulares, la Ec. (10.131) nos dice que también debe
ser válida para cualquier órbita cerrada kepleriana, ya que el Hamiltoniano es una cantidad dinámica (no
cinemática), y por tanto es independiente de las condiciones iniciales. Esta relación coincide además con (9.182).
Vemos que hemos evaluado H (J) sin calcular las integrales circuitales, usando la degeneración completa de las
frecuencias de movimiento. Esto significa una simplificación importante, ya que la realización de las integrales
circuitales es considerablemente extensa como vimos en la sección 9.12.

10.16.2. Relación entre variables acción-ángulo y variables orbitales


El tratamiento del problema de Kepler en variables acción-ángulo para degeneración completa, nos permi-
tirá escribir las cinco constantes que determinan la órbita en una parametrización diferente a la establecida
en la sección 10.15, Ec. (10.124). Para nuestro caso, tres constantes están asociadas a las variables de acción
256 CAPÍTULO 10. FUERZAS CENTRALES

J1 , J2 , J3 , en tanto que las otras dos constantes estarán asociadas a w1 y w2 ya que sus frecuencias correspon-
dientes son nulas27 . En consecuencia, debe ser posible relacionar las cinco primeras constantes en (10.124) con
las cinco constantes J1 , J2 , J3 , w1 , w2 generadas por las variables acción-ángulo (la variable temporal se deja
intacta). Combinando las Ecs. (9.181, 10.126, 10.127) se observa que28

J2 = Jθ + Jφ = 2π (αθ − αφ ) + 2παφ
J2 = 2παθ ≡ 2πl (10.137)

y usando la Ec. (9.161) se tiene que


αφ 2παφ Jφ
cos θi = = =
αθ 2παθ J2
J1
cos θi = (10.138)
J2
donde hemos tenido en cuenta las Ecs. (9.181, 10.137). Ahora bien, puesto que el semieje mayor a solo es
función de la energı́a según (10.94), la Ec. (10.136) nos indica que a solo es función de J3

k J2
a=− = 23 (10.139)
2E 4π mk
la ecuación (10.95) para la excentricidad se puede escribir en función de J2 y J3 usando (10.137) y (10.139)
r r s  2 
l2 J22 J22 4π mk
ε = 1− = 1− 2 = 1− 2
mka 4π mka 4π mk J32
s  2
J2
ε = 1− (10.140)
J3

Las Ecs. (10.138, 10.139, 10.140) conectan las variables orbitales (θi , a, ε) con las variables de acción
(J1 , J2 , J3 ).
Falta la identificación de w1 y w2 con los elementos clásicos de órbita (10.124). Es claro que w1 y w2 deben
contener a Ω y ω las cuales no están contenidas en los J ′ s. Veremos que para una elección adecuada de las
constantes de integración aditivas w1 y w2 serán proporcionales a Ω y ω.
Veamos el caso de w1 , la ecuación (9.154) define a w1 en términos de la función generatriz W
∂W
w1 = (10.141)
∂J1
podemos utilizar la Ec. (9.16) para escribir
Z Z Z
W = pφ dφ + pθ dθ + pr dr (10.142)

debemos recordar que en (9.16) las integrales eran indefinidas. Para poder usar (10.141), debemos escribir W
en términos de (J1 , J2 , J3 ). De acuerdo con (10.142), esto equivale a encontrar pφ , pθ , pr en términos de los Ji .
La Ec. (9.168), Pág. 210 nos da una expresión para pr
s
∂W 2mk (Jθ + Jφ )2
pr = = 2mE + − (10.143)
∂r r 4π 2 r 2
27
Esto se puede ver derivando temporalmente las ecuaciones (9.180), y teniendo en cuenta la degeneración en las frecuencias de
r, θ, φ.
28
Debe tenerse en cuenta que la relación (10.132) solo es válida para movimiento circular en tanto que la relación (10.137) es
válida para todas las trayectorias elı́pticas (en particular las circulares). En general, J2 y J3 son momentos canónicos independientes.
Alternativamente, se puede ver que para el movimiento circular Jr = 0, con lo cual J2 = Jθ + Jφ = Jθ + Jφ + Jr = J3 .
10.16. PROBLEMA DE KEPLER EN VARIABLES ACCIÓN-ÁNGULO REVISADO (OPCIONAL) 257

podemos obtener pr en función de los Ji , sustituyendo (10.136, 9.181) en (10.143)


s
4π 2 m2 k2 2mk J22
pr (J1 , J2 , J3 ) = − + − (10.144)
J32 r 4π 2 r 2

por tanto pr es independiente de J1 de manera que


Z Z
∂W ∂ ∂
w1 = = pφ dφ + pθ dθ (10.145)
∂J1 ∂J1 ∂J1
Usando (10.127) y (9.181) se tiene
J1
pφ = αφ = (10.146)

finalmente, el momento pθ se puede obtener de la Ec. (9.71) Pág. 185
 
∂Wθ 2 α2φ 2 2 2
α2φ
+ = α θ ⇒ p θ = αθ − (10.147)
∂θ sin2 θ sin2 θ
para obtener pθ en términos de los Ji , sustituı́mos las Ecs. (10.137, 10.146) en (10.147)
s s   2
α2φ J2 2 1 J1
pθ = ± αθ − 2 =± −
2 2π 2
sin θ sin θ 2π
q
1
pθ = ± J22 − J12 csc2 θ (10.148)

para relacionar w1 con el nodo ascendente debe tomarse el signo negativo de la raı́z cuadrada, ya que cuando
la partı́cula pasa por el nodo ascendente, la variable θ está disminuyendo como se aprecia en la Fig. 10.10.
En consecuencia, θ̇ < 0 al pasar por el nodo ascendente y por tanto pθ = mr 2 θ̇ < 0. Obsérvese que cuando
calculamos Jθ no tuvimos que preocuparnos por la elección del signo, ya que al efectuar un ciclo completo los
dos signos aparecen cada uno en un semiciclo. La variable angular w1 está dada por la Ec. (10.145)
Z Z Z   Z  q 
∂pφ ∂pθ ∂ J1 ∂ 1 2 2 2
w1 = dφ + dθ = dφ − J2 − J1 csc θ dθ
∂J1 ∂J1 ∂J1 2π ∂J1 2π
donde hemos usado las Ecs. (10.146, 10.148). Recordando de nuevo que estas integrales son indefinidas, se
obtiene
Z Z
φ J1 dθ φ 1 J1 dθ
w1 = + 2
p = + r  2
2π 2π 2 2 2
sin θ J2 − J1 csc θ 2π 2π J2
sin2 θ 1 − JJ12 csc2 θ
Z
φ cos θi dθ
w1 = + 2

2π 2π sin θ 1 − cos2 θi csc2 θ
donde hemos usado (10.138), tenemos entonces
Z Z
dθ cos θi dθ
2πw1 = φ + cos θi √ =φ+ √
sin2 θ 1 − cos2 θi csc2 θ sin θi sin2 θ
sin θi 1 − cos2 θi csc2 θ
Z
csc2 θ dθ
= φ + cot θi q 2 2θ
1
sin2 θ
− cossinθi2csc
θ
i i

desarrollando el radical tenemos


1 cos2 θi csc2 θ 1 − cos2 θi csc2 θ sin2 θi + cos2 θi − cos2 θi csc2 θ
2 − = =
sin θi sin2 θi sin2 θi sin2 θi

cos2 θi 1 − csc2 θ
= 1+ = 1 − cot2 θi cot2 θ
sin2 θi
258 CAPÍTULO 10. FUERZAS CENTRALES

con lo cual resulta Z


cot θi csc2 θ dθ
2πw1 = φ + p
1 − cot2 θi cot2 θ
realizamos el cambio de variable
sin u = cot θi cot θ ; cos u du = − cot θi csc2 θ dθ (10.149)
con lo cual obtenemos Z Z
cos u du
2πw1 = φ − p =φ− du
1 − sin2 u
resultando finalmente
2πw1 = φ − u (10.150)
La ecuación (10.149), nos da la relación entre u y el ángulo θ. Es posible encontrar la interpretación de

Figura 10.11: Variables angulares para el posicionamiento de la órbita que aparecen en el problema de Kepler,
cuando se usa el formalismo de variables acción ángulo.

u aplicando trigonometrı́a esférica al triángulo esférico definido por la lı́nea de nodos, el radio vector y la
proyección del radio vector sobre el plano xy. Resulta más simple sin embargo, realizar algunas manipulaciones
con la trigonometrı́a plana. En la Fig. 10.11 la recta que contiene al segmento OA es la misma recta que contiene
al segmento ON de la Fig. 10.10, y por tanto define la lı́nea de nodos, OR es colineal con el radio vector de
posición en un instante dado y OP es paralelo a la proyección del radio vector sobre el plano xy. Definiremos a
φ como el ángulo azimutal i.e. entre el eje x y la proyección OP . Vamos a demostrar que u es el ángulo entre
la proyección del radio vector y la lı́nea de nodos i.e. entre OP y OA. Para ello imaginemos un plano normal
al plano xy y a la lı́nea de nodos y que corte al radio vector a una distancia del origen O igual a la unidad.
Este plano corta a las rectas OA, OR y OP en los puntos A, B y C respectivamente. Los puntos A, B y C
junto con el origen O, definen cuatro triángulos rectángulos OAC, OCB, OAB y ACB donde el vértice en
ángulo recto está definido por la letra de la mitad29 . De los triángulos OCB y ACB vemos que
BC AC
cos θ = = BC ; cot θi = ⇒
OB BC
AC = cos θ cot θi (10.151)
29
Aunque los segmentos ON y OA de las figuras 10.10, 10.11 son paralelos, vale decir que el punto N (definido por el nodo
ascendente), es en general diferente al punto A (definido por la intersección de una recta con un plano), de modo que la longitud
de estos segmentos es en general distinta.
10.17. EJERCICIOS 259

donde hemos tenido en cuenta que OB tiene longitud unidad por construcción. Por otro lado, los triángulos
OCB y OAC nos dicen que

OC AC AC
sin θ = = OC ; sin u = = ⇒
OB OC sin θ
AC = sin θ sin u (10.152)

igualando la ecuaciones (10.151, 10.152), se obtiene

sin u = cot θi cot θ

que coincide con la Ec. (10.149) con lo cual vemos que u en dicha ecuación es el ángulo indicado en la Fig.
10.11. Es claro también de dicha figura y de la definición de Ω en la Fig. 10.10, que φ − u = Ω de lo cual se
obtiene
2πw1 = Ω (10.153)
un procedimiento similar se puede realizar para encontrar la interpretación fı́sica de w2 . De las integrales que
aparecen en (10.142), las correspondientes a θ y r contienen a J2 y por tanto intervienen en el cálculo de
w2 . A partir de w2 = ∂W/∂J2 se puede calcular la integral asociada a θ con una sustitución trigonométrica
similar a la utilizada para calcular w1 . La integral asociada a r se puede calcular de varias formas, la más
directa es usando la ecuación de la órbita que da r en términos del ángulo polar en el plano orbital. Eligiendo
adecuadamente el lı́mite inferior de integración que es arbitrario se puede encontrar que 2πw2 está dado por la
diferencia entre dos ángulos que están en el plano de la órbita, uno de ellos es el ángulo entre el radio vector y
la lı́nea de nodos y el otro es el ángulo entre el radio vector y la lı́nea del periápside (ver Figs. 10.10 y 10.11),
con lo cual se obtiene
2πw2 = ω (10.154)
donde ω es el argumento del perihelio como se aprecia en la Fig. 10.10.
Si bien el método de las variables acción-ángulo no es el más ventajoso para trabajar el problema de Kepler,
veremos que las variables acción-ángulo constituyen una parametrización muy adecuada para el tratamiento
de la teorı́a canónica de perturbaciones en el problema de Kepler. En el lenguaje de la mecánica celeste, a
la variables acción-ángulo en el problema de Kepler se les conoce como variables de Delauney, si bien en
algunas convenciones las variables de Delauney difieren de las acción-ángulo por constantes multiplicativas.

10.17. Ejercicios
1. A partir de la expresión (10.41) para el teorema del virial obtenga la expresión (10.42), teniendo en
cuenta la ley de acción y reacción y el hecho de que la fuerza resultante sobre la i−ésima partı́cula se
escribe como X
(e)
Fi = Fi + Fij
j6=i

(e)
siendo Fi la fuerza externa neta y siendo Fij la fuerza interna que la partı́cula j hace sobre la partı́cula
i del sistema de partı́culas.

2. Sea una fuerza atractiva central de la forma

f (r) = −ke−ar ; k > 0

encuentre los valores de r para los cuales es posible una órbita circular estable. Repita el ejercicio para
2
f (r) = −kr 3 e−ar .

3. Escriba la frecuencia de pequeñas oscilaciones radiales (10.76) en términos de las condiciones iniciales, y
compruebe que coincide con la obtenida en las Ecs. (10.68). Sugerencia: Utilice la Ec. (10.72).
260 CAPÍTULO 10. FUERZAS CENTRALES

4. Con base en la Ec. (10.114), evalúe el valor de la constante de proporcionalidad que relaciona el cuadrado
del periodo con el cubo del semi-eje mayor, para cada planeta del sistema solar. Evalúe la desviación
porcentual máxima que se presenta entre estas constantes.

5. Un cometa se aproxima a la tierra y en un instante dado, se mide su posición y su velocidad inicial


tomando a la tierra como origen de coordenadas. Asuma que la masa de la tierra es mucho mayor a
la del cometa, y que el sistema de referencia fijo a la tierra es inercial. Prescindiendo del tamaño de
ambos astros, describa bajo que condiciones el cometa retornará en una órbita cerrada, no retornará o
colisionará con la tierra. ¿Como cambia esta descripción al introducir el tamaño de estos astros?. En
ambos casos, desprecie la interacción del cometa con la atmósfera de la tierra.

6. Obtenga la relación entre w2 y las variables orbitales descrita por la ecuación (10.154), con un procedi-
miento similar al realizado para obtener la Ec. (10.153).
Capı́tulo 11

Colisiones y dispersión

Vamos a analizar el problema de dos partı́culas que interactúan de alguna manera, pero que están aisla-
das del resto del universo. En algunos casos es suficiente asumir que las dos partı́culas “chocan” o entran en
“contacto directo” entre sı́, lo cual implı́citamente significa que las dos partı́culas se pueden aproximar indefi-
nidamente una a la otra. En este caso hablamos de una colisión entre las dos partı́culas. Cuando estudiamos
el comportamiento de partı́culas macroscópicas, ésta constituye una buena aproximación y será el primer caso
que trataremos.
Sin embargo, debe tenerse en cuenta que las interacciones son funciones de la distancia, y la fuerza usual-
mente adquiere un valor singular para distancia cero. Este hecho resulta de particular importancia en la Fı́sica
atómica y subatómica dado que en estos escenarios la distancia mı́nima de aproximación entre dos partı́culas
es de un orden de magnitud similar al tamaño mismo de las partı́culas. Cuando tenemos en cuenta que existe
una fuerza a distancia entre las partı́culas (por ejemplo una interacción eléctrica) entonces el proceso no se
interpreta como un contacto directo entre tales partı́culas sino como la interacción de estas últimas a una dis-
tancia muy corta. En este caso hablamos de una dispersión (también suele usarse el anglicismo scattering).
Usualmente, el experimento se prepara de manera que inicialmente las dos partı́culas estén muy alejadas entre
sı́ de manera que se puede despreciar la interacción entre ellas en el instante inicial (y por tanto, la energı́a
potencial). Se “lanzan” entonces las dos partı́culas de masas m1 y m2 con velocidades v1 y v2 respectivamente.
Las dos partı́culas se acercan entonces e interactúan entre sı́ para luego dispersarse de modo que el producto
saliente son dos partı́culas de masas m′1 y m′2 con velocidades v1′ y v2′ respectivamente. Obsérvese que hemos
supuesto que en los productos finales tanto las velocidades como las masas pueden haber cambiado, incluso
el número de partı́culas salientes podrı́a ser diferente del número de partı́culas entrantes. Por ejemplo, vere-
mos más adelante que en las reacciones de captura entran dos partı́culas y sale sólo una, la explosión de una
granada se puede ver como un fenómeno de colisión ya que sólo intervienen fuerzas internas; en este caso el
estado inicial es de una partı́cula y el estado final podrı́a ser de muchas. Generalmente, en el experimento
se miden los estados finales cuando las partı́culas han vuelto a alejarse lo suficiente como para despreciar de
nuevo la interacción entre ellas. Estos estados final e inicial en que las partı́culas están muy alejadas entre sı́,
se conocen como estados asintóticos inicial y final respectivamente, son entonces estos valores asintóticos los
que usualmente interesan en un experimento de dispersión.
Es de anotar sin embargo, que los términos colisión y dispersión suelen usarse indistintamente. Es ası́ como
es común utilizar el término colisiones atómicas en lugar de dispersiones atómicas.

11.1. Colisiones y dispersiones generales


Cuando dos partı́culas se aproximan y llegan a su región de colisión o dispersión, se apartan de nuevo
y lo que analizamos usualmente es su cambio de momento lineal y de energı́a, independientemente de si
consideramos una interacción a distancia o no. Como primera consideración, es obvio que el momento lineal
se debe conservar ya que el sistema es aislado, si asumimos que el número de partı́culas se conserva tendremos
entonces:

261
262 CAPÍTULO 11. COLISIONES Y DISPERSIÓN

p1 + p2 = p′1 + p′2 ⇒
m1 v1 + m2 v2 = m′1 v1′ + m′2 v2′ (11.1)

y si suponemos que la interacción entre las dos partı́culas es conservativa, se tiene que el principio de conser-
vación de la energı́a se puede escribir como:

T + V (r) = T ′ + V ′ (r) (11.2)


siendo r ≡ kr2 − r1 k la distancia entre las partı́culas. En esta sección utilizaremos la notación primada para
estados finales, y la no primada para estados iniciales. Como lo que se puede medir con mayor facilidad en
un experimento es la energı́a cinética de los estados iniciales y finales, definiremos el factor Q de una colisión
como:

Q ≡ T ′ − T = V (r) − V ′ (r) (11.3)


en una colisión general las dos partı́culas intercambian momento lineal y energı́a pero de tal manera que la
suma total de estas dos cantidades no se modifique. Si las energı́as cinéticas final e inicial no son las mismas,
significa que hubo un cambio de signo contrario en la energı́a potencial de modo que se conserve la energı́a
mecánica dada por (11.2).
Ya hemos mencionado que en el caso macroscópico por lo general consideramos la colisión como un contacto
directo entre las partı́culas como sucede con las bolas de billar. Dado que en tal caso no se considera una
interacción a distancia, no necesitamos que en los estados inicial y final las partı́culas estén muy alejadas la
una de la otra para efectuar nuestras mediciones, en este caso el cambio en la energı́a cinética es debido a la
deformación que los cuerpos puedan sufrir en virtud de sus propiedades plásticas o elásticas.
A partir de la definición de momento lineal, la energı́a cinética se puede escribir como:

1 1 (m1 v1 )2 (m2 v2 )2
T = m1 v12 + m2 v22 = + ⇒
2 2 2m1 2m2
p21 p2
T = + 2 (11.4)
2m1 2m2
ahora bien, las colisiones se pueden clasificar de acuerdo al valor del factor Q. Si Q = 0 se dice que la colisión
es elástica ya que se conserva la energı́a cinética en el proceso. Si Q < 0 se dice que la colisión es inelástica de
primera clase o endoérgica, este último nombre se debe al hecho de que Q < 0 indica que la energı́a cinética
ha disminuı́do en el proceso, de manera que la energı́a potencial aumenta (y por tanto la energı́a interna).
Finalmente, si Q > 0 tenemos una colisión inelástica de segunda clase o exoérgica.
De lo anterior se concluye que el factor Q nos da información acerca de la naturaleza de las interacciones
internas entre las partı́culas. Teniendo en cuenta (11.3) y (11.4) podemos escribir:

p′2
1 p′2
2 p21 p22
+ − − =Q (11.5)
2m′1 2m′2 2m1 2m2
si el factor Q es conocido, la Ec. (11.5) junto con el principio de conservación del momento lineal, resuelven
completamente el problema de la colisión entre dos partı́culas, siempre y cuando sus estados finales no sean
de más de dos partı́culas. Es decir, dados los momentos iniciales podemos predecir el valor de los momentos
finales. Sin embargo, el factor Q no puede obtenerse de primeros principios, ya que depende en general de las
intrincadas interacciones microscópicas que suceden durante la colisión. Por tanto, es usual determinar Q en
forma experimental.
Un hecho importante es que el factor Q ası́ definido es independiente del observador. Para el caso de
partı́culas con interacción central a distancia, esto es inmediato si tomamos en cuenta que la energı́a potencial
para una fuerza central es independiente del observador, ya que sólo depende de la magnitud de la coordenada
11.1. COLISIONES Y DISPERSIONES GENERALES 263

relativa entre las partı́culas, y como Q = V (r) − V ′ (r) se concluye que Q es independiente del observador.
Para interacciones de contacto es necesario probar que la diferencia de energı́a cinética final e inicial es la
misma para cualquier observador. El factor Q viene dado por:
1 1 1 1
Q = T ′ − T = m′1 v1′2 + m′2 v2′2 − m1 v12 − m2 v22
2 2 2 2
ahora bien, el factor Q medido por el centro de masa se obtiene teniendo en cuenta que la energı́a cinética
en el laboratorio y en el centro de masa se relacionan como en la Ec. (1.32), Pág. 131 . Con lo cual se puede
escribir:

   
′ 1 ′
′ ′
 2 1 2
QCM = TCM − TCM = T − m1 + m2 vCM − T − (m1 + m2 ) vCM
2 2
1 ′ ′2 1 ′ ′2 1  2 1 1 1
= m1 v1 + m2 v2 − m′1 + m′2 vCM − m1 v12 − m2 v22 + (m1 + m2 ) vCM
2
2 2 2 2 2 2
donde hemos tenido en cuenta que la velocidad del centro de masa es la misma antes y después de la colisión,
ya que el sistema es aislado. Adicionalmente, puesto que m′1 + m′2 = m1 + m2 = M se concluye que:

1 ′ ′2 1 ′ ′2 1 1

TCM − TCM = m v + m2 v2 − m1 v12 − m2 v22 = T ′ − T
2 1 1 2 2 2
⇒ Q = QCM

de modo que Q es el mismo en el sistema de referencia laboratorio y en el del centro de masa

Q = T ′ − T = TCM

− TCM
y dado que el laboratorio es cualquier sistema inercial, esto prueba la invariancia de Q con respecto al sistema
de referencia inercial que lo mide. Veremos a continuación, que la descripción de la colisión vista por el centro
de masa es mucho más sencilla que vista desde el laboratorio. Con respecto al centro de masa, el momento
lineal total del sistema es cero de modo que:

p1,CM = −p2,CM ⇒ p21,CM = p22,CM ; p′1,CM = −p′2,CM ⇒ p′2 ′2


1,CM = p2,CM
 
p21,CM p22,CM 1 1 1 p21,CM
TCM = + = + p21,CM =
2m1 2m2 2 m1 m2 2µ
  ′2
′ 1 1 1 p1,CM
TCM = ′ + ′ p′2 1,CM =
2 m1 m2 2µ′

siendo µ y µ′ las masas reducidas antes y después de la colisión. Podemos escribir en sı́ntesis las siguientes
relaciones válidas en el sistema de referencia centro de masa

p1,CM = −p2,CM , p21,CM = p22,CM ; p′1,CM = −p′2,CM , p′2 ′2


1,CM = p2,CM
p21,CM p22,CM ′
p′2
1,CM p′2
2,CM
TCM = = ; TCM = = (11.6)
2µ 2µ 2µ′ 2µ′
Nótese que aunque la masa total sea la misma antes y después de la colisión, la masa reducida sı́ puede cambiar
cuando las masas individuales cambian su valor. Empleando la definición de Q en el centro de masa resulta:

p′2
1,CM p21,CM
− =Q (11.7)
2µ′ 2µ
1
La notación primada en la Ec. (1.32), significa “visto por el centro de masa”, en nuestra sección la notación primada significa
“depués de la colisión”.
264 CAPÍTULO 11. COLISIONES Y DISPERSIÓN

si suponemos que la colisión es elástica y que además la masa reducida no cambia en el proceso, se tiene que
Q = 0, µ′ = µ de modo que

p′2
1,CM p21,CM 2
= y p′2
1,CM = p1,CM (colisión elástica con µ = µ′ ) (11.8)
2µ 2µ

es decir no hay intercambio de energı́a cinética entre las partı́culas2 , y los momentos no cambian de magnitud.
No obstante, sı́ hay intercambio de momento ya que aunque no varı́a la magnitud de los momentos, su dirección
puede variar en el proceso.

11.1.1. Caso especial 1: reacción de captura


La reacción de captura es un choque inelástico en el cual, las dos partı́culas incidentes chocan y salen
unidas como una sola partı́cula (también se conoce como colisión plástica). En tal caso, el estado final es una
partı́cula de masa M = m1 + m2 . Como el sistema es aislado, la velocidad del centro de masa es la misma
antes y después de la colisión. En consecuencia, la partı́cula saliente viajará con la velocidad del centro de
masa. Por tanto, la energı́a cinética de la partı́cula saliente es:

 2  2
′ 1 2 1 m1 v1 + m2 v2 1 m1 v1 + m2 v2
T = M vCM = M = (m1 + m2 )
2 2 m1 + m2 2 m1 + m2
1 (m1 v1 + m2 v2 )2
T′ =
2 m1 + m2
y el factor Q es entonces:

1 (m1 v1 + m2 v2 )2 1 1
Q = T′ − T = − m1 v12 − m2 v22
2 m1 + m2 2 2
"  #
1 m1 v1 + m2 v2 + 2m1 m2 v1 · v2 − m1 (m1 + m2 ) v12 − m2 (m1 + m2 ) v22
2 2 2 2
=
2 m1 + m2
 
1 2m1 m2 v1 · v2 − m1 m2 v12 − m1 m2 v22 1 m1 m2
= =− (v2 − v1 )2
2 m1 + m2 2 (m1 + m2 )
1
Q = − µv2 ; v ≡ v2 − v1
2

es más inmediato el cálculo desde el centro de masa ya que en tal caso TCM = 0 puesto que la partı́cula final
sale con la velocidad del centro de masa y estarı́a en reposo respecto a este último. Luego Q queda:


Q = TCM − TCM
1
Q = −TCM = − µv2 (11.9)
2
donde hemos usado la Ec. (10.6), Pág. 216 vista desde el centro de masa. Es decir, en el caso de una reacción
de captura, el factor Q es igual a menos la energı́a cinética del sistema inicial vista por el centro de masa.

11.1.2. Caso especial 2, blanco en reposo


Vamos a suponer ahora que la partı́cula 1 tiene masa m1 y momento lineal p1 y que la partı́cula dos
tiene masa m2 y está en reposo respecto al laboratorio, es decir p2 = 0. En este caso la partı́cula 1 puede
2
Aquı́ se ha probado que no hay intercambio de energı́a cinética visto por el centro de masa, pero el lector puede verificar
fácilmente que tampoco hay intercambio de energı́a cinética en el laboratorio.
11.1. COLISIONES Y DISPERSIONES GENERALES 265

considerarse como el proyectil, y la partı́cula 2 como el blanco, el principio de conservación de la energı́a nos
dice que:

p′1 + p′2 = p1 ⇒ p′2 = p1 − p′1

elevando esta ecuación al cuadrado obtenemos:

2 ′
p′2 = p1 − p′1 = p21 + p′2 ′ 2 ′2
2 1 − 2p1 · p1 = p1 + p1 − 2 kp1 k p1 cos θ
p′2
2 = p21 + p′2 ′
1 − 2p1 p1 cos θ (11.10)

donde θ es el ángulo entre los vectores p1 y p′1 , es decir el ángulo con que se dispersa la partı́cula 1. El factor
Q viene dado por:
p′2
1 p′2 p2
Q= ′ + 2′ − 1 (11.11)
2m1 2m2 2m1

y reemplazando (11.10) en (11.11), se obtiene:

p′2
1 p21 + p′2 ′
1 − 2p1 p1 cos θ p21
Q = + −
2m′1 2m′2 2m1
′2
  2
 
p1 1 1 p1 1 1 p1 p′1
Q = + + − − cos θ
2 m′1 m′2 2 m′2 m1 m′2
r
p2 p′2
  2
  4m1 m′1 2m11 2m1 ′
p′2
1 m ′ p m 1 1
Q = ′ 1 + 1′ + 1 ′ −1 − ′ cos θ
2m1 m2 2m1 m2 m2

y recordando que Ti = p2i / (2mi ), el factor Q viene dado por:

    p
m′ m1 2 m1 m′1 T1 T1′
Q= T1′ 1 + 1′ − T1 1− ′ − cos θ (11.12)
m2 m2 m′2

la cual se conoce como ecuación Q y expresa dicho factor para el caso de un blanco inicialmente en reposo.

Example 7 Una granada inicialmente en reposo explota en dos fragmentos m′1 y m′2 , hallar la energı́a cinética
final en términos de Q.

Como la granada está inicialmente en reposo, entonces p1 = 0 y por conservación del momentum p′1 + p′2 =
0, con lo cual p′2 ′2
1 = p2 por tanto la energı́a cinética final es:

 
′ p′2
1 1 1 p′2
1
T = ′ + ′ =
2 m1 m2 2µ′
p′2
Q = T ′ − T = T ′ = 1′ ⇒

′ p
p1 = p′2 = 2µ′ Q
266 CAPÍTULO 11. COLISIONES Y DISPERSIÓN

de lo cual queda:

p21 2µ′ Q m′1 m′2 Q


T1′ = = =
2m′1 2m′1 m′1 (m′1 + m′2 )
m′2 Q
T1′ =
(m′1 + m′2 )
p22 p2 2µ′ Q
T2′ = ′ = 1′ =
2m2 2m2 2m′2
m′1 Q
T2′ =
(m′1 + m′2 )
T′ = T1′ + T2′ = Q

11.2. Dispersión en un campo de fuerzas centrales


Históricamente las fuerzas centrales surgen para estudiar el movimiento planetario, no obstante hay muchos
escenarios en donde dichas fuerzas son importantes, un ejemplo notable lo constituye el átomo de Bohr. No
obstante, si pretendemos trabajar fı́sica microscópica las correcciones cuánticas pueden ser importantes. Sin
embargo, el lenguaje ası́ como muchos aspectos fenomenológicos suelen ser similares en mecánica clásica y en
mecánica cuántica.
En general, si conocemos la forma de la interacción es posible predecir la forma de la órbita y su dependencia
con el parámetro tiempo. Sin embargo, es usual en la búsqueda de nueva fı́sica realizar experimentos de
dispersión (o scattering) que consisten en enviar proyectiles a un blanco que interactúa con éstos y observar la
deflexión en la trayectoria de los proyectiles, en este caso lo que se pretende es determinar experimentalmente
la forma de la órbita para deducir la forma (desconocida) de la interacción.
Motivados por la anterior discusión, en esta sección trabajaremos la desviación de un haz de partı́culas
por un centro de fuerzas en la formulación de un cuerpo, lo cual significa las siguientes simplificaciones: (a) el
centro dispersor es fijo en el espacio de modo que no hace parte de la dinámica del sistema, equivalente a que
su masa sea infinita, y (b) se desprecia la interacción entre las partı́culas del haz, de modo que cada partı́cula
incidente solo interactúa con el centro dispersor. Consideremos por simplicidad que todas las partı́culas del haz
poseen las misma masa y energı́a, estos proyectiles pueden ser electrones, núcleos, planetas, etc. En general,
consideraremos que este haz uniforme es tal que las partı́culas vienen de regiones muy lejanas al centro de
fuerzas de modo que su interacción con el centro de fuerzas se considera despreciable en el tiempo inicial (que
se suele tomar como t → −∞). En consecuencia, las trayectorias incidentes son lı́neas rectas. Una vez que las
partı́culas pasan por las vecindades del centro de fuerza (denominada región de dispersión o de colisión), se
alejan de dicho centro y sus trayectorias vuelven a ser lı́neas rectas cuando las partı́culas están suficientemente
lejos del centro dispersor (usualmente decimos que esto ocurre en t → ∞), pero la dirección de las partı́culas
salientes no coincide con la dirección de las partı́culas incidentes. La desviación de las partı́culas contiene
información valiosa sobre la naturaleza de la interacción.
El haz incidente se caracteriza a través de su intensidad, es decir, número de partı́culas por unidad de
área por unidad de tiempo que atraviesan una superficie normal a la dirección de propagación del haz (a esta
cantidad también se le conoce con el nombre de densidad de flujo). Debido al cambio de dirección del haz
cuando ha pasado por el centro de fuerzas, diremos que el haz se ha dispersado o desviado como se puede ver
en la Fig. 11.1. Una cantidad fı́sicamente útil para estudiar el fenómeno de la dispersión es la sección eficaz de
dispersión en un dirección dada (denotada por σ (Ω) dΩ)

número de partı́culas dispersadas por unidad de


tiempo en un ángulo sólido dΩ
σ (Ω) dΩ = (11.13)
intensidad incidente
donde dΩ es un elemento diferencial de ángulo sólido en la dirección Ω. La cantidad σ (Ω) suele también
11.2. DISPERSIÓN EN UN CAMPO DE FUERZAS CENTRALES 267

Figura 11.1: Dispersión de un haz de partı́culas por un centro de fuerzas repulsivo.

denominarse sección eficaz diferencial de dispersión. Escribiendo el ángulo sólido explı́citamente resulta
σ (Ω) dΩ = σ (Ω) sin Θ dΘ dΦ (11.14)
Si la fuerza es central debe haber una simetrı́a total con respecto al eje del haz incidente, lo cual nos conduce
a que la sección eficaz diferencial debe ser independiente del ángulo azimutal Φ (i.e. el ángulo de rotación
alrededor del eje de simetrı́a). Por esta razón se puede hacer una integración parcial del ángulo sólido. Como
σ no depende de Φ es decir posee simetrı́a azimuthal, tenemos que la integración en Φ se puede realizar para
obtener
Z 2π
σ (Ω) dΩ = σ (Θ) sin Θ dΘ dΦ ⇒ σ (Ω) dΩ̄ = σ (Θ) sin Θ dΘ dΦ
0
σ (Ω) dΩ̄ = 2πσ (Θ) sin Θ dΘ (11.15)
de modo que podemos definir el diferencial de ángulo sólido en la forma
dΩ̄ = 2π sin Θ dΘ (11.16)
Θ es el ángulo que hacen la dirección desviada e incidente y se denomina ángulo de dispersión. El término
sección eficaz se debe a que σ (Ω) tiene dimensiones de área. Cuando tenemos una fuerza central y por tanto
simetrı́a azimutal, podemos trabajar con el ángulo sólido dΩ̄ dado por (11.16) que corresponde al anillo
sombreado sobre la superficie esférica en la Fig. (11.1), en lugar del ángulo sólido dΩ = sin Θ dΘ dΦ. De
aquı́ en adelante, volveremos a la notación dΩ sobreentendiendo que nos referimos al ángulo sólido dado en
(11.16).
Es importante mencionar que lo que se puede medir experimentalmente es la integral de la Ec. (11.14) o
de la Ec. (11.15) sobre una cierta porción finita de ángulo sólido, ya que en la realidad solo podemos calcular
ángulos de dispersión y contar las partı́culas que se dispersan dentro de cierto rango finito de esos ángulos de
dispersión.
Tomaremos el origen de nuestro sistema coordenado en el centro dispersor, el eje X irá paralelo a la
velocidad del haz incidente y en el mismo sentido del haz. El ángulo θ de una determinada posición r se mide
con respecto al eje X positivo de modo que para las partı́culas incidentes (cuando t → −∞) se tiene que
r → ∞ y θ = π. Para una partı́cula dada, asumiendo que conocemos su plano de movimiento3 y teniendo
en cuenta que su posición inicial está dada por r → ∞ y θ = π, veremos que las constantes de la órbita y
por tanto la dispersión, están determinadas por la energı́a y el módulo del momento angular E y l. Conviene
expresar el momento angular en función de la energı́a y de una cantidad s denominada parámetro de impacto
que es la distancia entre las rectas paralelas a la velocidad del proyectil, que pasan por el proyectil y el centro
de fuerza respectivamente (ver Fig. 11.1). Si v0 es la rapidez incidente de la partı́cula se tiene que
s  
1 √
l = rp sin (π − α) = r sin α mv0 = mv0 s = s 2m 2
mv0 = s 2mE (11.17)
2
3
La determinación del plano de movimiento implica el conocimiento de la variable azimutal Φ.
268 CAPÍTULO 11. COLISIONES Y DISPERSIÓN

donde α es el ángulo entre el vector posición incidente y la lı́nea paralela a la dirección de incidencia que pasa
por el centro dispersor (i.e. el ángulo entre el vector posición de la partı́cula incidente y el eje X negativo)4 .
En esta expresión hemos tenido en cuenta que la partı́cula incidente está muy lejos del centro de fuerza, de
modo que su energı́a es puramente cinética. Una vez fijados E y s queda determinado unı́vocamente el ángulo
de dispersión Θ5 . Las partı́culas cuyo parámetro de impacto está entre s y s + ds deben cruzar la superficie
del anillo con radio interno s y radio externo s + ds ilustrado en la Fig. 11.1, el área de este anillo es 2πs |ds|.
Ahora bien, el número de partı́culas por unidad de tiempo que pasan por dicho anillo es igual a la intensidad
incidente I multiplicada por el área del anillo es decir

dN
= 2πIs |ds| (11.18)
dt anillo ds

por otro lado, el número de partı́culas por unidad de tiempo que se dispersan en el ángulo sólido dΩ (determi-
nado por la región sombreada sobre la superficie esférica en la Fig 11.1)6 se puede calcular teniendo en cuenta
la definición (11.13), de la cual se vé que corresponde simplemente a I σ (Ω) dΩ, teniendo en cuenta (11.15)
el número de partı́culas por unidad de tiempo que se dispersa en un ángulo sólido dΩ es

dN
= 2πσ (Θ) I sin Θ |dΘ| (11.19)
dt angulo sólido dΩ

Supondremos de momento que partı́culas con diferente parámetro de impacto no pueden llegar al mismo ángulo
de dispersión. En tal caso, el número de partı́culas dispersadas por el ángulo sólido dΩ comprendido entre Θ y
Θ + dΘ deberá ser igual al número de partı́culas incidentes con parámetro de impacto comprendido entre los
valores s y s + ds. Por tanto en este caso las cantidades definidas en (11.18, 11.19) son iguales y se obtiene

2πIs |ds| = 2πσ (Θ) I sin Θ |dΘ| (11.20)

los valores absolutos se introducen para asegurar que el número de partı́culas sea positivo, ya que a menudo s
y Θ varı́an en sentidos opuestos. Si consideramos a s como función de la energı́a y el ángulo de dispersión

s = s (Θ, E) (11.21)

y despejando σ (Θ) en (11.20), la dependencia entre la sección eficaz diferencial y Θ vendrá dada por

s ds
σ (Θ) = (11.22)
sin Θ dΘ

a partir de la ecuación de órbita general (10.51a) se puede obtener directamente una expresión formal para el
ángulo de dispersión. Consideraremos por simplicidad una fuerza totalmente repulsiva. Teniendo en cuenta que
la órbita debe ser simétrica respecto a la dirección del periápside (recordemos que la órbita es simétrica ante
reflexión con respecto a las ápsides, ver discusión de la Ec. 10.50), el ángulo Ψ del periápside con la dirección
incidente es igual al ángulo entre el periápside y la dirección de dispersión (ver Fig. 11.2). En consecuencia, el
ángulo de dispersión viene dado por
Θ = π − 2Ψ (11.23)
El ángulo Ψ se puede obtener de (10.51a) tomando el lı́mite r0 → ∞ cuando θ0 → π (dirección incidente).
4
Dado que la partı́cula incidente está muy lejos, α es muy pequeño. Sin embargo, r sin α es claramente finito e igual al parámetro
de impacto.
5
En este punto la mecánica cuántica sı́ difiere de la clásica ya que en la primera no se pueden definir trayectorias sino probabi-
lidades de desviación en distintas direcciones.
6
Es importante observar que la partı́cula no necesariamente tiene que cruzar por el anillo sombreado sobre la esfera. Lo que
define este anillo es el “espacio angular” por donde debe pasar la partı́cula. En la Fig. 11.1, la trayectoria dibujada no pasa por el
lugar geométrico en el que se dibujó el anillo, pero el ángulo Θ de deflexión de esta partı́cula está dentro del intervalo angular que
define el anillo, cuando dicho ángulo se mide desde el origen.
11.2. DISPERSIÓN EN UN CAMPO DE FUERZAS CENTRALES 269

Figura 11.2: Ilustración del ángulo Ψ entre la dirección incidente y la lı́nea del periápside para una dispersión
central repulsiva. La simetrı́a de reflexión conduce a que este ángulo coincide con el formado por la dirección
de dispersión y el periápside.

Por otro lado, es claro que θ = π − Ψ cuando r = rm distancia de mayor acercamiento7 . Integrando la órbita
(10.51a) desde la posición incidente hasta el periápside con estas consideraciones se tiene
Z rm
dr
π−Ψ= q +π
∞ r2 2mE 2mV 1
l2
− l2
− r2

quedando finalmente Z ∞
dr
Ψ= q (11.24)
2mE 2mV 1
rm r2 l2
− l2
− r2

y expresando l en función de s Ec. (11.17) queda


Z ∞ Z ∞
dr s dr
Ψ = q = r 
rm r 2 2mE 2mV s2 rm s2
2mEs2
− 2mEs 2 − s2 r 2 r2 1− V

E r2
Z ∞
s dr
Ψ = r h i (11.25)
rm V (r)
r r2 1− E − s2

de aquı́ se puede encontrar una expresión formal para calcular Θ reemplazando (11.25) en (11.23)
Z ∞
s dr
Θ (s) = π − 2 r h i (11.26)
rm
r r 2 1 − V E(r) − s2

o en términos de u ≡ 1/r con du = −dr/r 2 = −u2 dr


Z 0 Z 0
s dr s u2 dr
Θ (s) = π − 2 r nh i o =π−2 rh i
um 1 1 V (1/u) um V (1/u)
u u2
1− E − s2 u2 1− E − s2 u2
Z 
um s −u2 dr
Θ (s) = π − 2 q
0 V (1/u)
1− E − s2 u2
7
Conviene recordar que θ = θ (t) es la posición angular de la partı́cula en cualquier instante de tiempo, medida desde el eje X
positivo. En cambio Θ es el ángulo de dispersión de la partı́cula el cual es único para cada partı́cula que se dispersa.
270 CAPÍTULO 11. COLISIONES Y DISPERSIÓN

quedando finalmente Z um
s du
Θ (s) = π − 2 q (11.27)
0 V (1/u)
1− E − s2 u2
Sin embargo, cuando se dispone de una función analı́tica para la órbita, es frecuente que se pueda encontrar
a Θ en función de s por simple inspección. En consecuencia, las Ecs. (11.26, 11.27) se usan muy poco para
cálculos analı́ticos, y usualmente se emplean para el cálculo numérico del ángulo de dispersión.

11.2.1. Dispersión de Rutherford


Es de enfatizar que fué un experimento de dispersión el que condujo a Rutherford a modelar la distribución
de cargas eléctricas en los átomos. En un experimento clásico realizado por Rutherford, Geiger y Marsden en
1909, se dipersaron partı́culas alfa (núcleos de Helio) por una lámina de oro de 10−4 cm de espesor. El trata-
miento de este problema exige consideraciones estadı́sticas ya que se trata de muchos proyectiles (partı́culas
alfa) incidiendo sobre un enorme conjunto de blancos (átomos de oro) que en primera aproximación se pueden
considerar inmóviles. Aquı́ consideraremos una versión muy simplificada con un solo blanco inmóvil y un haz
bien colimado, es decir todas las partı́culas en la misma dirección. Adicionalmente, despreciamos la interacción
de las partı́culas del haz entre sı́ y de las partı́culas del haz con la nube electrónica que rodea al núcleo inmóvil.
Nuestra versión simplificada estudia entonces la repulsión causada por un centro dispersor coulombiano
(repulsión entre cargas eléctricas). El campo de fuerzas dispersor es creado por una carga fija −Ze 8 al ejercerse
sobre partı́culas incidentes de carga −Z ′ e, la fuerza viene dada por

ZZ ′ e2
f (r) = ur
r2
es decir una fuerza repulsiva de la forma k/r 2 . Los resultados obtenidos para el problema de Kepler se pueden
usar teniendo en cuenta que k = −ZZ ′ e2 en la Ec. (10.83)
Ya que la energı́a potencial es positiva, la energı́a total E también lo es, y la órbita será una hipérbola con
excentricidad dada por la Ec. (10.90)
s s  
2El2 2Es 2
ε = 1+ = 1+ >1 (11.28)
m (ZZ ′ e2 )2 ZZ ′ e2

donde hemos tenido en cuenta la Ec. (11.17). Tomemos θ ′ = π en (10.85) y escribamos la ecuación de la órbita

1 mk m −ZZ ′ e2
= 2 [1 + ε cos (θ − π)] = [1 − ε cos θ]
r l l2
y la ecuación de la órbita queda
1 mZZ ′ e2
= (ε cos θ − 1) (11.29)
r l2
vemos que al tomar θ ′ = π en (10.85), el periápside corresponderá a θ = 0. Por otro lado, la Ec. (11.29)
requiere que ε cos θ − 1 sea no negativo, el hecho de que ε > 1 garantiza que existen valores de θ para los cuales
se cumple esta condición. No obstante, tal condición excluye ciertos valores de θ. Adicionalmente, dado que
el periápside está definiendo el ángulo cero, la dirección Ψ de la ası́ntota de incidencia (o dispersión) queda
determinada por el valor de θ en el lı́mite r → ∞ en (11.29)
1
cos Ψ = (11.30)
ε
nótese que los valores permitidos de θ yacen justamente en el intervalo [−Ψ, Ψ] como se puede observar de la
Fig. 11.2 o teniendo en cuenta que si reemplazamos cos θ = cos (±Ψ) = 1/ε en (11.29) se anula el término de
8
Se define e como la carga negativa del electrón de modo que −Ze se refiere a una carga positiva. Z se refiere al número atómico.
11.2. DISPERSIÓN EN UN CAMPO DE FUERZAS CENTRALES 271

la derecha lo cual viene de la condición r → ∞. De acuerdo con la Ec. (11.23)


 
π Θ Θ 1
cos Ψ = cos − = sin = ⇒ (11.31)
2 2 2 ε
Θ Θ
ε = csc ⇒ ε2 − 1 = csc2 − 1
2 2
2 Θ 2
cot = ε −1 (11.32)
2
y usando (11.28) se obtiene r
Θ 2Es
cot2 = (11.33)
2 ZZ ′ e2
de la Ec. (11.31) y teniendo en cuenta que ε ≥ 1, se tiene que

1 Θ
0< = sin ≤ 1
ε 2
de modo que
Θ π Θ
0< ≤ ⇒ cot ≥0 (11.34)
2 2 2
con lo cual la Ec. (11.33) queda de la forma

Θ 2Es
cot = (11.35)
2 ZZ ′ e2
despejando s en esta ecuación, se obtiene la relación funcional entre el parámetro de impacto y el ángulo de
dispersión
ZZ ′ e2 Θ
s= cot (11.36)
2E 2
que es una relación de la forma (11.21) con la cual es posible calcular σ (Θ) por medio de la Ec. (11.22).
Reemplazando (11.36) en (11.22) se encuentra que σ (Θ) es
   
ZZ ′ e2 Θ 1 d ZZ ′ e2 Θ
σ (Θ) = cot cot
2E 2 sin Θ dΘ 2E 2
"  2
#
ZZ ′ e2 Θ 1 1
2 Θ
σ (Θ) = cot
 − csc
2E 2 Θ
2 sin 2 cos 2 Θ 2 2
 2  2
1 ZZ ′ e2 cos Θ2 csc2 Θ2 1 ZZ ′ e2 csc2 Θ2
σ (Θ) =  =
4 2E sin Θ2 sin Θ2 cos Θ2 4 2E sin2 Θ2

finalmente  2
1 ZZ ′ e2 Θ
σ (Θ) = csc4 (11.37)
4 2E 2
La Ec. (11.37) corresponde a la llamada dispersión de Rutherford quién la dedujo para la dispersión de
partı́culas α por núcleos atómicos. Es notable el hecho de que en mecánica cuántica en el lı́mite no relativista,
la sección eficaz coincide con este resultado clásico.

11.2.2. Caracterı́sticas generales de la sección eficaz


En Fı́sica atómica tiene también importancia el concepto de sección eficaz total de dispersión σT definido
por Z Z π
σT = σ (Ω) dΩ = 2π σ (Θ) sin Θ dΘ (11.38)
4π 0
272 CAPÍTULO 11. COLISIONES Y DISPERSIÓN

el último paso solo se puede realizar si hay simetrı́a azimutal, lo cual efectivamente ocurre si la fuerza es
central. Sin embargo si intentamos calcular la sección eficaz total para la dispersión coulombiana de Rutherford,
sustituyendo (11.37) en (11.38) obtenemos un resultado divergente. Es fácil ver la razón por la cual esto es ası́,
la sección eficaz total es el número de partı́culas que por unidad de intensidad incidente se dispersan en todas
direcciones. Ocurre que la interacción coulombiana es de alcance infinito, las desviaciones muy pequeñas solo
tienen lugar para partı́culas con parámetro de impacto muy grande. Por tanto todas las partı́culas de un haz
incidente de sección lateral infinita se desviarı́an en mayor o menor medida y por tanto deben incluı́rse en la
sección eficaz total de dispersión. En consecuencia, la infinitud de la sección eficaz total en mecánica clásica no
es exclusiva del potencial coulombiano y se extiende a todos los potenciales de alcance infinito independiente de
lo grandes que sean9 . Solo si el potencial presenta un corte de modo que se anula mas allá de cierta distancia,
será finita esta sección eficaz total. Este es el caso del campo coulombiano de un núcleo, el cual presenta un
corte debido al apantallamiento de la nube electrónica.

Figura 11.3: (a) perfil de un potencial repulsivo que permanece finito en el centro de fuerza. (b) Gráfica
de Θ vs s para el anterior potencial donde se observa que a cada valor permitido de Θ le corresponde dos
parámetros de impacto diferentes (excepto para Θ = Θm ).

Es muy importante tener presente que la validez de la Ec. (11.22) depende de que las partı́culas con diferente
parámetro de impacto no puedan llegar al mismo ángulo de dispersión, ya que de ello depende la validez de
(11.20) y (11.22). En la dispersión de Rutherford, esta condición se cumple ya que el ángulo de dispersión es
una función monótona suave (y por tanto uno a uno) del parámetro de impacto s. Esto se puede apreciar en
la Ec. (11.36), teniendo en cuenta que Θ está entre cero y π. En la Ec. (11.36) se ve que al disminuir s desde
el infinito hacia cero el ángulo Θ crece monótonamente a partir de cero (cuando s → ∞ es lógico que Θ → 0
ya que la interacción tiende a cero), alcanzando el valor de π cuando s = 0 lo cual corresponde a colisión
frontal con el centro de fuerzas, que naturalmente obliga a la partı́cula a recular en la direción contraria a la
incidencia.
No obstante, existen otros potenciales clásicos cuyo comportamiento requiere reevaluar la expresión (11.22),
por ejemplo para un potencial repulsivo como el de la figura 11.3a, tal que el potencial es finito incluso en
r → 0 y tal que la energı́a de la partı́cula es mayor al potencial para todo valor de r, es fácil ver que la curva
de Θ versus s se puede comportar de la forma indicada en la figura 11.3b, la cual no es una función uno a uno.
Este comportamiento se puede explicar mediante el siguiente razonamiento fı́sico: Para párametros de impacto
muy grandes, la partı́cula permanece todo el tiempo muy lejos del centro de fuerzas de tal modo que su ángulo
de dispersión es muy pequeño. Si s = 0 la partı́cula se dirige en lı́nea recta directamente al centro de fuerzas
y dado que su energı́a es superior al máximo valor del potencial, pasará a través del centro de fuerzas sin
deviarse de su curso (en vez de recular). Por esta razón, el ángulo de dispersión se anula en los dos extremos de
s, y dado que 0 ≤ Θ ≤ π, si la gráfica es bien comportada es de esperarse que tenga por lo menos un máximo
local ΘM , para algún valor del parámetro de impacto. La Fig. 11.3b muestra que para Θ < ΘM existen dos
valores de s que corresponden al mismo ángulo de dispersión. Cada uno de ellos contribuye a la sección eficaz

9
En cuántica, todos los potenciales que tienden a cero a grandes distancias más rápidamente que 1/r 2 producen un sección
eficaz total de dispersión finita.
11.2. DISPERSIÓN EN UN CAMPO DE FUERZAS CENTRALES 273

de dispersión según un ángulo y por tanto la Ec. (11.22) se debe modificar en la forma

X si ds
σ (Θ) = (11.39)
sin Θ dΘ i
i

donde el subı́ndice i distingue los distintos valores de s que dan el mismo valor de Θ. A manera de ejemplo,
pensemos que la curva de Θ vs s es tal que Θ = 0 en s = 0, ∞ y que además posee dos máximos locales
Θ1 , Θ3 (Θ1 > Θ3 ) y un mı́nimo local Θ2 tal que s1 < s2 < s3 . En este caso, hay ángulos para los cuales hay
cuatro parámetros de impacto asociados (Θ2 < Θ < Θ3 ), otros tienen dos parámetros s asociados (Θ3 < Θ <
Θ1 y Θ < Θ2 ), cuando Θ = Θ2 ó Θ = Θ3 hay tres parámetros de impacto asociados, y finalmente cuando
Θ = Θ1 solo hay uno.
Volviendo al caso descrito por la Fig. 11.3b, resulta de especial interés la sección eficaz correspondiente al
ángulo máximo ΘM . Puesto que para este ángulo se anula la derivada de Θ con respecto a s, se vé de la Ec.
(11.39) que la sección eficaz debe diverger cuando Θ → ΘM . Pero para todos los ángulos con Θ > ΘM , la
sección eficaz es nula (para el caso de la Fig. 11.3b, solo hay un máximo local de modo que ninguna partı́cula
se dispersa con una ángulo mayor a ΘM ). Este fenómeno de la subida infinita de la sección eficaz seguida de
una desaparición brusca, es muy semejante a lo que ocurre en la óptica geométrica de la dispersión de la luz
solar por las gotas de lluvia. En virtud de esta semejanza, a este fenómeno se le denomina dispersión en
arco iris.
Cuando el scattering es debido a fuerzas atractivas, pueden surgir otras complicaciones. Por ejemplo, dado
que la partı́cula es atraı́da hacia el centro de fuerzas, el ángulo Ψ entre la dirección incidente y la dirección del
periapsis puede ser mayor que π/2, con lo cual a través de la Ec. (11.23) obtenemos un ángulo de dispersión
negativo. Esto no supone mucho problema en virtud de que lo que importa para medir σ (Θ) es el valor absoluto
de Θ. No obstante, el valor absoluto de dicho ángulo de acuerdo con la Ec. (11.26) ó (11.27), puede ser mayor
que 2π, lo cual significa que fı́sicamente la partı́cula podrı́a dar una o más vueltas alrededor del centro de
fuerzas, antes de ser “lanzada” hacia su dirección asintótica de dispersión.

Figura 11.4: (a) Potenciales efectivos asociados a un potencial intermolecular real tı́pico, cada valor del paráme-
tro de impacto conduce a un potencial efectivo diferente. (b) Gráfica del ángulo de desviación Φ en función de
s, para el potencial anterior con dos valores diferentes de la energı́a.

Veamos un ejemplo de como puede ocurrir esto fı́sicamente. En la gráfica 11.4a, se pintan una serie de po-
tenciales efectivos para un potencial intermolecular (real) tı́pico. Cada curva está asociada al mismo potencial
real, pero con una barrera centrı́fuga diferente, lo cual corresponde a un valor distinto del momento angular l
y por tanto también del parámetro de impacto s. Lo más caracterı́stico de esta clase de potenciales intermole-
culares reales es que son atractivos a grandes distancias decayendo a un ritmo mayor a 1/r 2 , y repulsivos con
274 CAPÍTULO 11. COLISIONES Y DISPERSIÓN

magnitud de fuerza rápidamente creciente a cortas distancias10 . Dado que a grandes distancias el potencial
real (atractivo) decae más rápido que 1/r 2 la barrera centrı́fuga que se forma cuando s 6= 0 dominará a grandes
distancias y para valores pequeños de s se formará un máximo local, a medida que el parámetro de impacto
aumenta la curva tiende a “aplanarse” y para algún valor del parámetro de impacto s2 , solo hay un punto de
inflexión en Vef f para cierto valor de la energı́a E2 . Finalmente, para parámetros de impacto aún mayores no
aparecen extremos locales ni puntos de inflexión en el potencial.
Consideremos una partı́cula con parámetro de impacto s1 y energı́a E1 correspondiente a la energı́a en el
máximo local. Recordemos que la distancia entre Vef f y E1 es la energı́a cinética radial. Por tanto, cuando
la partı́cula llega a una distancia r1 del centro de fuerzas la velocidad radial se anula. Recordemos además
que cuando la energı́a coincide con un máximo local tenemos una órbita circular inestable. En ausencia de
perturbaciones la partı́cula de energı́a E1 y parámetro de impacto s1 quedará realizando una órbita circular
de radio r1 de forma indefinida. Si la energı́a es un poco mayor que E1 la órbita ya no es circular pero su
velocidad radial será muy pequeña en las vecindades de r1 , y la partı́cula puede permanecer en esta vecindad
un largo tiempo realizando varios giros. En contraste, la velocidad angular θ̇ no está afectada por la existencia
de un máximo y para un valor dado de r viene dada por (11.17)
r
l s1 2E
θ̇ = = 2
mr12 r1 m

por tanto durante el tiempo en el que la partı́cula atraviesa la región del máximo, su velocidad angular
vendrá dada aproximadamente por este valor y puede hacer que dicha partı́cula ejecute varios giros. En tales
casos, se dice que la dispersión clásica exhibe una orbitalización o espiralación.
Claramente para energı́as mayores que E2 (en donde se presenta el punto de inflexión para un s2 dado),
no es posible un movimiento orbital. Allı́ se puede presentar no obstante otro fenómeno interesante, y es
que la combinación de componentes atractivas y repulsivas del potencial efectivo puede incluso conducir a
deflexión nula para algún valor finito del parámetro de impacto. Por otro lado, a valores grandes de energı́a
con pequeños parámetros de impacto, los efectos de dispersión dominantes corresponden a repulsión fuerte a
cortas distancias, y el scattering se asemeja cualitativamente a la dispersión de Rutherford11 .
Dado que la partı́cula se puede deflectar en un ángulo mayor a π, pero el ángulo medido en el laboratorio
está entre 0 y π, es útil en este caso diferenciar el ángulo de deflexión Φ, que es el que se calcula con las
expresiones de la derecha en las Ecs. (11.26) ó (11.27) y el ángulo de dispersión que se observa Θ. Para un Φ
dado el valor Θ se calcula con la expresión

Θ = ±Φ − 2mπ , m entero positivo


el signo y el valor de m se escogen para que Θ quede en el rango entre 0 y π. La suma expresada por (11.39)
cubre entonces todos los valores de Φ que conducen al mismo Θ. En la Fig. 11.4b, se hace una gráfica de
Φ vs s para el potencial de la figura 11.4a, para dos energı́as diferentes. La orbitación que se produce en
E = E1 se muestra como una singularidad en la curva en s = s1 ya que el sistema da infinitas vueltas12 . Para
E > E2 no hay orbitación pero hay un efecto arco iris en Φ = −Φ′ (aunque la sección eficaz no se anula para
ángulos mayores, sino menores a −Φ′ ). Nótese que Φ se anula (y por tanto también Θ) para s = s3 lo cual
significa a partir de (11.22) que la sección eficaz se vuelve infinita en la dirección adelante debido a que el
factor sin Φ = sin Θ se anula13 . Similarmente, la sección eficaz puede diverger en la dirección hacia atrás (i.e.
10
Estas son las caracterı́sticas que a grandes rasgos se esperan para que la materia no implosione y al mismo tiempo pueda
formar condensados.
11
Esto es de esperarse ya que a mayor energı́a con bajo parámetro de impacto, la partı́cula puede penetrar la nube electrónica
y acercarse mucho al núcleo. En realidad la dispersión de Rutherford se da gracias a este efecto.
12
Dado que Ψ > 0, la Ec. (11.23) muestra que Φ ≤ π, de modo que Φ solo puede diverger con valores negativos, como se aprecia
en la Fig. 11.4b.
13
El hecho de que exista un parámetro de impacto finito y diferente de cero para el cual no hay deflexión, significa que los efectos
de atracción y repulsión a diversas distancias en que estuvo la partı́cula, tuvieron un efecto de cancelación. Sin embargo, esto no
significa que la partı́cula viajó en lı́nea recta, pues en la región de dispersión la trayectoria pudo ser muy compleja. De hecho las
lı́neas rectas que definen las trayectorias inicial y final son paralelas pero no necesariamente coincidentes.
11.3. DISPERSIÓN VISTA POR EL LABORATORIO Y EL CM (BLANCO EN REPOSO) 275

para Θ = π) si ocurre que


ds

s

permanece finito en Θ = π. Estos infinitos en la dispersión adelante atrás se conocen como dispersión gloria,
de nuevo por su análogo al correspondiente fenómeno en óptica metereológica. El efecto óptico es familiar para
los viajeros de avión que pueden ver un anillo de luz que envuelve la sombra del avión proyectada sobre una
nube subyacente.
Aunque las correcciones cuánticas son en general importantes, a veces dichas correcciones son pequeñas
como ocurre con la dispersión a bajas energı́as en retı́culos cristalinos de iones. Incluso en ocasiones se recurre
a métodos semiclásicos en los cuales es necesario el conocimiento de la órbita clásica.

11.3. Transformación del problema de la dispersión entre coordenadas de


laboratorio y centro de masa para blanco en reposo

Figura 11.5: (a) Dispersión de dos partı́culas vista por el sistema de referencia del laboratorio. (b) Dispersión
de dos partı́culas vista por el sistema de referencia del centro de masa.

Hasta el momento, hemos supuesto que el centro de fuerzas es fijo y por lo tanto trabajamos el problema
de un cuerpo. En la realidad, lo que tenemos es un cuerpo mucho más masivo que el otro que en todo caso
debe recular. Por otro lado, podemos estar interesados en la colisión de dos partı́culas con masas similares o
casos en que el blanco es móvil. Todo ello conduce al hecho de que el problema de la colisión es un problema
de dos cuerpos. Aunque ya hemos demostrado que este problema se puede reducir al problema de un cuerpo
con masa reducida µ cuando la interacción es central, no podemos simplemente reemplazar los dos cuerpos por
este cuerpo equivalente. La dificultad radica en que el ángulo de dispersión se mide realmente en el laboratorio
y corresponde al ángulo ϑ entre las direcciones inicial y final de la partı́cula dispersada en las coordenadas de
laboratorio. Por otro lado, el ángulo Θ calculado a partir del problema equivalente de un cuerpo es el ángulo
entre las direcciones inicial y final del vector relativo entre las dos partı́culas en las coordenadas del centro de
masa14 .
En lo que sigue asumiremos que en el instante inicial (t → −∞), uno de los cuerpos está en reposo. En
este caso, los valores de Θ y ϑ solo son iguales si la partı́cula que estaba en reposo permanece estacionaria
en el proceso. Dado que en la realidad la partı́cula inicialmente en reposo se pone en movimiento gracias a la
interacción con el proyectil, los dos ángulos serán diferentes como se vé en la figura 11.5a. En consecuencia, el
problema equivalente de un cuerpo no nos da directamente el ángulo de dispersión que mide el laboratorio15 .
14
Estrictamente, Θ es el mismo cuando se mide en el sistema de referencia del laboratorio como se vé en la Fig. 11.5a, en virtud
de que el vector relativo es idéntico en ambos sistemas de referencia. Esto se puede ver en la Fig. 10.1 de la Pág. 215, la cual
muestra claramente que r2 − r1 = r′2 − r′1 = r, y esta relación es válida para todo tiempo.
15
Recordemos que las trayectorias que hemos obtenido para un cuerpo bajo fuerzas centrales, tampoco son las órbitas que verı́a
un sistema de referencia inercial, y solo coinciden razonablemente cuando uno de los cuerpos está casi en reposo y es muy masivo
276 CAPÍTULO 11. COLISIONES Y DISPERSIÓN

11.3.1. Relación entre el ángulo de dispersión medido por el laboratorio y el medido por
el centro de masa
Para encontrar la relación entre Θ y ϑ debemos primero examinar como ocurre la dispersión para un
sistema de referencia que se mueve con el centro de masa (que claramente también es inercial). En este sistema
de referencia el momento total es cero siempre, ası́ que las dos partı́culas siempre se mueven con momentos
opuestos. Antes de la dispersión las dos partı́culas se acercan mutuamente y luego de la dispersión se alejan
una de otra.
En la Fig. 10.1 de la Pág. 215, podemos ver que el vector relativo entre las partı́culas pasa por el centro de
masa, ası́ mismo los vectores r, r′1 ,r′2 son todos colineales para todo tiempo. Esto significa que desde el punto
de vista del centro de masa, no solo los momentos son antiparalelos sino que las direcciones incidentes de las
dos partı́culas yacen sobre la misma recta, al igual que las direcciones salientes o reflejadas como se ilustra
en la Fig. 11.5b. De aquı́ se concluye que los ángulos de dispersión de las dos partı́culas son idénticos ya que
son opuestos por el vértice como se vé en la Fig. 11.5b. Por otro lado, vemos que el ángulo de dispersión de
r′i serı́a el mismo que el ángulo de deflexión de r ya que son colineales todo el tiempo. Por tanto el ángulo de
deflexión de las partı́culas visto por el CM es el ángulo Θ que se muestra en la Fig. 11.5a. La dispersión vista
por el centro de masa se ilustra en la Fig. 11.5b.
Ahora bien, la relación entre Θ y ϑ se obtendrá entonces haciendo la transformación entre el sistema centro
de masa y laboratorio. Esta transformación ya fué considerada en la sección 10.1. Derivando en el tiempo la
Ec. (10.3) se obtiene
v1 = V + v1′ (11.40)
esta relación es válida para todo tiempo. Por conveniencia, haremos un ligero cambio en la terminologı́a: r1 , v1
son la posición y velocidad de la partı́cula incidente m1 después de la dispersión en el sistema de laboratorio
(L). r′1 , v1′ son la posición y velocidad de la partı́cula incidente m1 después de la dispersión en el sistema
del centro de masa (CM). R y V no sufren modificación en su significado antes y después de la colisión.

Figura 11.6: Relación entre los vectores v1 , v1′ y V después de la colisión.

Dado que el blanco m2 está inicialmente estacionario en el laboratorio, la velocidad incidente v0 del proyectil
m1 en dicho sistema, coincide con la velocidad relativa inicial de las partı́culas. Por conservación del momento
lineal total (medido en el laboratorio) la velocidad constante del centro de masa es
m1 m2
(m1 + m2 ) V = m1 v0 ⇒ V = v0
m2 (m1 + m2 )
µ
V = v0 (11.41)
m2
con respecto al otro.
11.3. DISPERSIÓN VISTA POR EL LABORATORIO Y EL CM (BLANCO EN REPOSO) 277

La Ec. (11.41) muestra que v0 es paralelo a V. En consecuencia, si tomamos como eje X el eje de incidencia de
la partı́cula, la velocidad del centro de masa V es paralela a este eje. La Fig. 11.6 muestra la relación vectorial
(11.40) evaluada después de la dispersión, en cuyo tiempo v1 y v1′ hacen los ángulos ϑ y Θ respectivamente
con el vector V, que yace a lo largo de la dirección incidente. Adicionalmente, la figura 11.6 muestra que

v1 sin ϑ = v1′ sin Θ (11.42)


v1 cos ϑ = v1′ cos Θ +V (11.43)

el cociente entre estas ecuaciones nos da la relación entre Θ y ϑ que buscábamos


sin Θ V µ v0
tan ϑ = , ρ≡ ′ = (11.44)
cos Θ + ρ v1 m2 v1′

donde hemos usado (11.41). Se puede obtener una expresión alternativa cuando se expresa v1 en términos de
otras velocidades a través del teorema del coseno aplicado al triángulo de la Fig. 11.6.

v12 = v1′2 + V 2 − 2v1′ V cos (π − Θ) = v1′2 + V 2 + 2v1′ V cos Θ (11.45)


despejando cos ϑ en (11.43) y usando las Ecs. (11.45, 11.44) se obtiene

v1′ cos Θ + V v ′ cos Θ + V cos Θ + V /v1′


cos ϑ = = p ′2 1 =r  2
v1 v1 + V 2 + 2v1′ V cos Θ
1 + vV′ + 2 vV′ cos Θ
1 1

cos Θ + ρ
cos ϑ = p (11.46)
1 + 2ρ cos Θ + ρ2
vemos que las relaciones entre ϑ y Θ expresadas en (11.44) y (11.46) involucran el factor ρ que depende de las
rapideces inicial de la partı́cula 1 vista por (L) y final de la misma partı́cula pero vista por (CM). Conviene
por tanto, caracterizar adecuadamente a este factor.

11.3.2. Caracterización del factor ρ de la colisión


Por la definición de centro de masa, la velocidad v1′ de la partı́cula 1 en el CM después de la colisión,
está conectada con la velocidad relativa v después de la colisión. Esta relación se obtiene utilizando la Ec.
(10.4) y derivándola con respecto al tiempo
m2 m2 m1 µ
v1′ = − v ⇒ v1′ = kvk ⇒ v1′ = v
m1 + m2 (m1 + m2 ) m1 m1
y reemplazando esta expresión en (11.44), el factor ρ se puede escribir como
m1 v0
ρ= (11.47)
m2 v
es necesario recalcar que v es la rapidez relativa después de la colisión.
Si la colisión es inelástica, la energı́a cinética total de las dos partı́culas cambia después de la colisión (por
ejemplo algo de la energı́a cinética se puede convertir en energı́a de excitación interna del blanco). Ya vimos
que el cambio de energı́a cinética resultante de la colisión se expresa por medio del factor Q. Expresando la
energı́a cinética vista por el laboratorio, su cambio se parametriza en la forma

µv 2 1 µv 2 1
+ MV 2 = 0 + MV 2 + Q
2 2 2 2
donde hemos tenido en cuenta que la velocidad del centro de masa permanece constante de modo que

µv 2 µv 2
= 0 +Q (11.48)
2 2
278 CAPÍTULO 11. COLISIONES Y DISPERSIÓN

El valor Q del choque inelástico es usualmente negativo16 , aunque el convenio de signos se toma de manera
que sea consistente con el que se usa para las reacciones atómicas y nucleares. Multiplicando por 2/µ esta
ecuación resulta !
2 Q Q
v 2 = v02 + Q = v02 + 1 2 v02 = v02 1 + 1 2 (11.49)
µ 2 µv0 2 µv0

teniendo en cuenta que la energı́a del sistema en el laboratorio es (1/2) m1 v02 se tiene que
   
1 2 1 2 m2 m2
µv = m1 v0 = E
2 0 2 m1 + m2 m1 + m2

y la Ec. (11.49) queda    


m1 + m2 Q
v 2 = v02 1 +
m2 E
Por tanto, el cociente entre las rapideces relativas antes y después del choque se puede escribir como
s  
v m1 + m2 Q
= 1+ (11.50)
v0 m2 E

siendo E el valor de la energı́a de la partı́cula incidente (en el sistema de laboratorio). Reemplazando (11.50)
en (11.47), se tiene que el factor ρ para dispersión inelástica, vendrá dado por
m1
ρinelast = r   (11.51)
m1 +m2 Q
m2 1+ m2 E

Cuando la colisión es elástica (Q = 0), la energı́a cinética total de las dos partı́culas permanece inalterada
y el factor ρ de la Ec. (11.51) se simplifica a
m1
ρelast = (11.52)
m2
y es independiente de las energı́as y rapideces. El mismo resultado se obtiene haciendo Q = 0 en (11.48) de lo
cual se obtiene v = v0 y reemplazando esta igualdad en (11.47), se obtiene (11.52).
Las Ecs. (11.44, 11.46) muestran que los valores de Θ y ϑ son en general diferentes si ρ 6= 0, y la Ec. (11.51)
muestra que esta condición ocurre para cualquier valor finito de Q.

11.3.3. Sección eficaz en términos de los dos ángulos de dispersión


Los valores de la sección eficaz diferencial dependen de cual de los dos ángulos se tome como variable
independiente para σ. Para obtener la relación entre ellas, observemos que en un experimento particular el
número de partı́culas dispersadas por unidad de tiempo a través de un elemento de ángulo sólido dado, debe
ser el mismo sin importar si medimos el fenómeno como función de ϑ o como función de Θ. Esta cantidad
expresada para el ángulo Θ viene dada por (11.19) y al ser igual para ambos ángulos se obtiene

2πIσ (Θ) sin Θ |dΘ| = 2πIσ ′ (ϑ) sin ϑ |dϑ|

donde σ ′ (ϑ) , σ (Θ) son las secciones eficaces diferenciales expresadas en función de cada ángulo de dispersión,
ambos medidos en el sistema de laboratorio. Esta relación se puede escribir en la forma

sin Θ dΘ d (cos Θ)

σ (ϑ) = σ (Θ) = σ (Θ)
sin ϑ dϑ d (cos ϑ)
16
En todo caso, es posible observar un incremento en la energı́a cinética a expensas de una disminución de la energı́a interna de
los cuerpos que colisionan.
11.3. DISPERSIÓN VISTA POR EL LABORATORIO Y EL CM (BLANCO EN REPOSO) 279

La derivada se puede evaluar por medio de la Ec. (11.46) y se obtiene fácilmente


cos Θ + ρ
cos ϑ = p
1 + 2ρ cos Θ + ρ2
p 
1 + 2ρ cos Θ + ρ2 − 2ρ 2 −1/2
d (cos ϑ) 2 (cos Θ + ρ) 1 + 2ρ cos Θ + ρ
=
d (cos Θ) (1 + 2ρ cos Θ + ρ2 )
p " p −1/2 #
d (cos ϑ) 1 + 2ρ cos Θ + ρ2 1 + 2ρ cos Θ + ρ2 − ρ (cos Θ + ρ) 1 + 2ρ cos Θ + ρ2
= p
d (cos Θ) 1 + 2ρ cos Θ + ρ2 (1 + 2ρ cos Θ + ρ2 )

d (cos ϑ) 1 + 2ρ cos Θ + ρ2 − ρ (cos Θ + ρ)
=
d (cos Θ) (1 + 2ρ cos Θ + ρ2 )3/2
d (cos ϑ) 1 + ρ cos Θ
=
d (cos Θ) (1 + 2ρ cos Θ + ρ2 )3/2
de lo cual la sección eficaz σ ′ (ϑ) queda finalmente
3/2
1 + 2ρ cos Θ + ρ2
σ ′ (ϑ) = σ (Θ) (11.53)
1 + ρ cos Θ
es importante enfatizar que σ (Θ) no es la sección eficaz que medirı́a un observador en el sistema del centro
de masa. Tanto σ (Θ) como σ ′ (ϑ) son secciones eficaces medidas en el laboratorio, pero están expresadas en
término de coordenadas angulares diferentes. Un observador fijo en el centro de masa verı́a una densidad de
flujo de partı́culas incidentes diferente de la que se mide en el sistema de laboratorio y habrı́a que incluı́r esa
transformación de la densidad de flujo si por alguna razón quisiéramos relacionar las secciones eficaces medidas
en uno y otro sistema.
La relación entre los dos ángulos de dispersión es particularmente simple en el caso en el cual tenemos una
colisión elástica donde las partı́culas tienen masas iguales, en este caso ρ = 1 y según (11.46) se tiene
r
1 + cos Θ Θ
cos ϑ = = cos
2 2
de modo que
Θ
ϑ= (ρ = 1) (11.54)
2
en consecuencia, en el caso de dispersión elástica con masas iguales no podrá haber ángulos de dispersión
mayores que π/2 en el sistema de laboratorio; toda la dispersión tiene lugar en el hemisferio de adelante.
Correspondientemente, la sección eficaz de dispersión vendrá dada en función de Θ según la Ec. (11.53) en la
forma

′ (2 + 2 cos Θ)3/2 23/2 (1 + cos Θ)3/2


σ (ϑ) = σ (Θ) = σ (Θ)
1 + cos Θ "1 + cos Θ
h i  1/2 #
3/2 1/2 3/2 2 Θ
= σ (Θ) 2 (1 + cos Θ) = σ (Θ) 2 2 cos
2

que combinada con (11.54) nos da


π
σ ′ (ϑ) = 4 cos ϑ σ (Θ) ; ϑ ≤ , (colisión elástica con ρ = 1) (11.55)
2
incluso si tenemos dispersión isótropa según Θ, en la cual σ (Θ) es una constante independiente de Θ, la sección
eficaz en función de ϑ varı́a como el coseno de este ángulo.
De acuerdo con la discusión anterior, incluso en los choques elásticos en los que la energı́a cinética total
permanece constante, una colisión con blanco fijo trae como consecuencia que el proyectil cede parte de
280 CAPÍTULO 11. COLISIONES Y DISPERSIÓN

su energı́a cinética al blanco. Es decir, la colisión frena a la partı́cula incidente. Para obtener el grado de
frenamiento en un escenario inelástico, podemos emplear la Ec. (11.45) expresando v1′ y V en función de v0 a
través de las Ecs. (11.44, 11.41), respectivamente
 2  2   
µv0 µv0 µv0 µv0
v12 = v1′2
+V + 2
2v1′ V
cos Θ = + +2 cos Θ
m2 ρ m2 m2 ρ m2
 2
µv0  
v12 = 1 + ρ2 + 2ρ cos Θ
m2 ρ

el cociente entre las rapideces v1 y v0 queda


 2
v12 µ  
= 1 + 2ρ cos Θ + ρ2 (11.56)
v02 m2 ρ

si el choque es elástico, se tiene que ρ = m1 /m2 con lo cual la Ec. (11.56) se puede simplificar en la forma
   2
1 2
2 m1 v1 m1 m2 / (m1 + m2 ) 2  2
 m2  
1 2
= 1 + 2ρ cos Θ + ρ = 1 + 2ρ cos Θ + ρ2
2 m1 v0
m2 (m1 /m2 ) (m1 + m2 )
 2
E1 1  
=    1 + 2ρ cos Θ + ρ2
E0 1+ m 1
m2

quedando finalmente
E1 1 + 2ρ cos Θ + ρ2 m1
= , ρ= (choque elástico) (11.57)
E0 (1 + ρ)2 m2
siendo E0 (E1 ) la energı́a cinética inicial (final) del proyectil en el sistema de laboratorio. Es fácil ver que
(11.57) corresponde a un frenamiento del proyectil incidente i.e. E1 ≤ E0

E1 1 + 2ρ cos Θ + ρ2 1 + 2ρ + ρ2
= ≤ =1
E0 (1 + ρ)2 (1 + ρ)2

La relación se simplifica aún más si el choque elástico ocurre entre masas iguales i.e. con ρ = 1
E1 1 + cos Θ Θ
= = cos2
E0 2 2
E1
= cos2 ϑ (choque elástico con ρ = 1)
E0

donde hemos utilizado (11.54). Por lo tanto, para el ángulo de dispersión máximo (Θ = π, ϑ = π/2), el proyectil
cede toda su energı́a al blanco y queda detenido, visto por el sistema de referencia del laboratorio.
Esta transferencia de energı́a cinética por dispersión es el principio básico utilizado en los reactores de
neutrones térmicos. Los neutrones rápidos producidos por fisión colisionan elásticamente en forma sucesiva con
un moderador, hasta que su energı́a cinética se convierte en energı́a térmica, en cuyo caso es más posible que
originen fisiones a que sean capturados. A priori, los elementos ligeros deberı́an ser los mejores moderadores,
idealmente el hidrógeno (con el cual ρ ∼ = 1). Sin embargo, por otras razones técnicas, el hidrógeno solo es
práctico en los reactores nucleares cuando es parte de una mezcla o compuesto (como el agua). Se utilizan
más como moderadores el deuterio y el carbono 12. El hidrógeno que forma parte de la parafina, el agua o los
plásticos sı́ se usa como moderador.
Estos cálculos de transformación del laboratorio al centro de masa y la cesión de energı́a cinética se han
realizado en un contexto clásico. Cálculos análogos se pueden realizar para choques de “contacto” tales como
los que ocurren entre bolas de billar (ver Sec. 11.1.2). Lo interesante es que a pesar de su simplicidad estos
cálculos son de muy amplio uso ya que usan principios fundamentales como la conservación del momento
11.4. EJERCICIOS 281

lineal y la energı́a. Mientras se usen los principios de conservación y el factor Q, los detalles de la colisión
son irrelevantes, en realidad la región de interacción se considera como una “caja negra” y lo que medimos
son los estados asintóticos inicial y final. No interesa mucho que los fenómenos ocurridos en esta caja negra
sean cuánticos o clásicos. Como ya mencionamos, las fórmulas obtenidas en este capı́tulo sirven para analizar
fenómenos de naturaleza cuántica tales como la dispersión neutrón protón, siempre que las energı́as sean lo
suficientemente bajas para ignorar los efectos relativistas.

11.4. Ejercicios
1. Se ha encontrado experimentalmente que en una colisión frontal (o central) de dos esferas sólidas tales
como dos bolas de billar, las velocidades después del choque están relacionadas con las velocidades antes
del choque por la expresión
v1′ − v2′ = −e (v1 − v2 ) (11.58)
donde e es el coeficiente de restitución y tiene un valor entre cero y uno. Esta relación fue propuesta
por Newton y tiene validez solamente aproximada. Adicionalmente, se conserva el momento lineal en el
choque. Probar lo siguiente:

a) Las velocidades después del choque están dadas por:


v1 (m1 − m2 e) + v2 m2 (1 + e)
v1′ = (11.59)
m1 + m2
v2 (m2 − m1 e) + v1 m1 (1 + e)
v2′ = (11.60)
m1 + m2
b) La Q de la colisión es:
1  m1 m2
− 1 − e2 (v1 − v2 )2 (11.61)
2 m1 + m2
c) Cuál deberı́a ser el valor de e para que la colisión fuera elástica?

2. En una colisión frontal perfectamente inelástica o plástica (reacción de captura) los dos cuerpos se
mueven juntos después del choque. (a) Calcule el coeficiente de restitución e definido en (11.58), para
esta colisión. (b) Calcule el valor de Q en términos del coeficiente de restitución e.

3. Demostrar que si la energı́a y el momento lineal se conservan en un choque (choque elástico), las veloci-
dades v1 y v2 antes de la colisión, se relacionan con las velocidades v1′ y v2′ después de la colisión, por
medio de la ecuación 
u · v1′ − v2′ = −u· (v1 − v2 )
siendo u un vector unitario en la dirección en la cual el momento lineal de una de las partı́cula ha
cambiado. Esto implica que en la colisión, la componente de la velocidad relativa a lo largo de la dirección
de intercambio de momento lineal ha cambiado de sentido. Aplique el resultado a una colisión frontal y
compare el resultado con el obtenido para e = 1 en las ecuaciones (11.59, 11.60).

4. Una granada de masa M va con velocidad v0 cuando está a una altura h a la cual explota en dos
fragmentos iguales. Inicialmente, los fragmentos se mueven horizontalmente en el sistema de referencia
C. El factor Q de la explosión es Q = M v02 . Determinar los puntos de colisión de los fragmentos con el
suelo con relación al punto donde ocurre la explosión cuando (a) v0 = −v0 uy , y (b) Cuando v0 = v0 ux .
5. Demuestre que para una fuerza central repulsiva f = kr −3 , la sección eficaz diferencial está dada por
k (1 − x) dx Θ
σ (Θ) dΘ = 2 ; x≡
2E x (2 − x) sin πx
2 π
siendo E la energı́a total.
282 CAPÍTULO 11. COLISIONES Y DISPERSIÓN

6. Es común encontrar en los modelos de Fı́sica Nuclear, pozos rectangulares de potencial definidos por

0 si r > a
V =
−V0 si r ≤ a

demuestre que la dispersión producida por este potencial en Mecánica Clásica es igual a la refracción de
rayos luminosos por una esfera de radio a, e ı́ndice relativo de refracción n dado por
r
E + V0
n=
E
esta equivalencia explica porqué los fenómenos de refracción podı́an ser explicados tanto por la teorı́a
corpuscular de Newton como por las ondas de Huygens. Demuestre que la sección eficaz diferencial viene
dada por  
n2 a2 n cos Θ2 − 1 n − cos Θ2
σ (Θ) = 2
4 cos Θ2 1 + n2 − 2n cos Θ2
y encuentre la sección eficaz total. Esta clase de analogı́as entre dispersiones mecánicas y fenómenos
ondulatorios es muy común en Fı́sica. De hecho, también existen numerosas analogı́as con ondas cuánticas
de probabilidad.
Capı́tulo 12

Interludio matemático: Matrices, vectores


y tensores cartesianos

En el presente capı́tulo desarrollaremos desde un punto de vista práctico el álgebra básica de los vectores y
matrices en el espacio cartesiano Rn . Enfatizaremos en la relación que hay entre matrices y transformaciones
lineales. Se asume cierta familiaridad del lector con el álgebra lineal ya que el propósito de este capı́tulo es el de
dar un compendio de propiedades requeridas para los capı́tulos subsiguientes. Debe mencionarse sin embargo,
que además de las propiedades matemáticas de los vectores y matrices se estudiarán aspectos de un interés
más fı́sico como son la interpretación pasiva y activa de las matrices, la clasificación de escalares y vectores
por sus propiedades bajo paridad, y la caracterización de los tensores cartesianos.

12.1. Propiedades básicas de las matrices


Asumiremos que un vector cartesiano (en el espacio Rn ) se puede representar como un arreglo de la forma
 
x1
 
x ≡  ...  (12.1)
xn
una transformación de x a otro vector x′ se denomina una transformación lineal homogénea1 , si dicha trans-
formación es de la forma
x′i = aij xj ; i, j = 1, . . . , n (12.2)
donde aij son coeficientes constantes y se usa convención de suma sobre ı́ndices repetidos. Consideremos el
caso de dos transformaciones lineales sucesivas de la forma (12.2). Adicionalmente, definiremos vectores x que
son generales (no necesariamente vectores posición). Hagamos primero la transformación de x a x′ realizada
por el operador B

x′ = Bx ⇒ x′k = bkj xj (12.3)


seguida por una transformación de x′ a x′′ realizada por el operador A
x′′ = Ax′ ⇒ x′′i = aik x′k (12.4)
para obtener la relación entre x′′i y las xj se pueden combinar las dos ecuaciones para obtener
x′′ = ABx ⇒ x′′ = Cx ⇒ C = AB (12.5)
x′′i = aik bkj xj ⇒ x′′i = cij xj (12.6)
cij ≡ aik bkj (12.7)
1
Una transformación lineal inhomogénea tiene la forma x′i = aij xj + bi , donde las bi son constantes. De aquı́ en adelante
hablaremos de una transformación lineal sobreentendiendo que es homogénea, a menos que se indique lo contrario.

283
284 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

vemos que podemos definir una nueva transformación lineal C caracterizada por los elementos cij que forman
un nuevo arreglo matricial que se obtiene de los elementos aik y bkj de A y B con el algoritmo descrito en
(12.7). Esto nos indica que la composición de transformaciones lineales A y B nos define otra transformación
lineal C. Es fácil ver que el algoritmo (12.7) nos dice que la composición (“multiplicación”) de operadores no
es conmutativa

(AB)ij = cij = aik bkj ; (BA)ij = dij = bik akj


⇒ AB 6= BA

lo cual se puede comprobar con unos simples casos particulares (ver ejercicio 1, Pág. 336). Esto implica que
el resultado de aplicar dos operadores lineales sucesivos depende en general del orden de aplicación de tales
operadores. Puede comprobarse sin embargo que esta multiplicación es asociativa (ver ejercicio 2, Pág. 337)

(AB) C = A (BC)

la operación descrita por la Ec. (12.2) se puede escribir en arreglo matricial emulando el algoritmo (12.7) en
donde los vectores se escriben como matrices de una columna en la forma de la Ec. (12.1). Por simplicidad,
ilustraremos esta operación en tres dimensiones
 ′     
x1 x1 a11 a12 a13
x′ = Ax ; x′ ≡  x′2  ; x ≡  x2  ; A ≡  a21 a22 a23 
x′3 x3 a31 a32 a33

 ′
x i = (Ax)i ⇒ xi = aij xj = ai1 x1 + ai2 x2 + ai3 x3 ; i = 1, 2, 3

la suma de dos matrices se define como la matriz que se obtiene al sumar los elementos de cada una, claramente
esta operación sı́ es conmutativa
(A + B)ij = aij + bij = cij = (C)ij
un proceso importante es la composición inversa de A que nos lleva de regreso desde x′ hacia x

x′ = Ax ; A−1 x′ = x ⇒ A−1 Ax = x (12.8)

como x es un vector arbitrario se concluye que

A−1 A = 1 (12.9)

donde 1 es el operador identidad que deja al vector (o al sistema coordenado) inalterado. Por otro lado,
multiplicando la segunda de las Ecs. (12.8) por A a la izquierda

AA−1 x′ = Ax ⇒ AA−1 x′ = x′

y teniendo en cuenta que x′ también es arbitrario se tiene que

AA−1 = 1 (12.10)

de modo que la matriz inversa de A debe cumplir

A−1 A = AA−1 = 1 (12.11)

designemos a los elementos de la inversa como āij . La segunda de las Ecs. (12.8) se escribe como

xi = āij x′j (12.12)

que debe ser consistente con la primera de las Ecs. (12.8)

x′k = aki xi (12.13)


12.1. PROPIEDADES BÁSICAS DE LAS MATRICES 285

y sustituyendo xi de (12.12) en (12.13)


x′k = aki āij x′j

y puesto que las componentes de x′ son independientes, esta ecuación solo es correcta si la suma se reduce
idénticamente a x′k i.e.
aki āij = δkj (12.14)

la delta de Kronecker efectivamente es la única representación de los elementos de la matriz identidad como
se puede ver del algoritmo (12.7). Podemos llegar también a (12.14) directamente a partir de (12.10) usando
el algoritmo (12.7). Si partimos de (12.9) llegamos a la relación

āij ajk = δik

se puede ver además que la inversa del producto de dos matrices es la inversa del producto aplicado en orden
contrario. Por definición de inverso se tiene que

ABx = x′ ⇒ (AB)−1 x′ = x (12.15)

multiplicando por A−1 a la izquierda de la primera ecuación (12.15) y posteriormente por B−1 resulta
−1
A−1 ABx = A−1 x′ ⇒ Bx = A−1 x′ ⇒ B Bx = B−1 A−1 x′
⇒ x = B−1 A−1 x′

comparando esta ecuación con la segunda de las Ecs. (12.15) teniendo en cuenta que estas deben ser válidas
para x y x′ arbitrarios, resulta
(AB)−1 = B−1 A−1 (12.16)

es importante tener en cuenta también que la matriz identidad deja inalterada a otra matriz cuando se hace
el producto entre ellas
A1 = 1A = A

finalmente, definiremos la traspuesta de una matriz como aquella matriz que se obtiene intercambiando filas
e se define entonces por
por columnas y viceversa en la matriz A, esta matriz simbolizada por A
 
e
A ≡eaij = aji
ij

es obvio que la traspuesta de la traspuesta es la misma matriz



] 
Ae =A (12.17)

es fácil demostrar que la traspuesta del producto de dos matrices es el producto de las matrices traspuestas
en orden contrario      
eA
B e = B e e
A ^
= bki ajk = ajk bki = (AB)ji = (AB) ij
ij ik kj

y como esto vale para un elemento arbitrario i, j se tiene que

^=B
(AB) eA
e (12.18)

es muy fácil verificar que la traspuesta de una suma es la suma de las traspuestas

^
(A e +B
+ B) = A e
286 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

Matrices simétricas y antisimétricas


Si una matriz coincide con su traspuesta

aij = aji ⇔ e
A=A

se dice que la matriz es simétrica. Si la matriz coincide con menos la traspuesta

aij = −aji ⇔ e
A = −A

entonces tenemos una matriz antisimétrica. Claramente, los elementos diagonales de una matriz antisimétrica
son nulos.
Nótese que siempre es posible descomponer una matriz en una componente simétrica y otra antisimétrica
de la siguiente forma
1 e
 1 e

A = As + Aa ; As ≡ A+A ; Aa ≡ A−A
2 2
además, la traspuesta de la matriz también es combinación de estas componentes
e = As − Aa
A

12.1.1. Determinantes y trazas de matrices


Otra propiedad importante de las matrices es el determinante. El determinante de una matriz A se denota
en una de estas dos formas
|A| ó det A
usaremos una u otra notación de acuerdo con la conveniencia. El determinante consiste en un número real
o complejo asociado a la matriz, su construcción está motivada por el estudio de las ecuaciones lineales
simultáneas. Supondremos que el lector está familiarizado con el algoritmo de expansión por cofactores para el
cálculo de los determinantes. Hablamos de matrices singulares cuando su determinante es nulo, de lo contrario
hablamos de matrices no singulares. Es condición necesaria y suficiente que una matriz sea no singular para
que exista su inversa, puesto que dicha inversa depende de |A|−1 . El determinante de la traspuesta de la matriz
coincide con el determinante de la matriz

e e = det A
A = |A| ó det A (12.19)

y para la matriz conjugada se tiene

|A∗ | = |A|∗ ó det A∗ = (det A)∗ (12.20)

Adicionalmente, se puede demostrar que el determinante del producto, es el producto de los determinantes

|AB| = |A| · |B| ó det (AB) = (det A) · (det B) (12.21)

y dado que el determinante de la identidad es 1 se tiene que



1 = |1| = AA−1 = |A| · A−1

de modo que −1 
A = |A|−1 ó det A−1 = (det A)−1 (12.22)
por otro lado si cualquier fila o columna de una matriz se multiplica por un escalar α, el determinante queda
multiplicado por tal escalar. Por ejemplo en tres dimensiones
     
α a11 α a12 α a13 a11 α a12 a13 a11 a12 a13

 a21 a22 a23  =  a21 α a22 a23  = α  a21 a22
a23  (12.23)

a31 a32 a33 a31 α a32 a33 a31 a32 a33
12.1. PROPIEDADES BÁSICAS DE LAS MATRICES 287

de modo que si multiplicamos un escalar por una matriz n × n, el nuevo determinante es

det (αA) = αn det A (12.24)

como caso particular


det (−A) = (−1)n det A (12.25)
otra propiedad importante es la traza de la matriz, definida como la suma de sus elementos diagonales

T rA = aii (12.26)

donde enfatizamos en la suma sobre ı́ndices repetidos. Demostraremos que

T r [AB] = T r [BA] (12.27)

lo cual se puede ver fácilmente en la forma

T r [AB] = (AB)ii = aik bki = bki aik = (BA)kk = T r [BA]

Una propiedad muy importante de la traza es que es un invariante cı́clico, es decir


h i h i
T r A(1) A(2) . . . A(n−2) A(n−1) A(n) = T r A(n) A(1) A(2) . . . A(n−2) A(n−1)
h i
= T r A(n−1) A(n) A(1) A(2) . . . A(n−2) (12.28)

y ası́ sucesivamente. Para demostrarlo, basta con definir

B ≡ A(1) A(2) . . . A(n−1)

de modo que
h i h i h i h i
T r A(1) A(2) . . . A(n−2) A(n−1) A(n) = T r BA(n) = T r A(n) B = T r A(n) A(1) A(2) . . . A(n−2) A(n−1)

y teniendo en cuenta que los ı́ndices (1) , (2) , ... son mudos, vemos que cualquier cambio cı́clico es posible. Vale
la pena tener en cuenta que la propiedad (12.27) no significa que para calcular la traza se puedan conmutar las
matrices, por ejemplo para tres o más matrices la traza no es la misma para cualquier orden de las matrices,
solo cambios cı́clicos son posibles (ver ejercicio 1). En tal sentido debemos interpretar (12.27) como un cambio
cı́clico de dos matrices y no como una conmutación.
Veremos más adelante que las trazas y los determinantes son invariantes ante un cambio de base.

12.1.2. Matrices rectangulares


Una matriz rectangular es un arreglo de números constituı́do por m filas y n columnas. En ese caso se dice
que la matriz es de dimensión m × n. Los elementos de esta matriz serı́an de la forma

(A)ik = aik ; i = 1, . . . , m ; k = 1, . . . , n

la traspuesta de esta matriz serı́a de dimensión n × m. Un arreglo vectorial columna (de aquı́ en adelante lo
llamaremos simplemente vector aunque no necesariamente sea un vector en todo el sentido de la palabra) es
una matriz rectangular de dimensión m × 1, su traspuesta es una matriz de dimensión 1 × m.
Ahora bien, serı́a deseable extrapolar el algoritmo (12.7) para realizar productos de matrices rectangulares

cij ≡ aik bkj

Se observa que la extrapolación del producto matricial entre dos matrices rectangulares C = AB solo se puede
definir consistentemente si el número de columnas de A es el mismo que el número de filas de B.

AB = C si A ≡ Am×n y B ≡ Bn×d ⇒ Cm×d


288 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

En particular el producto de un vector columna (matriz m × 1) con una matriz m × m en la forma xA no


se puede definir. Sin embargo, el producto entre la traspuesta del vector anterior (vector fila) y la matriz A
en la forma x eA se puede definir. Similarmente no se puede definir Ae x pero si se puede definir Ax. De las
anteriores consideraciones las cantidades Ax y xeA corresponden a un nuevo vector columna y un nuevo vector
fila respectivamente.
A partir de las dimensiones para las matrices rectangulares

e n×m y Bn×d ⇒ B
Am×n ⇒ A e d×n

el producto AB está definido. Sin embargo, se puede notar que sus traspuestas solo se pueden multiplicar
e A.
en el orden opuesto, i.e. en el orden B e De por sı́ es simple demostrar que al igual que con las matrices
cuadradas el traspuesto del producto es el producto del traspuesto en orden inverso, Ec. (12.18). Aplicando
esta propiedad se puede ver que
] =x
(Ax) eAe ; (e ]
xA) = Axe

donde hemos tenido en cuenta que la traspuesta de la traspuesta es la matriz original.

12.2. Interpretación activa y pasiva de las transformaciones lineales: cam-


bios de base
Es usual describir un vector dado en dos sistemas coordenados diferentes, digamos X1 X2 X3 y X1′ X2′ X3′ .
Asumiremos que ambos sistemas tienen un origen común, de modo que uno de ellos se obtiene por rotación
del otro. Cada sistema coordenado tiene un conjunto ortonormal de vectores {u1 , u2 , u3 } y {u′1 , u′2 , u′3 }.
La matriz de transformación A puede ser considerada como un operador que actuando sobre el sistema
coordenado no primado lo transforma en el sistema coordenado primado. Simbólicamente esta operación se
escribe como:
(r)′ = Ar (12.29)
el paréntesis indica que el vector r como tal NO ha sido transformado, simplemente sus componentes se están
escribiendo en un nuevo sistema coordenado. De modo que la matriz A opera sobre las componentes del
vector en el sistema no primado para dar las componentes del mismo vector en el sistema primado. Esta
operación se conoce como un cambio de base, puesto que A actúa solo sobre el sistema coordenado dejando
al vector inalterado. En tres dimensiones la transformación de coordenadas es simplemente una rotación de
los ejes coordenados. Usualmente estaremos interesados en transformaciones lineales que nos lleven de un
sistema coordenado ortonormal a otro sistema coordenado también ortonormal, este tipo de transformaciones
se denominan transformaciones ortogonales, las cuales caracterizaremos matemáticamente en la sección
12.4. Sin embargo, la discusión que estamos desarrollando no requiere estrictamente que las transformaciones
sean ortogonales, la única condición indispensable como veremos más adelante es que la transformación sea
invertible.
Por otro lado, es de anotar que sin cambiar el andamiaje matemático construı́do hasta ahora, podemos
reinterpretar al operador A como actuando sobre el vector r para producir un nuevo vector r′ donde las
componentes de ambos se calculan en el mismo sistema coordenado. Esto lo representamos por

r′ = Ar (12.30)

esta notación sin paréntesis indica que el vector como tal ha sido transformado, con ambos vectores r y r′
descritos por el mismo sistema coordenado. Por tanto, en el caso particular de rotación en dos dimensiones
en lugar de rotar el sistema coordenado en el sentido antihorario, estarı́amos girando el vector posición en
sentido horario manteniendo fijos los ejes. Los ángulos de rotación en ambos casos poseen naturalmente la
misma magnitud pero signo opuesto. Vale destacar que en la transformación (12.30) las componentes del
nuevo vector estarán relacionadas con las del vector original por las mismas transformaciones que en las Ecs.
(12.29) aunque la interpretación geométrica sea distinta.
12.2. INTERPRETACIÓN ACTIVA Y PASIVA DE LAS TRANSF. LINEALES 289

Para entender la diferencia, es esencial comprender que la definición completa de un operador requiere
conocer no solo que operación realiza, sino sobre qué objetos actúa, en este sentido matemático estricto los
dos operadores (cambio de base y cambio del vector) son en realidad diferentes aunque posean la misma
representación matricial. Nótese en particular que el sentido de la rotación cuando se interpreta como cambio
en el vector, es inverso con respecto al caso en que se interpreta como rotación del sistema coordenado.
No obstante visto desde un punto de vista práctico, dado que las operaciones matemáticas son las mismas,
es posible y a veces conveniente cambiar de una interpretación a otra según las necesidades. Por ejemplo,
en el caso de la especificación de la orientación de un cuerpo rı́gido relativo a un sistema de referencia S, la
interpretación del operador como transformando el sistema coordenado es la más conveniente. Por otro lado la
interpretación del operador como agente que cambia al vector tiene muchas aplicaciones. Por tanto, tomaremos
una u otra interpretación a lo largo del texto.
Esta dualidad en la interpretación o más bien en el rol de los operadores está presente en otro tipo
de transformaciones de coordenadas mas generales que las transformaciones ortogonales. En ocasiones se
interpreta su rol como el de cambiar el sistema coordenado expresando cierta cantidad o función en términos
del nuevo sistema coordenado pero sin alterarla. En otras ocasiones se puede considerar como actuando sobre
la cantidad o función en sı́ misma cambiando a nuevas cantidades en el mismo sistema coordenado. Cuando
la transformación es del tipo de un cambio de base i.e. solo sobre el sistema coordenado, hablamos de un rol
pasivo de la transformación. Por otro lado cuando al operador se le otorga el rol de cambiar a un vector u
otra cantidad fı́sica, hablamos de un rol activo de la transformación. Ya nos habı́amos encontrado con esta
dualidad en el capı́tulo sobre transformaciones canónicas y en realidad es aplicable en muchos campos de la
Fı́sica.
Es importante el hecho de que las propiedades matemáticas de las transformaciones activas y pasivas son
idénticas, de modo que en la mayor parte de lo que sigue, no haremos distinción entre (r)′ y r′ en las operaciones
subsecuentes, a menos que se especifique lo contrario (como es el caso de la sección 12.2.1).

12.2.1. Transformaciones de similaridad


Veremos que las interpretaciones activa y pasiva de un operador se pueden combinar para encontrar la
manera en la cual la representación de un operador activo se transforma cuando se realiza un cambio de base.
Pensemos que tenemos una matriz activa A que actúa sobre un vector F (matriz columna) para transformarlo
en el vector G. Tenemos entonces la transformación

G = AF (12.31)

ahora pensemos que el sistema coordenado original será transformado a otro a través de una matriz ortogonal
B. El cambio de base se expresa como
(G)′ = BG (12.32)
donde revivimos la notación (G)′ para indicar que representa al mismo vector pero en un sistema coordenado
diferente. Combinando (12.31) y (12.32) se obtiene

BG = BAF ⇒ (G)′ = (BA) F

nótese que en la última igualdad los dos vectores G y F están expresados en bases diferentes. Es deseable
que ambos queden escritos en la nueva base (por ejemplo dos vectores solo se pueden sumar componente a
componente si ambos están expresados en la misma base). Esto se logra introduciendo un operador identidad
en la forma
 
(G)′ = (BA) B−1 B F ⇒ (G)′ = BAB−1 (BF)

⇒ (G)′ = BAB−1 (F)′ (12.33)

Si comparamos (12.31) con (12.33) teniendo en cuenta que los vectores primados son idénticos a los vecto-
res sin primar salvo que están escritos en bases diferentes, llegamos a la siguiente conclusión: La matriz de
290 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

transformación A (en la base original) me produce la misma transformación que la matriz de transformación
BAB−1 en la nueva base. En otras palabras, A y BAB−1 son representaciones diferentes del mismo operador,
donde se vé que la representación depende de la base que usemos para construirla. En consecuencia podemos
definir
A′ = BAB−1 (12.34)
una transformación de esta forma (entre A y A′ ) se denomina una transformación de similaridad. A las
matrices A′ y A se les denomina matrices equivalentes, lo cual es lógico si recordamos la interpretación
activa de A y pasiva de B que nos llevó a observar que A′ representa en la nueva base al mismo operador
activo que representa la matriz A en la base antigua. Otra razón para llamar equivalentes a estas matrices
es tener en cuenta que la transformación de similaridad forma una relación de equivalencia entre A′ y A
(reflexiva, simétrica y transitiva). Se deja como ejercicio al lector demostrar que la similaridad es una relación
de equivalencia.
Puede demostrarse que tanto el determinante como la traza de una matriz A son invariantes ante una trans-
formación de similaridad. Esto es de gran importancia porque significa que estas cantidades están asociadas a
un operador lineal de manera unı́voca, sin importar la base en que se exprese tal operador.
Veamos la invarianza del determinante

A = BAB−1 = |B| · |A| · B−1 = |B| · |A| · |B|−1

⇒ A′ = |A|

donde hemos usado (12.21) y (12.22). La invarianza de la traza se demuestra fácilmente en forma explı́cita
n
X X X X X
 ′
  −1
 
T r A = T r BAB = BAB−1 ii
= bik akl b̄li = b̄li bik akl = δlk akl = akk = T rA
i=1 i,k,l i,k,l k,l k

una forma más inmediata de verlo es teniendo en cuenta que la traza es un invariante cı́clico (ver Ec. 12.28),
de modo que
     
T r A′ = T r BAB−1 = T r B−1 BA = T rA
nótese que las propiedades de las transformaciones de similaridad aquı́ mostradas, no dependen de que la
matriz B para el cambio de base sea ortogonal. Lo único que se pide es que esta matriz sea no singular para
que exista la inversa. En realidad la definición de transformación de similaridad no se restringe al caso en el cual
la matriz B sea ortogonal, aunque el uso de estas transformaciones nos facilitará realizar una interpretación
geométrica, ya que una transformación ortogonal transforma una base ortonormal en otra base ortonormal.

12.3. Problema de valores propios


Sea A una matriz n × n y x un vector columna n × 1. Para una matriz especı́fica A definimos la ecuación

Ax = λx (12.35)

como la ecuación de valores propios asociada a dicha matriz. La idea es solucionar para los posibles valores
de λ y vectores asociados x. Los valores λ son en general complejos y se conocen como valores propios en
tanto que los vectores x asociados se denominan vectores propios. La operación en (12.35) nos muestra que
la ecuación de valores propios consiste en la búsqueda de vectores para los cuales el operador A nos “alarga”
o nos “acorta” el vector en cuestión, eventualmente cambiando su “sentido” pero siempre conservando su
“dirección”. El valor propio serı́a entonces el factor de “contracción” o “dilatación” y en caso de ser negativo
invertirı́a el “sentido” del vector original2 .
2
La razón para colocar todos estos términos entre comillas, es que tal interpretación geométrica solo es clara para vectores
reales. Si bien la analogı́a para vectores complejos no está excenta de utilidad.
12.3. PROBLEMA DE VALORES PROPIOS 291

La ecuación de valores propios o autovalores, se puede escribir de la forma

(A − λ1) x = 0 (12.36)

en forma expandida en tres dimensiones se puede escribir

(a11 − λ) x1 + a12 x2 + a13 x3 = 0


a21 x1 + (a22 − λ) x2 + a23 x3 = 0
a31 x1 + a32 x2 + (a33 − λ) x3 = 0 (12.37)

los argumentos que siguen son válidos para matrices de dimensión arbitraria finita, pero por comodidad los
escribiremos en tres dimensiones. Este conjunto de ecuaciones homogéneas para x1 , x2 , x3 solo tiene solución
no trivial si el determinante del sistema es nulo de modo que

a11 − λ a12 a13

det (A − λ1) = |A − λ1| = a21 a22 − λ a23 = 0 (12.38)
a31 a32 a33 − λ

condición que se conoce como ecuación secular o caracterı́stica de la matriz. Los valores de λ para los
cuales se satisface esta ecuación son los autovalores o valores propios asociados a la matriz. Es de anotar
que aún en el caso en el cual existen soluciones no triviales, el conjunto de ecuaciones homogéneas (12.37)
no nos da valores definidos para las tres (o para las n) componentes sino solo cocientes entre éstas. Este
hecho se puede entender por argumentos algebraicos o geométricos. Desde el punto de vista algebráico, esto
está relacionado con el hecho de que el producto del autovector x con un escalar también serı́a autovector,
lo cual se puede ver inmediatamente de (12.36)3 . Geométricamente, esto implica que solo la dirección del
autovector está determinada pero su magnitud (e incluso sentido) permanecen indeterminados, lo cual se ve
particularmente claro en tres dimensiones. Dado que A representa una transformación lineal es claro que si A
conserva la dirección del vector x i.e. Ax = λx también conservará la dirección del vector αx para α arbitrario.
Al expandir el determinante (12.38) se observa que en general la solución de la ecuación secular se reduce
a encontrar las raı́ces de un polinomio de grado n. Sabemos pues que hay un número máximo de n de éstas
raı́ces y que tales raı́ces pueden ser complejas. En general, podemos construı́r a lo más n vectores linealmente
independientes xk cada uno asociado a un valor propio λk . Denotaremos la componente i−ésima del k−ésimo
vector propio en la forma xik . Podemos realizar un arreglo matricial con estos vectores, colocándolos como
vectores columna en forma adyacente. En tres dimensiones tal arreglo matricial queda en la forma
 
x11 x12 x13
X ≡ (x1 x2 x3 ) =  x21 x22 x23  (12.39)
x31 x32 x33

las Ecs. (12.36) se escriben para cada valor propio λk y su respectivo vector propio xk en la forma

(A − λk 1) xk = 0 ⇒ Axk = λk xk no suma sobre k (12.40)

escribiendo las Ecs. (12.40) en componentes resulta (para n dimensiones)


n
X
aij xjk = λk xik ⇒
j=1
Xn n
X
aij xjk = xij δjk λk (12.41)
j=1 j=1

3
Alternativamente, esto se puede ver del hecho de que la ecuación secular solo tiene solución no trivial cuando una o más de las
ecuaciones es linealmente dependiente con las demás. En tal caso hay más incógnitas que ecuaciones y tenemos entonces infinitas
soluciones.
292 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

en las dos ecuaciones anteriores no hay suma sobre el ı́ndice repetido k. Recordemos que xjk es la componente
j−ésima del vector xk . Ahora bien, la cantidad δjk λk ≡ λjk se puede asociar a una matriz diagonal que en
tres dimensiones se escribe  
λ1 0 0
λ ≡  0 λ2 0  (12.42)
0 0 λ3
matricialmente la Ec. (12.41) se escribe como
AX = Xλ
si multiplicamos por X−1 a la izquierda se obtiene
X−1 AX = λ (12.43)
esta operación es una transformación de similaridad operando sobre A. Nótese que además la matriz X
que se construye con los vectores propios es la matriz de transformación (más estrictamente la matriz de
transformación es X−1 ), dicha matriz X−1 diagonaliza a A a través de la transformación de similaridad y los
elementos de la diagonal corresponden a los valores propios (λk asociado al vector columna xk en la matriz
X en la Ec. 12.39).
Es obvio de la Ec. (12.43), que la condición necesaria y suficiente para que la diagonalización de A sea
posible, es que la matriz X admita inversa. A su vez una condición necesaria y suficiente para esto, es que
los vectores propios que constituyen a la matriz X sean un conjunto linealmente independiente. En otras
palabras, la diagonalización de una matriz n × n es posible si y solo si, existen n vectores propios linealmente
independientes de dicha matriz. Es decir, los vectores propios linealmente independientes de la matriz deben
formar una base de Rn .
Surge entonces la pregunta natural de cuales son las condiciones para que dada una matriz n × n, exista
un conjunto de n vectores propios linealmente independientes. Ya hemos mencionado que la ecuación secular
nos lleva a buscar las raı́ces de un polinomio de grado n. En algunas ocasiones hay raı́ces degeneradas, es decir
que se repiten dos o más veces. Cuando existen valores propios degenerados, es decir que un subconjunto de
ellos posee el mismo valor, no es siempre posible diagonalizar la matriz A. Volveremos sobre este punto en la
sección 12.12.
Por otro lado, en el caso en que la diagonalización es posible, el determinante y la traza de A se pueden
calcular teniendo en cuenta que tales cantidades son invariantes ante una transformación de similaridad, por
lo tanto
 
det A = det X−1 AX = det λ = λ1 λ2 . . . λn (12.44)
 −1 
T rA = T r X AX = T rλ = λ1 + λ2 + . . . + λn (12.45)
de modo que el determinante y la traza de una matriz diagonalizable son simplemente el producto y la suma
de sus valores propios respectivamente.
Finalmente, si la matriz A en la Ec. (12.35) es real, podemos ver tomando el conjugado en dicha ecuación,
que si x es un vector propio de A asociado a un valor propio λ, entonces x∗ también es vector propio de A y
estará asociado al valor propio λ∗ .

12.3.1. El problema de la degeneración de valores propios


Dado un valor propio λi de una matriz A, existen infinitos vectores propios asociados ya que si x es vector
propio, todos los vectores de la forma αx (con α escalar) también son vectores propios asociados a λi . Sin
embargo, todos estos vectores son linealmente dependientes entre sı́. Ocurre en ocasiones que existen varios
vectores linealmente independientes asociados a un mismo valor propio. El grado de degeneración de un valor
propio λi lo definiremos como el máximo número de vectores propios linealmente independientes asociados a
λi . Si un valor propio λi es p− degenerado, tenemos un conjunto de p−vectores linealmente independientes
n o
(1) (2) (p)
λi → xi , xi , . . . , xi (12.46)
12.3. PROBLEMA DE VALORES PROPIOS 293

donde el subı́ndice indica el valor propio asociado y el superı́ndice es el ı́ndice de degeneración. Si A es una
matriz n × n, sus vectores propios estarán en Rn ó Cn que genéricamente lo escribiremos como E n . Por tanto
(k)
p ≤ n, y todas las combinaciones lineales de los vectores del tipo xi generan un subespacio del tipo E p . Es
4 p
fácil ver que un vector arbitrario no nulo de E es vector propio de A con valor propio λi . Para verlo tomemos
un vector arbitrario x ∈ E p , tal vector es una combinación lineal de los vectores en la Ec. (12.46), y dado que
A define una transformación lineal tenemos
h i h i
(m) (m) (m) (m)
Ax = A αm xi = αm Axi = αm λi xi = λi αm xi ⇒
Ax = λi x

que demuestra lo que se pide. Adicionalmente, puesto que (12.46) define el máximo conjunto de vectores
propios linealmente independientes asociados a λi , es claro que ningún vector propio asociado a λi está por
fuera de E p , resumimos este resultado en la siguiente forma

Theorem 8 Sea λi un valor propio asociado a la matriz A de dimensión n × n. El conjunto Ei de todos


los vectores propios asociados a este valor propio junto con el cero, forma un subespacio vectorial de E n con
dimensión p ≤ n. Siendo p el grado de degeneración del valor propio λi .

Esto además implica que si el conjunto de vectores dado en (12.46) no es ortonormal, puede ortonormalizarse
(por ejemplo con un proceso de ortogonalización de Gram-Schmidt), lo cual equivale a escoger una base
ortonormal de vectores de Ei , que obviamente son vectores propios de A asociados a λi .
De lo anterior es fácil ver que si A es real y un valor propio dado λi es real, siempre es posible escoger una
(k)
base de vectores reales en Ei . Tomemos un vector xi de la base (12.46), suprimiremos el supraı́ndice por
comodidad. La ecuación de valores propios y su conjugada nos dan

Axi = λi xi ; Ax∗i = λi x∗i no suma sobre i (12.47)

donde hemos tomado en cuenta el carácter real de A y λ. Supongamos primero que xi es linealmente depen-
diente de x∗i . Por lo menos una de las combinaciones lineales dadas por

xi + x∗i i (xi − x∗i )


= Re xi ; = Im xi (12.48)
2 2
es un vector no nulo, y será vector propio con componentes reales asociado al mismo valor propio. En todo
caso, si ambos vectores son diferentes de cero, serán linealmente dependientes.
Supongamos ahora que xi es linealmente independiente de x∗i , como ambos son vectores propios asociados
a λi , esto implica que λi tiene degeneración por lo menos de orden 2. Es claro que el espacio dos dimensional
generado por xi y x∗i consta de vectores propios con valor propio λi (si bien no es necesariamente el subespacio
más grande que cumple esta condición). La misma combinación lineal definida en (12.48), nos da en este caso
dos vectores reales y linealmente independientes5 , que generan el mismo subespacio que xi y x∗i . Procediendo
de esta forma con todos los vectores de la Ec. (12.46), podemos encontrar un conjunto linealmente independiente
de vectores reales que generen Ei . Vale decir sin embargo, que no todos los vectores reales obtenidos de esta
∗(1)
manera van a ser necesariamente independientes. Por ejemplo, xi podrı́a ser linealmente dependiente con
(2) ∗(1) ∗(1) (2) ∗(2)
xi en esta caso el espacio generado por Rexi y Imxi contiene a xi aunque no necesariamente a xi .
Por tanto, los vectores
∗(1) ∗(1) ∗(2) ∗(2)
Rexi , Imxi , Rexi , Imxi
4
Un vector propio es por definición diferente de cero.
5
La independencia lineal de Re xi e Im xi se garantiza dado que el conjunto original xi y x∗i es linealmente independiente por
hipótesis, y la transformación
    
Re xi 1 1 1 xi
=
Im xi 2 i −i x∗i
es no singular.
294 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

no van a ser todos linealmente independientes. No obstante, es claro que al barrer todos los vectores de
la Ec. (12.46) obtendremos una base de n vectores reales, más posiblemente algunos vectores linealmente
dependientes. Por otro lado, esta base se puede ortonormalizar por ejemplo con un proceso de ortonormalización
de Gram-Schmidt con combinaciones lineales reales, de modo que la base ortonormal obtenida sea también
real. Resumimos estos resultados en la forma

Theorem 9 Sea A una matriz real n × n con un valor propio real λi que genera el subespacio Ei de E n .
Entonces existe una base de vectores reales que genera a Ei . En particular, existe una base ortonormal real que
genera a Ei .

Nótese que el teorema no dice que los vectores propios asociados a λi no puedan ser complejos, de hecho si
x es vector propio real, entonces eiθ x es un vector propio complejo. Ası́ mismo, dados varios vectores propios
reales de Ei , una combinación lineal compleja también pertenece a Ei si este espacio es del tipo Cn . El teorema
tampoco dice que los valores propios de una matriz real sean necesariamente reales, de hecho veremos muy
pronto que los valores propios de una matriz real pueden ser reales o complejos.

12.4. Propiedades básicas de las matrices ortogonales


Del conjunto de transformaciones lineales

x′i = aij xj , i = 1, 2, 3 (12.49)

existe un conjunto particularmente interesante para la Fı́sica: el conjunto más general de transformaciones
lineales homogéneas6 , que deja invariante la norma de los vectores con componentes reales. Si un vector real
arbitrario r se escribe en la forma r = xi ui siendo xi valores reales, entonces las transformaciones lineales
(activas o pasivas) de la forma (12.49) que mantengan invariante la norma de vectores reales, deben cumplir
la condición
xi xi = x′i x′i (12.50)
usando (12.49) esta ecuación se reescribe como

xi xi = (aij xj ) (aik xk )
δjk xj xk = aij aik xj xk

donde hemos tenido en cuenta que los ı́ndices repetidos son mudos. Como las coordenadas xk , xj son arbitrarias
entonces la relación anterior es cierta si y solo si

aij aik = δjk ; j, k = 1, 2, 3 (12.51)

el lector puede demostrar que esta condición tiene la siguiente forma alternativa

aji aki = δjk ; j, k = 1, 2, 3 (12.52)

A cualquier transformación lineal de la forma (12.49) que cumpla las condiciones (12.51) (o su forma
alternativa las Ecs. 12.52) se le denomina una transformación ortogonal. Las Ecs. (12.51) se conocen como
condiciones de ortogonalidad.
Consideremos las condiciones de ortogonalidad (12.51) y escribámoslas en notación matricial
 
aij aik = δjk ⇒ e
aji aik = δjk ⇒ AAe = 1jk
jk

tenemos que
e = 1 ⇒ AAA
AA e −1 e = A−1
= 1A−1 ⇒ A1
6
Volvemos a insistir en el carácter homogéneo de las transformaciones lineales, ya que existen transformaciones lineales inho-
mogéneas (e.g. las traslaciones) que dejan invariante la norma de un vector.
12.4. PROPIEDADES BÁSICAS DE LAS MATRICES ORTOGONALES 295

con lo cual se llega a la relación


e = A−1 ⇔ AA
A e = AA
e =1 (12.53)
Inversamente se puede demostrar que la condición anterior nos conduce a las condiciones de ortogonalidad. De
modo que para las matrices ortogonales la inversa debe coincidir con la traspuesta.
e = 1 se escribe explı́citamente como la Ec. (12.51), en tanto que la condición
Nótese que la condición AA
e
AA = 1, nos lleva a la condición de ortogonalidad (equivalente) dada por la Ec. (12.52). Mnemotécnicamente,
los elementos matriciales del producto AA e (AA), e se obtienen como un producto punto entre los arreglos
vectoriales formados por las columnas (filas) de la matriz A, (ver Ec. 13.13 en pag 344 y comentarios). Por
tanto, en una matriz ortogonal el producto punto entre diferentes filas, o entre diferentes columnas debe ser
cero y el producto punto de una fila o columna consigo misma debe ser uno.
De la condición (12.53) se puede ver que el inverso de una matriz ortogonal es también una matriz ortogonal.
En el caso de las rotaciones (que son operaciones que claramente conservan la norma de los vectores) esto es
de esperarse ya que geométricamente sabemos que si realizamos una rotación, existe la rotación inversa que
me devuelve a la configuración original.
En lo que concierne al determinante de una matriz ortogonal, vemos que al combinar (12.19) (12.21) y
(12.53) se obtiene que
   
det AAe = 1 = det A e (det A) ⇒

(det A)2 = 1 ; det A = ±1

vemos entonces que el determinante de una matriz ortogonal es más o menos uno. Por razones que veremos más
adelante, las transformaciones ortogonales de determinante +1 se denominan propias y las de determinante
−1 se denominan impropias.
De otra parte, existe otra forma geométrica de caracterizar a las matrices ortogonales reales en un enfoque
pasivo. Este es el conjunto más general de matrices reales que me convierte una base ortonormal real en otra
base ortonormal real, esto se demostrará como caso especial de un contexto más general en la sección 12.9.
Esta caracterı́stica es muy importante ya que usualmente estamos interesados en pasar de un conjunto de
ejes ortogonales a otro conjunto de ejes también ortogonales y adicionalmente conservar la unitariedad de los
vectores base.
Cuando el autovalor es complejo, entonces en general su correspondiente vector propio también tendrá com-
ponentes complejas. Cuando los vectores son complejos, la magnitud al cuadrado de estos se calcula usualmente
de la forma
kxk2 = |xi | |xi | = x∗i xi (12.54)
y la condición de invarianza de esta norma no coincide con la condición de invarianza (12.50). Examinemos en
detalle algunos aspectos de las invarianzas expresadas por (12.50) y (12.54).

12.4.1. Matrices ortogonales y norma de vectores complejos (opcional)


Las matrices ortogonales han sido originalmente construı́das para mantener invariante la norma de vectores
con componentes reales, dicha norma se define usualmente en la forma descrita por la Ec. (12.50)

xi xi = x′i x′i (12.55)

debemos tener presente que en la demostración no se usa en ningún momento el carácter real de los xi ni
tampoco de las componentes de la matriz aij . En conclusión, aunque la motivación original involucra solo
números reales los resultados nos muestran que podemos hacer un enunciado más general

Theorem 10 Sea xT = (x1 , .., xn ) un arreglo vectorial con componentes complejas. El conjunto de transfor-
maciones lineales homogéneas más general que deja invariante la cantidad xi xi , es el conjunto de matrices
e = A−1 .
complejas A que cumplen la condición A
296 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

El punto es que en la mayorı́a de los casos, la norma de vectores complejos no se define como xi xi sino en la
forma xi x∗i como ya se discutió. No obstante, existe una importante excepción, en relatividad especial cuando
usamos el espacio de Minkowski con eje temporal imaginario, definimos los vectores complejos (x1 , x2 , x3 , ict)
y su módulo cuadrado7 se define como xi xi = x21 + x22 + x23 − c2 t2 .
Veamos ahora como actúan las matrices ortogonales sobre el módulo cuadrado de un vector complejo cuando
tal módulo se define en la forma xi x∗i , siguiendo el algoritmo para multiplicación de matrices rectangulares se
tiene que
kxk2 = xe∗ x ; x† ≡ x e∗
donde hemos definido la conjugada transpuesta del vector como el adjunto del vector simbolizado x† . Escri-
bimos entonces
kxk2 = x† x
usando la propiedad (12.53) se tiene que si x′ = Ax siendo A una matriz ortogonal, la norma de x′ se escribe
como ′ 2 ∗ ∗
x = xe′ ∗ x′ = (Ax)
] Ax = x e ∗ Ax = x
e∗ A e∗ A−1 Ax = x e∗ (A∗ )−1 Ax
Ahora bien si la matriz es ortogonal real se tiene que A = A∗ y se obtiene la invarianza de la norma usual
para vectores complejos de modo que se llega al siguiente

Theorem 11 Bajo una transformación ortogonal real, la magnitud al cuadrado de vectores complejos definida
en la forma xi x∗i permanece invariante.

Sin embargo, las matrices ortogonales reales no son el conjunto más general de matrices que dejan invariante
la norma de vectores complejos. Más adelante caracterizaremos al conjunto más general de matrices (complejas)
que dejan invariante la norma de números complejos, este conjunto se denomina matrices unitarias y contiene
a las matrices ortogonales reales como subconjunto propio.
Por otro lado multiplicando la Ec. (12.35) por su conjugada transpuesta, podemos escribir

] (Ax) = (λx)
(Ax) g ∗ (λx) ⇒

xe′ x′ = λλ∗ x
e∗ x

y si imponemos la invarianza de la norma del vector complejo ante la transformación se tiene que

kλk2 = 1 (12.56)

en conclusión, todos los valores propios de una matriz que preserva la norma usual de los vectores complejos
tienen norma unidad8 .

12.4.2. Transformaciones ortogonales propias e impropias


Previamente hemos encontrado que las matrices ortogonales solo pueden tener determinante ±1. A con-
tinuación mostraremos que una matriz ortogonal que describe a una transformación contı́nua, no puede ser
descrita por una matriz de determinante −1. Consideremos la matriz ortogonal más simple con determinante
−1 que es menos la identidad
S = −13×3
esta transformación tiene la propiedad de cambiar el signo de cada una de las componentes de los ejes coor-
denados (si la transformación es pasiva). Esta operación nos convierte un sistema coordenado dextrógiro (de
mano derecha) en uno levógiro (de mano izquierda) como se aprecia en la Fig. 12.1, esta operación se denomina
7
Estrictamente, el módulo al cuadrado aquı́ descrito define una pseudonorma en lugar de una norma, ya que el módulo al
cuadrado puede ser negativo en algunos casos.
8
Nótese que en este caso la suposición de que la matriz sea real no es necesaria, de modo que las matrices complejas más
generales que preservan la norma de los vectores complejos (matrices unitarias) también poseen valores propios con norma unidad.
12.4. PROPIEDADES BÁSICAS DE LAS MATRICES ORTOGONALES 297

Figura 12.1: Conversión de un sistema coordenado dextrógiro en uno levógiro (cambio de quiralidad). En la
figura de la derecha, el eje X va hacia adentro del papel. Nótese que en el sistema dextrógiro (de mano derecha)
se tiene que ux × uy = uz en tanto que en el sistema levógiro (de mano izquierda) se tiene que ux × uy = −uz .

inversión de los ejes coordenados9 . Una forma de realizar esta operación es rotar alrededor de un cierto eje
en 180◦ , para luego realizar una reflexión con respecto al plano definido por dicho eje y que pasa por el origen
de coordenadas. Si tomamos por ejemplo el eje Z para la operación de girar 180◦ , vemos que esta operación
debe realizar la transformación x, y, z → −x, −y, z; la cual se puede obtener aplicando sobre el vector columna
(x, y, z) la siguiente matriz
 
−1 0 0
rotación 180◦ alrededor de Z =  0 −1 0 
0 0 1
la matriz de reflexión debe convertir z → −z y dejar inalteradas las otras coordenadas
 
1 0 0
ref lexión respecto al plano XY =  0 1 0 
0 0 −1

la composición de las dos operaciones (tomada en cualquier orden) nos da la matriz de inversión que cambia
de signo todas las coordenadas
 
−1 0 0
Inversión =  0 −1 0  = −13×3
0 0 −1

la naturaleza discreta de esta operación nos dice que una inversión de un sistema dextrógiro a uno levógiro
(cambio de quiralidad), no puede ser realizado por ningún cambio contı́nuo en la orientación de los ejes coor-
denados. Por lo tanto, una inversión no puede corresponder a una transformación contı́nua (por ejemplo, una
rotación contı́nua de los ejes coordenados o el desplazamiento fı́sico de un cuerpo rı́gido). Ahora bien, teniendo
en cuenta que toda matriz ortogonal de determinante −1 se puede escribir como el producto de S = −13×3
con una matriz ortogonal de determinante +1 (e.g. una rotación más una inversión), la argumentación anterior
será válida para todas las matrices ortogonales de determinante −1. En consecuencia, las transformaciones
ortogonales que representan a cualquier transformación contı́nua deben ser de determinante +1. Otra forma de
9
En el sistema dextrógiro ux × uy = uz en tanto que en el levógiro ux × uy = −uz y lo mismo pasa con todos los productos
cruz fundamentales. Esto implica que el algoritmo del producto cruz en el sistema levógiro cambia todos los signos respecto al
algoritmo del dextrógiro. El cambio de un sistema coordenado dextrógiro a uno levógiro o viceversa se denomina un cambio de
quiralidad del sistema coordenado.
298 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

ver esto es teniendo en cuenta que la matriz que representa a una transformación contı́nua, debe evolucionar
en forma contı́nua desde la identidad la cual tiene determinante +1, el cambio repentino a un determinante
−1 no se puede lograr con una transformación contı́nua de los elementos de la matriz.
En virtud de lo anterior, las matrices ortogonales se dividen en dos grandes grupos: Las transformacio-
nes propias (determinante +1) e impropias (determinante −1). Las primeras generan transformaciones
contı́nuas, en tanto que las otras representan una transformación contı́nua combinada con una transformación
discreta de inversión. Un estudio sistemático de las propiedades de transformación de los vectores bajo la ope-
ración de inversión (también conocida como transformación de paridad) nos lleva a clasificar a los vectores y
escalares de acuerdo con tales propiedades de transformación como veremos a continuación.

12.5. Vector asociado a una matriz antisimétrica real 3 × 3


Para el caso particular de tres dimensiones, las matrices antisimétricas reales pueden parametrizarse vec-
torialmente. Una matriz antisimétrica real 3 × 3 se puede parametrizar en la forma
   
0 a12 −a31 0 v3 −v2
Aa = −a12 0 a23  ≡ −v3 0 v1  (12.57)
a31 −a23 0 v2 −v1 0

esta matriz tiene solo tres grados de libertad independientes, de modo que es razonable construı́r una arreglo
vectorial de la forma    
a23 v1
vA ≡ a31 ≡ v2 
   (12.58)
a12 v3
Ahora bien, si aplicamos la matriz a un vector arbitrario x obtenemos
    
0 v3 −v2 x1 v3 x2 − v2 x3
Aa x = −v3 0 v1  x2  = v1 x3 − v3 x1  (12.59)
v2 −v1 0 x3 v2 x1 − v1 x2

las componentes del nuevo vector claramente son idénticas a las obtenidas a través del siguiente producto cruz

Aa x = x × vA (12.60)

De modo que a una matriz antisimétrica real 3 × 3 aplicada a un vector x se le puede asociar un producto
cruz entre x y el vector asociado a la matriz antisimétrica. Inversamente, cualquier producto vectorial se puede
asociar con una matriz antisimétrica actuando sobre un vector, lo cual se puede ver en la siguiente forma

(x × vA )i = εijk xj vk = (εijk vk ) xj ≡ Aaij xj = (Aa x)i

donde hemos definido


Aaij ≡ εijk vk (12.61)
la antisimetrı́a de esta matriz es clara a partir de la antisimetrı́a del tensor de Levi-Civitá εijk . La rela-
ción inversa se obtiene multiplicando la Ec. (12.61) por εijm con suma sobre ı́ndices repetidos y usando la
propiedad εijm εijk = 2δmk

εijm Aaij ≡ εijm εijk vk = 2δmk vk = 2vm


1
vm = εmij Aaij (12.62)
2
por ejemplo
1 1
(vA )1 ≡ v1 = (ε123 Aa23 + ε132 Aa32 ) = [ε123 Aa23 + (−ε123 ) (−Aa23 )] = ε123 Aa23 = a23
2 2
12.6. PROPIEDADES DE PARIDAD DE VECTORES Y ESCALARES 299

donde hemos usado la antisimetrı́a de εijk y de Aaij . Este resultado coincide con la Ec. (12.58).
En resumen, cualquier matriz antisimétrica real 3 × 3 se puede parametrizar como
     
0 a12 a13 0 a12 −a31 0 v3 −v2
Aa = a21 0 a23  = −a12 0 a23  ≡ −v3 0 v1  (12.63)
a31 a32 0 a31 −a23 0 v2 −v1 0

donde los tres grados de libertad se pueden asociar con un vector en la forma
   
a23 v1
1
vA ≡ a31  ≡ v2  ; (vA )m = vm = εmij aij (12.64)
2
a12 v3

si aplicamos esta matriz a un vector arbitrario x obtenemos

Aa x = x × vA (12.65)

inversamente, cualquier producto vectorial se puede asociar con una matriz antisimétrica actuando sobre un
vector en la forma
(x × vA )i = Aaij xj = (Aa x)i ; Aaij ≡ εijk vkA (12.66)
Esto se aplica con frecuencia a cantidades como el torque y el momento angular.

12.6. Clasificación de vectores y escalares por sus propiedades de paridad

Tomemos una matriz antisimétrica Aa y construyamos una matriz equivalente A′a por medio de una
transformación de similaridad
A′a = BAa B−1 (12.67)
nos restringiremos a transformaciones de similaridad con matrices ortogonales reales B. En una transformación
de similaridad ortogonal se conserva la antisimetrı́a i.e. A′a también es antisimétrica, lo cual se puede ver
transponiendo la Ec. (12.67)

g
e′ = B e aB
−1 A e
e =B
eAe aB
e = −BAa B−1 = −A′
Aa a

En el caso de tres dimensiones, recordemos que los argumentos que nos llevaron a las Ecs. (12.58-12.60) nos
indicaron que a toda matriz Aa real antisimétrica y de dimensión 3 × 3 se le puede asociar un arreglo vectorial
vA . Esto implica que la matriz A′a también se puede escribir en la parametrización (12.57), y denotamos los
nuevos elementos como v1′ , v2′ , v3′ . Para encontrar la transformación que nos lleva de vA a vA
′ , comenzaremos

escribiendo la Ec. (12.67) en componentes


 
Aa′ a e = bij Aajk bmk
im = bij Ajk b
km

y utilizando la Ec. (12.61) podemos escribir esta ecuación en términos de las componentes de los vectores
asociados a las matrices antisimétricas
εiml vl′ = bij (εjkr vr ) bmk
multiplicando a ambos lados por εimd y sumando sobre i, m (ı́ndices repetidos), tenemos

εimd εiml vl′ = εimd εjkr bij bmk vr ⇒ 2δld vl′ = εimd εjkr bij bmk vr ⇒
1 1 1
vd′ = εimd εjkr bij bmk vr = εimd εjkr bij bmk δrg vg = εimd εjkr bij bmk (bhr bhg ) vg
2 2 2
300 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

en el último paso hemos usado la condición de ortogonalidad de B, Ec. (12.51). Tomemos por ejemplo d = 3

1 1 1
v3′ = εim3 εjkr bij bmk bhr bhg vg = ε123 εjkr b1j b2k bhr bhg vg + ε213 εjkr b2j b1k bhr bhg vg
2 2 2
1 1
= εjkr b1j b2k bhr bhg vg + εkjr b1k b2j bhr bhg vg = εjkr b1j b2k bhr bhg vg
2 2
donde hemos usado el hecho de que j, k son ı́ndices mudos. Sumando explı́citamente sobre h, y agrupando las
expresiones que se contraen, resulta

v3′ = (εjkr b1j b2k b1r ) (b1g vg ) + (εjkr b1j b2k b2r ) (b2g vg ) + (εjkr b1j b2k b3r ) (b3g vg ) (12.68)

los dos primeros sumandos de la derecha se anulan en virtud de la antisimetrı́a de εjkr . Por ejemplo, en
εjkr b1j b2k b1r para k = 1, aparecen ε213 b12 b21 b13 + ε312 b13 b21 b11 = 0, y similarmente para k = 2, 3. Tenemos
entonces10
v3′ = (εjkr b1j b2k b3r ) (b3g vg ) = (det B) (b3g vg )
procediendo de forma similar con las otras componentes obtenemos:

vi′ = (det B) (big vg ) (12.69)

esto a su vez se puede interpretar como la propiedad de transformación para el arreglo vectorial vA asociado a
la matriz Aa . El arreglo vectorial vA transforma bajo una transformación de similaridad ortogonal en la forma

vA = (det B) BvA (12.70)

si comparamos este comportamiento con el del vector posición bajo transformaciones ortogonales

r′ = Br (12.71)

notamos que la transformación de vA es similar a la del vector posición excepto por el factor det B. Para
transformaciones propias (i.e. det B = +1) ambas transformaciones son idénticas y definiremos un vector en
R3 como una tripla que bajo transformaciones ortogonales propias cambia con la prescripción dada en la Ec.
(12.71). En contraste, ambas transformaciones poseen un signo diferente bajo transformaciones ortogonales
impropias. Recordando además que una transformación impropia consiste en una transformación propia junto
con una inversión, se deduce que bajo la transformación de inversión, el cambio de vA difiere en un signo con
respecto al cambio del vector posición r. El vector posición r invierte su signo bajo inversión en tanto que vA
permanece inalterado ante dicha operación. Esto induce a definir dos tipos de vectores

1. Vectores polares: aquellos que bajo el operador de inversión, invierten el signo de sus componentes. El
vector posición (con origen fijo) es un prototipo para estos vectores.

2. Vectores axiales o pseudovectores: aquellos que permanecen inalterados ante una operación de inversión,
el vector vA asociado a una matriz antisimétrica es el prototipo para esta clase de vectores.

b definido
Una manera de establecer sistemáticamente esta clasificación es a través del operador paridad P
como aquél que invierte todas las coordenadas xi → −xi . Una forma útil de obtener un escalar es a través del
producto punto, por ejemplo el producto punto r·r no cambia su signo bajo paridad ya que cada vector cambia
su signo. En general, el producto punto entre dos vectores polares no cambia su signo bajo paridad y serán
el prototipo de los verdaderos escalares. Por otro lado, el producto punto de un vector polar con uno axial
invierte su signo bajo paridad, es decir, difiere del comportamiento de un verdadero escalar y se le denomina
10
En sı́ntesis, los términos de la forma εjkr bmj bnk bpr serán nulos si por lo menos dos de los ı́ndices m, n, p coinciden. Si m, n, p
son todos distintos, se obtiene el determinante si están en orden cı́clico, y menos el determinante si están en orden anti-cı́clico.
12.7. TRANSFORMACIONES ORTOGONALES PROPIAS 301

un pseudoescalar. Si S es un escalar, SA un pseudoescalar, VP un vector polar y VA un vector axial, se


obtiene
b
PS b A = −SA ; PV
= S ; PS b P = −VP ; PV b A = VA ; P b (SVP ) = −SVP
b (SA VA ) = −SA VA ; P
P b (VA · VP ) = − (VA · VP ) ; P
b (VA · VA ) = (VA · VA )
b (VP · VP ) = (VP · VP ) ; P
P b (SA SP ) = −SA SP ; P
b (SVP ) = −SVP ; P
b (SVA ) = SVA

Un ejemplo muy común de vector axial es aquél que proviene del producto cruz de dos vectores polares

VA = V1 × V2

lo cual se puede ver teniendo en cuenta que bajo inversión de los ejes coordenados, cada vector V1 y V2
invierte su signo (por ser polares). Ejemplos comunes son el momento angular y el torque

L = r×p ; τ = r×F

similarmente el producto cruz de un vector axial por uno polar es un vector polar. De lo anterior y teniendo
en cuenta la fuerza de Lorentz
F = q (v × B)
se vé que si postulamos que la carga eléctrica es un escalar, el campo magnético debe ser un vector axial ya
que F y v son vectores polares. Este hecho es consistente con la ley de Biot-Savart que nos describe la integral
de un vector axial diferencial ya que es el producto cruz de dos vectores polares (de la forma dl × b r/r 2 ), la
integración es entonces un vector axial.
Desde un punto de vista pasivo se puede ver porqué un vector polar invierte su signo bajo inversión. El
vector permanece inalterado en tanto que los ejes coordenados se invierten, de modo que las componentes en
el nuevo sistema coordenado aparecen invertidas. ¿Que ocurre con un vector axial? ocurre que un vector axial
lleva consigo una convención de “quiralidad”. Bajo inversión, un sistema coordenado dextrógiro se convierte
en uno levógiro, si tomamos el producto cruz de dos vectores polares
(1) (2) (2) (1)
VAi = VP j VP k − VP j VP k ; i, j, k en orden cı́clico

el orden cı́clico requerido en esta ecuación implica un cambio similar desde la regla de la mano derecha hacia la
regla de la mano izquierda. Por lo tanto, incluso en una interpretación pasiva, hay un cambio real de dirección
de este producto cruz bajo inversión.

12.7. Transformaciones ortogonales propias


La anterior discusión nos motiva a restringir nuestro estudio a las transformaciones ortogonales propias
dado que estaremos interesados en transformacioes contı́nuas. La propiedad de ortogonalidad usada en la forma
(12.53) nos lleva a la propiedad
e =1−A
(A − 1) A e

tomando el determinante a ambos lados


h i   ^
e = det 1 − A
[det (A − 1)] det A e e
⇒ [det (A − 1)] = det 1 − A

e = det A = 1. Puesto que la matriz identidad es simétrica, se tiene que


donde hemos usado det A

det (A − 1) = det (1 − A) ⇒ det (A − 1) = det [− (A − 1)]

y aplicando la propiedad (12.25) para matrices de dimensión impar

det (A − 1) = − det (A − 1) para n impar


det (A − 1) = 0 para n impar (12.72)
302 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

y comparando con la ecuación general de valores propios (12.38) se observa que λ = 1 es una solución para tal
ecuación. En conclusión, para una matriz ortogonal propia de dimensión impar, uno de los valores propios de
la matriz es λ = +1. Es importante enfatizar que esta conclusión solo es válida para matrices de dimensión
impar en virtud del uso de la Ec. (12.25). Para n par, básicamente se llega a una identidad trivial y no a
(12.72). Adicionalmente, recordemos que si la matriz A es real, se tiene que si λ es solución de la ecuación
secular, también lo será λ∗ .

12.7.1. Matrices ortogonales reales propias en tres dimensiones


Para el caso especı́fico de tres dimensiones, es posible obtener más propiedades sobre los valores propios.
Dado que la dimensión es impar, tenemos al menos un valor propio igual a la unidad. Por convención designemos
λ3 = +1 de modo que queremos obtener información sobre λ1 y λ2 . Ya hemos demostrado que el determinante
de una matriz es invariante ante una transformación de similaridad. Por lo tanto, el determinante de A coincide
con el de la matriz λ en virtud de la relación (12.43), por lo tanto para matrices ortogonales propias se tiene
que11
|A| = λ1 λ2 λ3 = λ1 λ2 = 1 (12.73)

y recordando que los valores propios son de módulo unidad para las matrices unitarias y en particular para las
matrices ortogonales reales (ver Ec. 12.56 y su discusión), tenemos

kλ1 k = kλ2 k = λ3 = +1 (12.74)

todo complejo unitario se escribe de la forma eiθ . Teniendo en cuenta las Ecs. (12.73) y (12.74) podemos
escribir

λ1 = eiΦ1 ; λ2 = eiΦ2 ; λ3 = 1
λ1 λ2 = 1 = eiΦ1 eiΦ2 ⇒ Φ1 = −Φ2 ≡ Φ

finalmente, la estructura de valores propios se escribe como

λ1 = eiΦ ; λ2 = e−iΦ ; λ3 = 1 (12.75)

Vemos que λ1 es el complejo conjugado de λ2 lo cual es consistente con el hecho de que si la matriz A es
real, λ∗ es solución de la ecuación secular, siempre que λ lo sea. Esto a su vez implica que λ1 y λ2 son ambos
complejos o ambos reales. Son reales cuando Φ = 0, ±π y complejos en otros casos. Tenemos entonces tres
posibles estructuras

1. Cuando Φ = 0, todos los autovalores son +1. La matriz λ es la identidad y es fácil ver que A también lo
es (la matriz identidad tiene la misma representación en cualquier base), este caso es la solución trivial

2. Cuando Φ = ±π, λ1 = λ2 = −1, y λ3 = 1. La transformación descrita por la matriz λ, se puede


considerar como una inversión en dos ejes coordenados manteniendo el tercero inalterado, como se puede
ver si usamos estos valores de λi en la matriz (12.42) y la aplicamos a un vector arbitrario. Igualmente
se puede ver como una rotación de π con respecto al tercer eje. Dado que A es equivalente a λ, podemos
decir que dada la base u1 , u2 , u3 en que se escribió A, podemos llegar a una nueva base u′1 , u′2 , u′3 en la
cual la representación matricial es λ, y las inversiones y rotaciones ya descritas involucrarı́an a los ejes
X ′Y ′Z ′.

3. Φ 6= 0, ±π, en este caso λ1 y λ2 son complejos y λ1 = λ∗2 .


11
Esto es válido siempre que la matriz sea diagonalizable. En la sección 12.12, veremos que la matrices ortogonales reales son
diagonalizables.
12.8. MATRIZ ADJUNTA 303

12.8. Matriz adjunta


Para definir la norma de un vector complejo en forma matricial podemos escribir

kxk2 = x∗i xi ⇔ kxk2 = x


e∗ x

nótese que hemos tenido que escribir a la izquierda el vector traspuesto (es decir vector fila) a fin de que la
e∗ se obtiene al conjugar
operación esté definida según la discusión en la sección (12.1.2). La matriz rectangular x
y trasponer la matriz rectangular x, vamos a definir a x e∗ como la adjunta de la matriz x y la denotamos con
un obelisco †
x† ≡ xe∗ (12.76)
vamos a definir ahora una función compleja de los vectores columna x e y en la forma

(x, y) ≡ x† y = x∗i yi

esta operación cumple con las propiedades de un producto interno i.e.

(x, y) = (y, x)∗ ; (x,αy + βz) = α (x, y) + β (x, z) ; (αx + βy, z) = α∗ (x, z) + β ∗ (y, z) ; (x, x) = kxk2
(12.77)
vemos que si hacemos x = y se obtiene la norma al cuadrado del vector x. Adicionalmente, si los vectores
son reales esta operación me genera el producto punto. En general, diremos que un vector x es unitario o
normalizado si (x, x) = kxk2 = 1, y dos vectores x e y serán ortogonales si (x, y) = 0.
Por otra parte, si transformamos el vector x a través de cierta matriz

x′ ≡ Mx (12.78)

y realizamos el producto escalar o producto interno


† 
C = x′ y = x′ , y

nos preguntamos ahora como debe transformar el vector y (sin alterar al vector x) de modo que este producto
interno permanezca intacto, es decir de modo que
†  
x′ y = x† y′ ⇔ x′ , y = x, y′ (12.79)

siendo y′ la correspondiente transformación en y denotemos entonces

y′ = By (12.80)

a la matriz B la llamamos la matriz adjunta de M. Reemplazando (12.78) y (12.80) en (12.79) resulta



^ y = x† (By) ⇒ x
(Mx)† y = x† (By) ⇒ (Mx) f ∗ y = x† (By)
e∗ M

y definiendo a la conjugada traspuesta de la matriz M en forma análoga a la Ec. (12.76)

f∗
M† ≡ M (12.81)

obtenemos
x† M† y = x† By
dado que esto es válido para todo x e y, se concluye que

B = M†
304 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

donde el sı́mbolo M† indica la conjugada traspuesta de la matriz M, concepto que se extiende naturalmente
de la definición análoga para vectores columna. La matriz adjunta de M es entonces su conjugada traspuesta.
En notación de producto interno escribimos
 
(Mx, y) = x, M† y (12.82)

Veremos que varias propiedades interesantes de transformación se traducen en propiedades de la matriz adjunta.
Es fácil ver las siguientes propiedades
 †
M† = M ; (AB)† = B† A† ; det M† = (det M)∗ (12.83)

a continuación veremos algunas matrices especiales relacionadas con la adjunta de una matriz.

12.9. Matrices unitarias y cambios de base (opcional)


Nos preguntamos ahora por el conjunto más general de matrices que al transformar a ambos vectores deja
invariante el producto interno i.e.
 †
(x, y) = x′ , y′ ⇔ x† y = x′ y′ con x′ ≡ Ux ; y′ ≡ Uy

resulta entonces que


x† y = (Ux)† (Uy) = x† U† Uy
al ser válido para todo x y para todo y resulta

U† U = 1 (12.84)

U† es entonces la inversa a izquierda de la matriz U pero recordando que para matrices cuadradas la inversa
a izquierda es igual a la inversa a la derecha resulta

U† = U−1 (12.85)

En particular, si x = y observamos que estas transformaciones dejan invariante la norma del vector x. Por lo
tanto la propiedad (12.85) define al conjunto más general de transformaciones lineales homogéneas que preser-
van el producto interno y en particular la norma de los vectores. A las matrices que cumplen esta propiedad se
les denomina matrices unitarias. Cuando los elementos matriciales son complejos, la magnitud de los vectores
(que en general tendrán también componentes complejas), no será invariante bajo una transformación con
matrices ortogonales complejas. Las matrices unitarias son matrices complejas que mantienen invariante la
norma de vectores complejos. Los valores propios de las matrices unitarias poseen módulo unidad como se
demostró en (12.56) pues debemos recordar que la única condición que se usó para llegar a (12.56) fué la
preservación de la norma de los vectores (reales o complejos) ante la transformación asociada a la matriz (real
o compleja). El determinante se obtiene de la propiedad (12.84)
 
det U† U = 1 ⇒ det U e ∗ det U = 1 ⇒ (det U)∗ det U = 1

|det U|2 = 1 ⇒ det U = eiθ

de modo que el determinante al igual que los valores propios es un número complejo con norma unidad. Esto
es consistente con el hecho de que cuando la matriz es diagonalizable12 , el determinante es el producto de sus
valores propios. En este caso todos los valores propios son de norma unidad y por tanto también su producto.
12
En la sección 12.12, veremos que las matrices unitarias son diagonalizables.
12.9. MATRICES UNITARIAS Y CAMBIOS DE BASE (OPCIONAL) 305

Existe otra propiedad fundamental de las matrices unitarias que con frecuencia la literatura toma como
definición. Una matriz es unitaria si y solo si transforma cualquier base ortonormal en otra base ortonormal.
Para verlo, sea {ui } un conjunto de vectores ortonormales i.e.

(ui , uj ) = δij

transformemos cada elemento ui de la base con una matriz unitaria i.e. u′i = Uui tenemos que

u′i , u′j = (Uui , Uuj ) = (ui , uj )

donde hemos usado la definición de matriz unitaria como aquella que no altera el valor del producto interno.
Por lo tanto 
u′i , u′j = (ui , uj ) = δij
recı́procamente, pensemos en el conjunto más general de transformaciones lineales homogéneas que nos llevan
de un sistema coordenado ortonormal a otro ortonormal, tenemos entonces

u′i , u′j = (ui , uj ) = δij ; u′i = Mu ⇒
      
u′i , u′j = (Mui , Muj ) = ui , M† (Muj ) = ui , M† M uj ⇒
   
ui , M† M uj = (ui , uj ) = δij

y puesto que ui , uj pertenecen a una base ortonormal arbitraria, vemos que se llega a la condición M† M = 1,
que caracteriza a las matrices unitarias. Esta propiedad es de suma importancia dado que usualmente estamos
interesados en utilizar bases ortonormales incluso cuando cambiamos de base. Si definimos un espacio vectorial
donde los escalares son reales los vectores base están asociados al espacio Rn , en tanto que si los escalares son
complejos hablamos de una base en el espacio unitario Cn de dimensión n donde cada componente representa
un número complejo. El espacio C2 es por ejemplo de gran importancia en la caracterización del espı́n en
mecánica cuántica y los cambios de base en este espacio se realizan con matrices unitarias de dimensión dos.
Para nuestros propósitos estaremos interesados en vectores de Rn en cuyo caso será suficiente trabajar el
subconjunto propio de matrices unitarias reales, es decir el conjunto de transformaciones ortogonales reales13 .
Los cambios de base se realizarán entonces con matrices ortogonales reales propias14 . Recordemos entonces
que ante un cambio de base, un operador activo A cambia su representación matricial en la forma

A′ = BAB−1 (12.86)

y si ambas bases son ortonormales, B es una matriz unitaria u ortogonal real según el espacio en el que
trabajemos.
La condición de unitariedad (12.85) se puede escribir en componentes en la forma siguiente
e∗ = 1 ; U
UU e ∗ U = 1 ⇒ uij u
e∗jk = δik ; e∗ij ujk = δik
u
uij u∗kj = δik ; u∗ji ujk = δik (12.87)

el primer conjunto de ecuaciones (12.87) nos indica que los vectores fila que constituyen a la matriz unitaria
son ortonormales entre sı́. Similarmente, el segundo conjunto de ecuaciones (12.87) muestra la ortonormalidad
de los vectores columna que constituyen la matriz unitaria. Es claro que solo un conjunto de estas relaciones
es independiente y el otro es redundante. Naturalmente, si las componentes son reales las condiciones de
unitariedad (12.87) coinciden con las condiciones de ortogonalidad Ecs. (12.51, 12.52).
Finalmente, cabe enfatizar que un cambio de base en Cn (Rn ) de la forma (12.86) no requiere que la matriz
de transformación sea unitaria u ortogonal. Solo se necesita que la matriz pasiva de transformación sea no
13
Las matrices unitarias complejas mantienen la norma de los vectores que originalmente son reales, pero me pueden llevar un
vector de Rn a un vector de Cn .
14
Una matriz ortogonal real impropia nos llevarı́a a un sistema coordenado izquierdo, y a menos que estemos analizando paridad,
este cambio de quiralidad no es deseable.
306 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

singular. El problema es que la nueva base no será ortonormal lo cual puede traer varias dificultades que
ilustraremos con un sencillo ejemplo, escribamos el producto interno de un cierto conjunto de vectores base en
la forma
(vi , vj ) = gij (12.88)
y denominamos a gij el tensor métrico. Si los vectores unitarios son ortonormales entonces gij = δij . Si la base
es ortogonal pero los vectores base no están normalizados gij es no trivial pero sigue siendo diagonal. Si la
base no es ortogonal ni normal este tensor es además no diagonal. Escribimos x e y en términos de la base y
calculamos el producto interno entre ellos

x = xi vi ; y = yj vj ⇒ (x, y) = (xi vi , yj vj ) = x∗i yj (vi , vj )


⇒ (x, y) = x∗i gij yj

donde hemos usado las propiedades (12.77) del producto interno. En notación matricial

(x, y) = x† Gy (12.89)

Sea un operador lineal A y veamos que relación tiene su representación matricial con la del operador adjunto
B en esta base

(Ax, y) = (x, By) ⇒ (Ax)† Gy = x† G (By)


⇒ x† A† Gy = x† GBy

que nos lleva a la condición


A† G = GB ⇔ B = G−1 A† G (12.90)
nótese que la representación del operador adjunto no está dada por la conjugada traspuesta de la representación
del operador original.
Es fácil ver la condición para que una matriz represente a un operador activo unitario en esta base
 
(Ux, Uy) = (x, y) ⇒ x† U† G (Uy) = x† Gy ⇒ U† GU = G
⇒ G−1 U† G = U−1 (12.91)

En bases no ortonormales, la condición de ortonormalidad entre dos vectores ai y aj se escribe

(ai , aj ) = a†i Gaj = δij (12.92)

Esto nos motiva a introducir una sutil diferencia entre operadores lineales adjuntos, unitarios, etc. y ma-
trices adjuntas, unitarias, etc. Tomemos de ejemplo los operadores unitarios y matrices unitarias para la
discusión. En general la literatura utiliza el término matriz unitaria para los arreglos matriciales que cum-
plen el algoritmo matricial U−1 = U† esta es una definición algebráica. Por otro lado, se define un operador
lineal unitario como aquél que deja invariante el producto interno entre dos vectores arbitrarios, esta es una
definición geométrica y por tanto independiente del sistema coordenado que se use. No obstante, una matriz
unitaria en el sentido aquı́ expuesto solo representa a un operador unitario cuando la base es ortonormal.
Cuando la base no es ortonormal la representación matricial de un operador unitario está dada por el algo-
ritmo (12.91) y la llamaremos representación matricial del operador unitario. Por supuesto, la misma
discusión vale para el concepto de adjunto y otros conceptos que veremos a continuación como hermiticidad,
normalidad, etc.
Lo anterior nos ilustra algunas dificultades que aparecen cuando se toman bases no ortonormales, por esta
razón es usual que los cambios de base se hagan garantizando que se llega a otra base ortonormal i.e. con
matrices unitarias u ortogonales reales. Veremos sin embargo, que las bases no ortonormales nos permiten
resolver un problema modificado de valores propios con muchas aplicaciones en Fı́sica (ver Sec. 12.14).
12.10. MATRICES CON ESPECTRO COMPLETO 307

12.10. Matrices con espectro completo


En lo que sigue asumiremos que la matriz A en cuestión es diagonalizable, y estudiaremos las consecuencias
de esta hipótesis. Esto nos servirá de motivación para estudiar las condiciones requeridas para que una matriz
sea diagonalizable, las cuales se discutirán en la sección 12.1215 .
La diagonalizabilidad de una matriz A es equivalente a decir que si la matriz A es n × n, posee n vectores
propios linealmente independientes (ver sección 12.3, Pág. 12.3), es decir que los vectores forman una base del
espacio E n en el cual actúa la matriz16 . Denotaremos a los valores propios diferentes como λi con i = 1, . . . , p y
(k)
a los n vectores propios linealmente independientes como vi donde n ok = 1, ..., gi ; siendo gi el grado de
(k)
degeneración de λi . Puesto que los vectores propios del conjunto vi forman una base en E n , podemos
expandir cualquier vector x ∈ E n en esta base
gi
p X g1 g2 gp
X (k)
X (k)
X (k)
X
x= cki vi = ck1 v1 + ck2 v2 + ... + ckp vp(k) (12.93)
i=1 k=1 k=1 k=1 k=1

de acuerdo con el teorema 8, tenemos que


gm
X
xm ≡ ckm vm
(k)
∈ Em , m = 1, 2, . . . , p (12.94)
k=1

donde Em es el subespacio de E n generado por λm , dicho subespacio es de dimensión gm . Dado que todos los
vectores propios forman una base de E n , se tiene que
p
X
gm = n
m=1
n o
(k)
ahora bien, una vez que la base vi se ordena de una manera especı́fica, el conjunto ordenado de coeficientes
n o
(k)
ci definido en la Ec. (12.93) para un vector dado x ∈ E n es único, en virtud de la independencia lineal de
la base. Esto a su vez significa que para un vector dado x ∈ E n , cada uno de los vectores xm ∈ Em definidos
en (12.94) es único. Esto significa que un vector arbitrario de E n tiene una descomposición única de la forma

x = x1 + x2 + . . . + xp ; xm ∈ Em ∀x ∈ E n (12.95)

en otras palabras, cada vector de E n se descompone de una manera única en una suma de vectores xm que
pertenecen a los subespacios Em generados por los valores propios λm . Esto se expresa también diciendo que E n
se descompone en una suma directa de subespacios Em y se escribe
p
X
E n = E1 ⊕ E2 ⊕ . . . ⊕ Ep ≡ Ei , λm ↔ Em (12.96)
⊕m=1

a la componente xm ∈ Em se le llama la proyección del vector x sobre el subespacio Em . Las Ecs. (12.95,
12.96) expresan que el espectro (conjunto de valores propios) de A “llena” el espacio E n , o que su espectro es
completo. Esta es otra forma de expresar el hecho de que exista un conjunto de vectores propios de A que
forman una base de E n .
15
A pesar de que se hará referencia constante a la sección 12.12, dicha sección puede omitirse en una primera lectura, si aceptamos
la hipótesis de que las matrices en cuestión poseen un conjunto completo de vectores propios y comprendemos las consecuencias
de esta hipótesis.
16
Debe anotarse sin embargo, que una combinación lineal de los vectores propios de la base no es necesariamente un vector propio.
Esto se debe a que los vectores propios de esta base están en general asociados a diferentes valores propios. Si la combinación lineal
involucra solo vectores asociados a un valor propio dado, el vector resultante también será vector propio.
308 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

12.11. Matrices Hermı́ticas y simétricas reales


La discusión se orientará asumiendo que las bases utilizadas son ortonormales, a menos que se indique lo
contrario. Hemos definido el operador adjunto de A denotado por A† como aquel para el cual se cumple la
condición  
(Ax, y) = x, A† y , ∀x, y ∈ E n

nos preguntamos por los operadores para los cuales A = A† i.e. para los cuales se cumple

(Ax, y) = (x, Ay) , ∀x, y ∈ E n

Dado que nuestra base es ortonormal, esta condición equivale a la igualdad de la matriz representativa
con su adjunta (conjugada transpuesta). Se dice que una matriz es hermı́tica o autoadjunta si dicha matriz
coincide con su adjunta i.e.
A=A e ∗ ≡ A†

Es fácil demostrar que para una matriz hermı́tica de dimensión arbitraria, su naturaleza hermı́tica se
preserva ante una transformación de similaridad unitaria. Bajo una transformación de similaridad

A′ = BAB−1

la matriz conjugada traspuesta i.e. la adjunta, estará dada por


†
A′† = B−1 AB†
†
donde hemos usado el carácter hermı́tico de A. Si la matriz B es unitaria entonces B−1 = B† y B−1 =
†
B† = B de lo cual resulta
A′† = BAB−1 = A′
debe enfatizarse que la si la matriz del cambio de base B no es unitaria, en general la matriz transformada no
será hermı́tica17 . Cuando los elementos matriciales son reales las matrices hermı́ticas se vuelven simétricas y
las matrices unitarias se vuelven ortogonales. Por lo tanto las matrices simétricas reales y ortogonales reales
son casos particulares de matrices hermı́ticas y unitarias respectivamente.
Veamos algunas propiedades de las matrices hermı́ticas: hemos visto que la solución del problema de valores
y vectores propios de una cierta matriz A, nos permite obtener una matriz que genera un cambio de base que
diagonaliza a la matriz A. La matriz de transformación (más exactamente su inversa), se obtiene adjuntando
los arreglos columna que corresponden a los vectores propios y la matriz diagonalizada consta de los valores
propios colocados en la diagonal de la nueva matriz ver Ecs. (12.43, 12.42). Este procedimiento tiene sin
embargo algunos problemas en el caso general, por ejemplo si no todos los vectores propios son linealmente
independientes la matriz que debe diagonalizar se vuelve singular y por tanto, no existe su inversa. Esto implica
que en particular pueden existir problemas con la diagonalización cuando hay valores propios degenerados. Sin
embargo, el proceso de diagonalización es en general más sencillo para las matrices Hermı́ticas.
Una de las primeras propiedades interesantes de las matrices hermı́ticas es que sus valores propios son
reales, aún cuando la matriz sea compleja. Denotaremos a la matriz Hermı́tica como H para enfatizar en su
hermiticidad, además V(j) denotará el j−ésimo vector propio, con valor propio λj . La ecuación de valores
propios se escribe como
HV(j) = λj V(j)
17
Esto a su vez se puede ver teniendo en cuenta que la nueva base no será ortonormal. En la nueva base el operador sigue siendo
g
hermı́tico puesto que esta condición es intrı́nseca, pero ya no se cumplirá la condición matricial A′ = A ′∗ . De la Ec. (12.90) vemos

que la condición para que la matriz A represente a un operador hermı́tico en una base no ortonormal es

A′ = G−1 A′† G
12.11. MATRICES HERMÍTICAS Y SIMÉTRICAS REALES 309

haciendo el producto por la izquierda con el vector adjunto (conjugado traspuesto) correspondiente al vector
propio n−ésimo tenemos
V(n)† HV(j) = λj V(n)† V(j) (12.97)

para la ecuación de valores propios correspondiente al n−ésimo vector propio

HV(n) = λn V(n)

podemos tomar la ecuación adjunta


V(n)† H† = λ∗n V†(n)

y multiplicamos por el vector (columna) V(j) a la derecha de ambos miembros, teniendo en cuenta además
que la matriz H es hermı́tica, se obtiene

V(n)† HV(j) = λ∗n V(n)† V(j) (12.98)

restando las Ecs. (12.97, 12.98) resulta

(λj − λ∗n ) V(n)† V(j) = 0 (12.99)

si j = n se obtiene que
2

(λn − λ∗n ) V(n) = 0

de modo que λn = λ∗n y los valores propios son reales como se querı́a demostrar. Ahora bien, si j 6= n y λj 6= λn ,
es decir si estos valores propios no son degenerados, se obtiene de (12.99)
 
(λj − λn ) V(n)† V(j) = 0 ⇒ V(n)† V(j) = V(n) , V(j) = 0

donde hemos usado el carácter real de los valores propios. Vemos entonces que los vectores propios corres-
pondientes a valores propios diferentes son ortogonales. Este hecho tiene un gran alcance en términos de
aplicaciones. Por ejemplo en ecuaciones diferenciales, muchos operadores diferenciales son lineales y hermı́ti-
cos, tales operadores actúan sobre espacios vectoriales de funciones (usualmente de dimensión infinita) sus
valores propios son reales y sus vectores propios son ortogonales al menos en ausencia de degeneración, estos
vectores propios permiten generalmente construı́r una base para el espacio vectorial en cuestión. En consecuen-
cia el problema de Sturn-Liouville se reduce a un problema de valores propios de un operador hermı́tico que al
ser lineal admite una representación matricial (aunque estas matrices son en general de dimensión infinita lo
cual introduce problemas que no trataremos aquı́). Es necesario enfatizar sin embargo que los vectores propios
asociados a valores propios degenerados no son necesariamente ortogonales.
En la sección 12.12 veremos que las matrices hermı́ticas tienen un espectro completo. Por tanto, si H es
una matriz hermı́tica n × n, podemos inducir una descomposición del espacio E n en los subespacios generados
por los vectores propios λm de H. Ası́ mismo un vector arbitrario x de E n se puede descomponer de manera
única en proyecciones a lo largo de cada subespacio Em

E n = E1 ⊕ E2 ⊕ . . . ⊕ Ep , λm ↔ Em (12.100)
n
x = x1 + x2 + . . . + xp ; xm ∈ Em ∀x ∈ E (12.101)

Ahora bien, puesto que los vectores propios asociados a valores propios diferentes son ortogonales para las
matrices hermı́ticas, tenemos que todos los vectores de Ei son perpendiculares a todos los vectores de Ej si
i 6= j. Esto se indica diciendo que los subespacios {Ek } son perpendiculares entre sı́ y se denota Ei ⊥Ej . Por
tanto, tenemos también que xi ⊥xj para las proyecciones dadas en la Ec. (12.101) y hablamos entonces de
proyecciones ortogonales.
310 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

12.11.1. Matrices reales simétricas


Adicionalmente, si la matriz hermı́tica es real se convierte en una matriz simétrica real y dado que los
valores propios son todos reales, el teorema 9 nos dice que sobre cada subespacio Em podemos construir una
base ortonormal de vectores propios reales, y dado que los subespacios son ortogonales entre sı́, la unión de
las bases ortonormales reales asociadas a cada Em , me generan una base ortonormal real de todo el espacio
E n . En general, para matrices hermı́ticas el espectro será completo en Cn ya que los vectores propios de la
base serán complejos, pero para matrices simétricas reales el espectro será también completo en Rn . El hecho
de que se pueda construir una base ortonormal real de vectores propios implica que es posible encontrar
una matriz ortogonal real18 que diagonaliza a la matriz H. En consecuencia, si partimos de unos ejes en Rn
ortogonales y reales, la transformación me lleva a otro conjunto de ejes de Rn ortogonales y reales (ya que la
matriz diagonalizante es ortogonal real) en donde la matriz es diagonal. Llamaremos a éstos últimos los ejes
principales asociados a la matriz. Los ejes estarán orientados en la dirección de los vectores propios reales
independientes asociados a la matriz. Todo ello conduce a que las operaciones con matrices simétricas reales
se pueden restringir adecuadamente a espacios vectoriales reales Rn .
Tenemos entonces que los valores propios de matrices reales simétricas son reales, y los vectores de una
base ortonormal de vectores propios pueden elegirse como reales. Para enfatizar la importancia de estos hechos,
recordemos por ejemplo que las matrices ortogonales reales en tres dimensiones, solo poseen un valor propio
real excepto en casos triviales y por tanto una sola dirección real asociada a un vector propio (eje de rotación)19 .
Adicionalmente, el hecho de que los valores propios sean reales no garantiza que se puedan elegir reales todos
los vectores propios que forman una base. De hecho, las bases ortonormales de matrices hermı́ticas complejas
estarán constituı́das en general por vectores complejos que no se pueden llevar a forma real (al menos no todos
simultáneamente). Ahora bien, si el espectro o los vectores propios son eminentemente complejos, el problema
de valores propios, la diagonalización de la matriz etc, deberán tratarse en el espacio Cn y no se pueden
restringir al espacio Rn . Esto hace que las matrices simétricas reales jueguen un papel esencial en mecánica
clásica, en donde en general realizaremos operaciones que se restringen al espacio Rn .

12.11.2. Problema de valores propios de matrices hermı́ticas en tres dimensiones


Una propiedad interesante para la matrices hermı́ticas en tres dimensiones es que dados dos vectores
propios ortogonales y sus valores propios correspondientes, el tercer vector propio se puede hallar simplemente
construyendo un sistema coordenado dextrógiro con los dos anteriores. Para ello debemos demostrar que
(p) (p)
si u1 , u2 son vectores propios unitarios ortogonales que generan ejes principales, entonces un vector u3
ortogonal a los anteriores también es vector propio que genera el tercer eje principal20 . Para demostrarlo,
tengamos en cuenta que de acuerdo con la ecuación de vectores propios se cumple por hipótesis que
(p) (p) (p) (p)
Hp u1 = λ1 u1 ; Hp u2 = λ2 u2 (12.102)
(p)†
aplicando ui a la izquierda
(p)† (p) (p)† (p) (p)† (p) (p)† (p)
ui Hp u1 = λ1 ui u1 ; ui Hp u2 = λ2 ui u2 ; i = 1, 2, 3

tendremos entonces
(Hp )i1 = λ1 δi1 ; (Hp )i2 = λ2 δi2
18
Este es un buen punto para hacer notar que la matriz de diagonalización no es única, lo cual se vé de inmediato debido a la
falta de unicidad del conjunto de vectores propios que forman una base. Esta arbitrariedad se puede utilizar también para hacer
que la matriz ortogonal real sea propia.
19
El que una matriz sea real no garantiza que su espectro sea real. Esto está relacionado con el hecho de que la ecuación secular
nos lleva a buscar las raı́ces de un polinomio con coeficientes reales. No obstante, el teorema fundamental del álgebra nos dice que
las raı́ces pueden ser complejas incluso si los coeficientes son reales.
20
Cuando los vectores son complejos n dimensionales, es decir que yacen en el espacio Cn donde cada componente es compleja,
la relación de ortonormalidad se define por (ui , uj ) = u†i uj = δij . Para el caso de vectores reales, el tercer eje principal se puede
generar con u3 = u1 × u2 que garantiza la obtención de ejes a derecha.
12.11. MATRICES HERMÍTICAS Y SIMÉTRICAS REALES 311

de lo cual resulta que


(Hp )21 = (Hp )31 = (Hp )12 = (Hp )32 = 0
el carácter hermı́tico de la matriz nos dice que los otros elementos fuera de la diagonal también son cero.
(p) (p) (p)
De modo que la matriz construı́da en la base u1 , u2 , u3 sı́ es diagonal y en consecuencia el tercer eje es
también un eje principal. Nótese que el carácter hermı́tico de la matriz es necesario para aseverar que el tercer
(p) (p) (p)
eje también es principal. Si la matriz es simétrica real, los ejes definidos por u1 , u2 y u3 también serán ejes
principales.
Ya hemos visto que si los valores propios no son todos distintos no podemos garantizar que los vectores
propios sean ortogonales entre sı́, y debemos en general hacer un proceso de ortogonalización del tipo Gram-
Schmidt. Sin embargo, en virtud de lo anterior, este problema es aún más sencillo en tres dimensiones, al menos
para ejes reales. Supongamos por ejemplo que λ1 = λ2 6= λ3 , en este caso siempre será posible hallar al menos
un vector propio que satisfaga la ecuación de valores propios asociada al valor propio degenerado λ1 , este vector
tiene que ser ortogonal al vector propio asociado a λ3 , estos dos vectores propios ya me determinan dos ejes
principales ortogonales de modo que el tercero se construye simplemente definiendo un sistema coordenado
dextrógiro. En este caso sin embargo podemos decir algo más, si definimos una nueva base en donde rotamos
(p) (p)
solo los vectores u1 y u2 i.e. los vectores asociados a la degeneración, tenemos que
 ′   
u1 cos θ sin θ 0 u1
u′2  = − sin θ cos θ 0 u2 
u3 0 0 1 u3

se puede verificar que los nuevos vectores u′1 , u′2 también son vectores propios con valor propio λ1 = λ2 .
Esto implica entonces que dados dos valores propios degenerados λ1 = λ2 dos vectores propios linealmente
independientes asociados a este valor propio degenerado me definen un plano en donde todos los vectores que
yacen en tal plano son vectores propios. Los ejes principales son entonces cualquier par ortogonal de ejes en
este plano. Tenemos entonces que esta degeneración está asociado a una simetrı́a axial (alrededor del eje X3 ).
En nuestro lenguaje anterior, el espacio R3 se puede escribir como la suma directa de los subespacios
generados por los valores propios diferentes λ1 y λ3 . El subespacio generado por λ1 es de dimensión dos debido
a su degeneración y es el plano R2 expandido por los vectores propios u1 y u2 asociados a λ1 . El subespacio
generado por λ3 es de dimensión uno y es un eje coordenado R expandido por u3

R3 = R2 ⊕ R , λ1 ↔ R2 , λ3 ↔ R

y ya vimos que toda combinación lineal dentro de cada subespacio sigue siendo vector propio con el mismo
valor propio. Es por ello que tenemos la libertad de rotar en el plano generado por u1 y u2 y continuar teniendo
vectores propios u′1 y u′2 asociados a λ1 .
Análogamente, si todos los valores propios son iguales, todas las direcciones del espacio conducen a vec-
tores propios, es decir tenemos una simetrı́a esférica pero en este caso la matriz ya estará diagonalizada y
será proporcional a la identidad, de modo que la degeneración total no representa tampoco un problema en
tres dimensiones.

12.11.3. Matrices simétricas reales en R3


Finalmente, para matrices simétricas reales (i.e. hermı́ticas reales) es interesante la interpretación geométri-
ca que se le puede dar a los ejes principales en R3 . Tomemos un escalar definido por cierto vector unitario real
en la forma
e Hn ≡ H
n (12.103)
si denotamos α1 , α2 , α3 a las componentes de n tenemos

n = αi ui
312 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

y podemos escribir la Ec. (12.103) usando el carácter simétrico de H

αi Hij αj ≡ H ⇒

H11 α21 + H22 α22 + H33 α23 + 2H12 α1 α2 + 2H13 α1 α3 + 2H23 α2 α3 = H

No obstante será más práctico escribir esta ecuación en forma normalizada para lo cual definimos un vector
ρ en la forma
n
ρ≡ √ (12.104)
H
ahora dividimos por H a ambos lados de (12.103) con lo cual queda

eHρ = 1
ρ (12.105)

usando el carácter simétrico de H, esta ecuación se escribe

H11 ρ21 + H22 ρ22 + H33 ρ23 + 2H12 ρ1 ρ2 + 2H13 ρ1 ρ3 + 2H23 ρ2 ρ3 = 1 (12.106)

si la consideramos como una función en tres variables esta es la ecuación de una superficie en el espacio de
configuración con ejes ρ1 , ρ2 , ρ3 . Podemos realizar un cambio de base a través de una matriz ortogonal real
propia B, reescribiendo (12.105) de la siguiente forma
  
e B−1 B H B−1 B ρ
ρ = 1 eB
ρ e BHB−1 B ρ = 1


] BHB−1 (Bρ) = 1
⇒ (Bρ)

y dado que para matrices simétricas reales es posible encontrar una matriz ortogonal real propia que la
diagonalice con una transformación de similaridad, escogemos a B como la matriz de diagonalización (que se
construirı́a con los vectores propios de H) tenemos entonces que BHB−1 = λ siendo λ la matriz diagonal con
los valores propios en la diagonal. Resulta entonces

ρe′ λ ρ′ = 1 ; ρ′ ≡ Bρ (12.107)

Esto implica que en general siempre es posible pasar a un sistema coordenado con ejes ρ′1 , ρ′2 , ρ′3 en donde la
Ec. (12.106) toma su forma normal
λ1 ρ′2 ′2 ′2
1 + λ2 ρ2 + λ3 ρ3 = 1 (12.108)

Si todos los coeficientes λi son positivos, entonces la Ec. (12.108) define la superficie de un elipsoide, estando
los ejes principales del elipsoide a lo largo de los nuevos ejes coordenados. Esto ocurrirá cuando la matriz H
sea una matriz positiva como se discutirá en la sección 12.14. A manera de ejemplo, se sabe que para el tensor
de inercia los momentos principales de inercia (elementos diagonales del tensor) son positivos cualquiera que
sea la inclinación de los ejes, lo cual garantiza que la forma diagonal tiene solo coeficientes positivos. La forma
cuadrática (12.108) es precisamente la forma que tiene la Ec. (12.106) en un sistema de coordenadas en el
cual la matriz simétrica real es diagonal. Es decir los ejes principales que vuelven diagonal a H son los mismos
que llevan a la ecuación de un elipsoide a su forma normal. Los valores propios en consecuencia determinan
las longitudes de los ejes del elipsoide. Si dos valores propios coinciden, el elipsoide tendrá dos ejes iguales de
modo que será un elipsoide de revolución manifestando la simetrı́a axial asociada, si la degeneración es total,
el elipsoide es una esfera manifestando la simetrı́a esférica del problema.
Por supuesto es posible que los coeficientes en (12.108) y por lo tanto los valores propios de la matriz
simétrica asociada no sean positivos, en tal caso estaremos transformando otra clase de superficie (en general
cónicas) a su forma normal.
12.12. MATRICES NORMALES (OPCIONAL) 313

12.12. Matrices normales (opcional)


Hemos visto que una matriz n × n se puede diagonalizar a través de una transformación de similaridad
siempre que se pueda encontrar un conjunto de n vectores propios linealmente independientes, de tal modo
que se pueda construı́r una matriz no singular de diagonalización. Adicionalmente, hemos visto que es deseable
que la diagonalización se pueda realizar a través de una matriz unitaria u ortogonal real a fin de pasar de
una sistema ortonormal a otro sistema ortonormal. Sin embargo, la diagonalización por matrices unitarias no
es posible para cualquier matriz, queremos indagar entonces cual es el conjunto más general de matrices que
pueden ser diagonalizadas por matrices unitarias a través de transformaciones de similaridad.

Definition 12 Decimos que una matriz es normal cuando conmuta con su adjunto, esto lo simbolizamos
como h i
AA† − A† A ≡ A, A† = 0

En esta sección, la notación de paréntesis cuadrados indicará conmutador y no corchete de Poisson. Puede
demostrarse sin embargo, que los conmutadores obedecen un álgebra similar a la de los corchetes de Poisson
Ecs. (8.9-8.12). Es inmediato ver que las matrices hermı́ticas y unitarias son casos particulares de matrices
normales, por tanto todos los resultados que se deriven aquı́ serán válidos para matrices hermı́ticas y unitarias.
Partamos de la hipótesis de que la matriz A es diagonalizable con una matriz unitaria, y veamos las
condiciones que se obtienen con esta hipótesis

UAU† = λ ⇔ UA† U† = λ∗
donde la segunda ecuación es simplemente la adjunta de la primera. Multiplicando las dos ecuaciones en
diferente orden tenemos
     
UAU† UA† U† = λλ∗ ; UA† U† UAU† = λ∗ λ
UAA† U† = λλ∗ ; UA† AU† = λλ∗

donde hemos usado el carácter unitario de U y el hecho de que dos matrices diagonales conmutan entre sı́ (ver
ejercicio 3, Pág. 337). Restando las dos ecuaciones queda
  h   i
U AA† − A† A U† = 0 ⇒ U† U AA† − A† A U† U = U† 0U
⇒ AA† − A† A = 0

por tanto para que una matriz sea diagonalizable con una transformación unitaria, es necesario que la matriz
sea normal. Recı́procamente, es posible probar que si la matriz es normal, entonces es diagonalizable por una
transformación unitaria de similaridad. Probaremos el recı́proco solo para el caso en el cual el espectro de
valores propios no es degenerado.
Veremos antes algunas de las propiedades de las matrices normales. Escribamos la ecuación de valores
propios y su correspondiente adjunta
 
(A − λ1) x = 0 ; x† A† − λ∗ 1 = 0 ⇒
Bx = 0 ; x† B† = 0 ; B ≡ A − λ1 (12.109)

calculemos el siguiente conmutador


h i h i h i
(A − λ1)† , (A − λ1) = A† − λ∗ 1, A − λ1 = A† , A − λ1 − [λ∗ 1, A − λ1]
h i h i h i h i
= A† , A − λ1 = A† , A − A† , λ1 = A† , A = 0
314 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

donde hemos usado las propiedades del conmutador Ecs. (8.9-8.12), el carácter normal de la matriz, y el hecho
de que la identidad conmuta con cualquier matriz. Tenemos entonces que
h i h i
(A − λ1)† , (A − λ1) ≡ B† , B = 0 (12.110)

de modo que la matriz B definida en (12.109) es también normal. Usando (12.109) y (12.110) resulta
 †  
x† B† Bx = 0 = x† BB† x ⇒ B† x B† x = 0 ⇒
 
† 2
B x = 0 ⇒ B† x = 0 ⇒ A† − λ∗ 1 x = 0

por tanto, un autovector de A es también autovector de A† pero con autovalor λ∗ . Partiendo de la ecuación de
valores propios de A† se puede demostrar análogamente que los autovectores de A† también son autovectores
de A. Entonces, para matrices normales, A† tiene los mismos autovectores de A pero sus autovalores son los
conjugados de los autovalores de A.
Usando lo anterior, tomemos ahora la ecuación de valores propios para A† y A en la forma

A† xi = λ∗i xi ; Axj = λj xj

tomando la adjunta de la primera ecuación y multiplicando la segunda ecuación por x†i se tiene

x†i A = λi x†i ; x†i Axj = λj x†i xj

multiplicando la primera ecuación por xj a la derecha y restando las dos ecuaciones resulta

(λi − λj ) x†i xj = 0

para λi 6= λj se tiene que


x†i xj = (xi , xj ) = 0
de modo que los autovectores de una matriz normal correspondientes a autovalores diferentes son ortogonales.
Ahora asumamos que el espectro de valores propios es no degenerado. Si A es una matriz normal n × n,
la no degeneración indica que las n raı́ces de la ecuación secular son todas diferentes, y dado que los vectores
propios asociados a valores propios diferentes son ortogonales, hemos obtenido n vectores propios ortogonales
y por tanto linealmente independientes. El espectro será entonces completo. Lo anterior nos dice además que
el subespacio generado por cada valor propio es unidimensional.
Adicionalmente, esto significa que si normalizamos los n vectores propios ortogonales, al construı́r la matriz
de diagonalización sus columnas serán ortonormales (en el sentido del producto interno) y por tanto formarán
un matriz unitaria.
La dificultad cuando hay degeneración, radica en que el número de raı́ces diferentes p, es menor a la
dimensionalidad del espacio n. Podemos garantizar la construcción de p vectores ortogonales (linealmente
independientes), pero no podemos garantizar a priori que se puedan construı́r n vectores propios linealmente
independientes.
Vamos a tomar la hipótesis de espectro completo como válida para el caso degenerado y exploraremos
sus consecuencias. En este caso, los valores propios degenerados deben generar subespacios de más de una
dimensión, a fin de que el espacio completo E n se pueda escribir como suma directa de estos subespacios, como
se aprecia en la Ec. (12.96). De acuerdo con la discusión de la sección 12.10, la base de vectores propios que
genera a cada subespacio Ei se puede ortonormalizar, y al igual que en la sección 12.11, los espacios Ei y Ej con
i 6= j, son ortogonales ya que están asociados a valores propios diferentes. Por tanto, la ortonormalización de
cada Ei conduce a una base ortonormal para todo el espacio E n y con ello podemos formar una matriz unitaria
de diagonalización.
Cuando existe degeneración, hay una mayor libertad para escoger los vectores ortonormales asociados a
los valores propios degenerados. Pues dada una base ortonormal en un Ei dado (de más de una dimensión),
12.13. MATRICES POSITIVAS Y DEFINIDAS POSITIVAS 315

podemos aplicarle una transformación unitaria que nos lleva a otra base ortonormal de Ei , que igual nos sirve
como parte de la base ortonormal de todo el espacio. Nótese que en ausencia de degeneración, cada subespacio
Ei es unidimensional y dada una base ortonormal, lo más que se puede hacer es multiplicar a cada vector por
una fase compleja (transformación unitaria unidimensional), si la base es real y deseamos que continúe siendo
real, los más que se puede hacer es multiplicar cada vector por ±1.
Tenemos entonces que una matriz es normal si y solo si puede diagonalizarse con una matriz unitaria.
Este hecho se conoce usualmente como teorema espectral. Nótese que dicho teorema no prohibe que otras
matrices diferentes a las normales puedan ser diagonalizables. Sin embargo, si una matriz no es normal puede
no ser diagonalizable, y si lo es, esta diagonalización debe obtenerse con una transformación de similaridad no
unitaria.
Ya hemos dicho que las matrices unitarias y hermı́ticas son normales. Por tanto, una matriz unitaria
puede ser diagonalizada por otra matriz unitaria ¿que significado puede tener la diagonalización de una matriz
unitaria por otra matriz unitaria?. Esto tendrá sentido geométrico si la matriz que se diagonaliza es activa
(por ejemplo una matriz que representa la rotación de un vector en Cn o en Rn ) en tanto que la matriz que
diagonaliza debe ser pasiva (reorientación de los ejes en Cn o en Rn ).

12.13. Matrices positivas y definidas positivas


Un conjunto importante de matrices hermı́ticas son las matrices positivas y definidas positivas

Definition 13 Una matriz hermı́tica H de dimensión n × n se denomina positiva si se cumple la relación

a† Ha ≥ 0 ; ∀a ∈ Cn (12.111)

adicionalmente, si existe por lo menos un vector a 6= 0 para el cual esta forma bilineal se anule, se dice que la
matriz es positiva singular. Si a = 0 es el único vector que anula a la forma bilineal, se dice que la matriz es
definida positiva. Si solo sabemos que se cumple la condición (12.111), diremos simplemente que la matriz es
positiva.

La denominación de matriz positiva está relacionada con la estructura de su espectro

Theorem 14 Una matriz hermı́tica H de dimensión n × n es positiva si y solo si sus valores propios son
no-negativos.

Demostración: Supongamos primero que H es positiva. Tomemos a = xj siendo xj un vector propio


asociado al valor propio λj . De (12.111) se tiene que

x†j Hxj ≥ 0 ⇒ λj x†j xj = λj kxj k2 ≥ 0 , no suma sobre j

por tanto λj ≥ 0.
Ahora suponemos que los valores propios de H son no-negativos, y llegamos a que la matriz es positiva.
Para ello recurrimos al hecho de que para una matriz hermı́tica es posible encontrar una base ortonormal
completa {xj } de vectores propios, donde xj está asociado a un λj dado21 . Por tanto, todo vector a ∈ Cn se
puede escribir como combinación lineal de n vectores propios xj ortonormales de H, en consecuencia

a† Ha = (ci xi )† H (cj xj ) = c∗i cj x†i Hxj = c∗i cj λj x†i xj = c∗i cj λj δij


a† Ha = kci k2 λi ≥ 0 (12.112)

donde en el último paso usamos el carácter no-negativo del espectro. QED.


El siguiente teorema justifica la introducción de la terminologı́a definida positiva y singular positiva
21
Aquı́ no usamos ı́ndice de degeneración, simplemente j = 1, 2, . . . , n, y puede que algunos λ′ s tengan el mismo valor.
316 CAPÍTULO 12. INTERLUDIO: MATRICES, VECTORES Y TENSORES

Theorem 15 Una matriz hermı́tica es definida positiva si y solo si todos sus valores propios son estrictamente
positivos. Una matriz hermı́tica es singular positiva si y solo si todos sus valores propios son no-negativos, y al
menos uno de ellos es nulo. En particular, esto implica que las matrices singulares positivas no son invertibles,
en tanto que las definidas positivas son invertibles.

Demostración: Supongamos que la matriz hermı́tica tiene valores propios estrictamente positivos. Si
a 6= 0 en la Ec. (12.112), entonces uno o más de los coeficientes ci es no nulo y dado que cada λi > 0, es claro
que a† Ha en (12.112), es mayor que cero, de modo que la matriz es definida positiva. Recı́procamente, si H
es definida positiva y hacemos a = xi vector propio con valor propio λi , obtenemos
x†i Hxi = kci k2 λi > 0 no suma sobre i
donde hemos usado el hecho de que xi 6= 0 y el carácter definido positivo de H.
La negación de estas implicaciones conduce al resto del teorema22 . Sin embargo, lo ilustraremos explı́cita-
mente para estudiar el comportamiento de las matrices singulares positivas.
Partimos primero de que la matriz es singular positiva, entonces existe por lo menos un vector a 6= 0 tal
que
a† Ha = 0 ; a 6= 0
escribiendo a = ci xi como combinación lineal de vectores propios xi de H, y haciendo un procedimiento
análogo al que nos llevó a (12.112), resulta
a† Ha = kci k2 λi = 0 ; a 6= 0
puesto que a 6= 0, hay uno o varios ci no-nulos. Dado que λi ≥ 0, es necesario que todos los valores propios
asociados a coeficientes ci no nulos sean cero. Por tanto, si a = ci xi 6= 0, es un vector que genera una
forma bilineal nula con H, los valores propios asociados a todos los vectores propios que intervienen en esta
combinación lineal deben ser nulos. Pueden existir por supuesto, mas valores propios nulos (i.e. un mayor grado
de degeneración de λ = 0), si existen varios vectores propios ak 6= 0, linealmente independientes que anulen
a la forma bilineal. El grado de degeneración del valor propio nulo será entonces la dimensión del subespacio
generado por λ = 0.
Recı́procamente, supongamos que cada λi ≥ 0, y que existe por lo menos un λk = 0. Tomando a = xk i.e.
como uno de los vectores propios asociado a λk , la forma bilineal queda
x†k Hxk = λk x†k xk = λk kxk k2 = 0 ; xk 6= 0
de modo que hay por lo menos un vector diferente de cero que anula la forma bilineal.
Finalmente, puesto que las matrices positivas son diagonalizables con una transformación de similaridad, el
determinante es el producto de los valores propios. Por tanto, el determinante de una matriz definida positiva
es positivo y la matriz es invertible, en tanto que el determinante de una matriz singular positiva es cero y por
tanto es no invertible. QED.

12.13.1. Matrices simétricas reales que son positivas


Cuando la matriz hermı́tica se vuelve real, es decir cuando tenemos una matriz simétrica real, la condición
de positividad se puede expresar de una manera más sencilla.

Theorem 16 Una matriz simétrica real M es positiva si y solo si


e Mv ≥ 0
v ; ∀v ∈ Rn (12.113)
Adicionalmente, M es definida positiva si y solo si el único vector de Rn que anula a la forma bilineal es v = 0.
Ası́ mismo, M es positiva singular si y solo si existe al menos un vector no nulo de Rn que anula a la forma
bilineal.
22
En forma un tanto mas precisa, hay que negar las dos implicaciones siguientes: Una matriz positiva es definida positiva si y
solo si todos sus valores propios son estrictamente positivos.
12.14. PROBLEMA DE VALORES PROPIOS MODIFICADO PARA MATRICES POSITIVAS 317

Demostración: En la forma bilineal a† Ma, el vector a es en general complejo. Separaremos a en sus


partes real e imaginaria
a = v + iw (12.114)
de modo que la forma bilineal se escribe como
 
a† Ma = v† − iw† M (v + iw) = v
e Mv + wMw
e + i (e e
vMw − wMv) (12.115)

donde hemos usado el hecho de que por construcción los vectores v, w son reales y por tanto su adjunto
coincide con su traspuesto. La parte imaginaria en (12.115) se anula debido a la simetrı́a de M, de modo que
el factor a† Ma es real y queda en la forma

a† Ma = v
e Mv + wMw
e ; a = v + iw ; v, w ∈ Rn (12.116)

De esta ecuación se deducen fácilmente los resultados del teorema. QED.


Este teorema muestra una vez más que para matrices simétricas reales podemos restringirnos a trabajar
en Rn de forma consistente, incluso si trabajamos originalmente en Cn (este proceso de restringirnos a Rn a
partir de Cn , se conoce como un endorfismo).

12.14. Problema de valores propios modificado para matrices positivas


En el tratamiento de los osciladores acoplados, se llega a una ecuación matricial de la forma

Va = λTa (12.117)
Donde T y V son matrices, λ un número complejo y a un vector columna. Nótese que la Ec. (12.117), es una
ecuación de valores propios con estructura diferente a la mostrada en (12.35), ya que al operar V sobre a no
obtenemos a por una constante sino una constante multiplicada por Ta. Adicionalmente, asumiremos que las
matrices T y V en la Ec. (12.117) son simétricas y reales y además T es definida positiva en tanto que V es
positiva. Con estas hipótesis de trabajo demostraremos las siguientes propiedades:

1. Los valores propios λ son reales no negativos23 . Si además V es definida positiva, los valores propios λ
serán estrictamente positivos.

2. Las componentes de los autovectores a son reales, excepto por una posible f