Note MH
Note MH
Antonio Ponno
Dipartimento di Matematica Pura ed Applicata, email: [email protected]
Indice
3
CAPITOLO 1
Meccanica Hamiltoniana
1. Sistemi Hamiltoniani
Un sistema dinamico Hamiltoniano a n gradi di libertà è definito da una funzione H(q, p) - detta
Hamiltoniana, o funzione di Hamilton - definita su un opportuno insieme Γ ⊂ Rn × Rn - detto spazio
delle fasi - e dalle equazioni di Hamilton ad essa associate:
q̇ = ∂∂pH
. (1)
ṗ = − ∂∂qH
Le componenti di q sono dette coordinate canoniche mentre le componenti di p sono dette momenti
canonici coniugati. L’Hamiltoniana H è una costante del moto, o integrale primo, del sistema, cioè
la derivata rispetto al tempo di H, quando si calcoli quest’ultima sulle soluzioni delle equazioni del
moto (1), è identicamente nulla:
d ∂H ∂H ∂H ∂H
H(q(t), p(t)) = · − · (q(t), p(t)) ≡ 0 .
dt ∂q ∂p ∂p ∂q
Ne segue che, per ogni assegnato dato iniziale (q 0 , p0 ), in corrispondenza del quale la soluzione delle
equazioni (1) esiste, vale la legge di conservazione
H(q(t), p(t)) = E ≡ H(q 0 , p0 ) (2)
e il moto del sistema si svolge sulla superficie di energia costante
SE = {(q, p) ∈ Γ : H(q, p) = E} . (3)
Esempio 1. L’esempio fondamentale di sistema Hamiltoniano è quello di una particella di massa
m che si muove sotto l’azione di un campo di forze di energia potenziale U (q). L’Hamiltoniana del
sistema in questo caso è la funzione energia totale
|p|2
H(q, p) = + U (q) ,
2m
e le equazioni di Hamilton (1) non sono altro che l’ equazione di Newton mq̈ = −∂U/∂q scritta come
sistema del primo ordine:
p
q̇ = m
.
ṗ = − ∂∂qU
Si descriva la superficie di energia costante SE nel caso generico unidimensionale (n = 1) e nel caso
particolare dell’oscillatore armonico n-dimensionale: U (q) = k|q|2 /2, q ∈ Rn (n = 1, 2, 3).
Esempio 2. Si consideri il sistema definito dall’Hamiltoniana
1 1
H(q, p) = |p|2 + q · Vq ,
2 2
dove V è una matrice n × n, simmetrica, definita positiva. Si studino le equazioni di Hamilton e si
descriva la superficie di energia costante SE .
5
6 1. MECCANICA HAMILTONIANA
Data una qualsiasi funzione1 F definita su Γ, la sua derivata rispetto al tempo lungo le soluzioni
delle equazioni del moto (1) è data da
d ∂F ∂H ∂F ∂H
F (q(t), p(t)) = · − · (q(t), p(t)) . (4)
dt ∂q ∂p ∂p ∂q
Questa identità motiva l’introduzione della parentesi di Poisson
def ∂F ∂G ∂F ∂G
{F, G} = · − · , (5)
∂q ∂p ∂p ∂q
vista come applicazione che ad ogni coppia di funzioni F, G definite su Γ associa una nuova funzione
{F, G} definita su Γ. Utilizzando la parentesi di Poisson, l’equazione (4) si scrive in forma compatta
Ḟ = {F, H} , (6)
e le equazioni di Hamilton (1) possono essere riscritte nella forma
q̇ = {q, H}
. (7)
ṗ = {p, H}
Si verifica immediatamente che le coordinate canoniche q e p soddisfano le relazioni
{q, q} = {p, p} = On , {q, p} = In , (8)
note come parentesi di Poisson fondamentali.
È conveniente a questo punto compattare ulteriormente la notazione adottata, introducendo la
variabile vettoriale
q
x= ∈Γ, (9)
p
in termini della quale le equazioni di Hamilton (1) si scrivono
ẋ = J∇H(x) , (10)
dove
def On In
J = (11)
−In On
è la matrice (2nn) simplettica standard. Tale matrice ha le seguenti proprietà:
J−1 = JT = −J ; J2 = −I2n ; det J = 1 . (12)
La parentesi di Poisson (5) tra due funzioni F (x) e G(x) si scrive
{x, x} = J . (15)
Assegnato un campo vettoriale v(P ) ≡ V (x) su M, una equazione differenziale ordinaria (EDO)
su M si scrive Ṗ = v(P ). Essendo P (t) ≡ P (x(t)), si può proiettare l’EDO sulla base di Tx(t) M e
riscriverla quindi in coordinate locali come ẋ = V (x).
Esempio 4. Una parametrizzazione della sfera S 2 è data da P (θ, φ) = (sin θ cos φ, sin θ sin φ, cos θ),
con x = (θ, φ) ∈]0, π[×[0, 2π[. I due vettori tangenti a S 2 sono τ θ = (cos θ cos φ, cos θ sin φ, − sin θ)
e τ φ = (− sin θ sin φ, sin θ cos φ, 0). Un campo vettoriale su S 2 è una combinazione lineare dei due
vettori tangenti con coefficienti dipendenti da θ e φ:
V (θ, φ) = Vθ (θ, φ)τ θ + Vφ (θ, φ)τ φ .
Una EDO su S 2 è rappresentata (in coordinate locali) dal sistema di due equazioni differenziali
θ̇ = Vθ (θ, φ), φ̇ = Vφ (θ, φ).
Derivata di Lie – Data una qualsiasi funzione F (x) definita su M e data la curva ϕ(t) ∈ M il
cui vettore tangente in ϕ(0) = x è ϕ̇(0) = V (x), si può considerare la composizione F (ϕ(t)), la cui
derivata rispetto a t in t = 0 vale
d
F (ϕ(t)) = V (x) · ∇F (x) = (£V F )(x) .
dt t=0
dove la quantità
def ∂
£V = V · ∇ = V i (31)
∂xi
prende il nome di derivata nella direzione del campo V , o derivata di Lie lungo V . Vale
£V (x) x = V (x) , (32)
identità alla base dell’identificazione che viene fatta spesso tra campi vettoriali e derivate di Lie ad
essi associate.
Serie di Lie – Dato un campo vettoriale V su M, con derivata di Lie associata £V , l’operatore
esponenziale
def
X tk
et£V = [£V ]k (33)
k≥0
k!
prende il nome di serie di Lie associata a V di parametro t, o ”al tempo t”. L’operatore et£V (x)
agisce su funzioni di x definite su M. Si osservi che
d t£V
e = £V et£V = et£V £V . (35)
dt
Queste ultime due relazioni motivano la seguente
Proposizione 2. La soluzione formale del problema di Cauchy
ẋ = V (x) = LV (x) x
(36)
x(0) = ξ
è data dalla serie di Lie
x(t) = et£V (ξ) ξ (37)
10 1. MECCANICA HAMILTONIANA
C Dim. Definiamo
∆(t, s; ξ) = ΦtU (ΦsV (ξ)) − ΦsV (ΦtU (ξ)) = et£U (ξ) es£V (ξ) ξ − es£V (ξ) et£U (ξ) ξ .
Se ∆ ≡ 0 allora anche tutte le sue derivate rispetto a t ed s, calcolate in t = s = 0, sono
identicamente nulle. In particolare
∂2
0≡ ∆(t, s; ξ) = £U (ξ) £V (ξ) ξ − £V (ξ) £U (ξ) ξ .
∂t∂s t=s=0
D’altra parte, se £U £V − £V £U ≡ 0, commutano anche le due serie di Lie associate (lo si prova
immediatamente usando la definizione di esponenziale per serie) e quindi ∆ ≡ 0. B
Dunque il grado di commutatività dei flussi associati ai campi vettoriali U e V dipende dalla
differenza dei prodotti commutati, o commutatore, delle derivate di Lie corrispondenti. Calcolato in
coordinate, tale commutatore si esprime come
def
[£U , £V ] = £U £V − £V £U = Ui ∂i (Vj ∂j ) − Vi ∂i (Uj ∂j ) =
= [Ui (∂i Vj ) − Vi (∂i Uj )]∂j = (U · ∇V − V · ∇U ) · ∇ =
= £U ·∇V −V ·∇U = £[U ,V ] , (42)
dove il campo vettoriale
def
[U , V ] = U · ∇V − V · ∇U , (43)
è detto (con abuso di nome e notazione) commutatore dei campi vettoriali U e V . Dunque il com-
mutatore delle derivate di Lie associate ai campi U e V è la derivata di Lie associata al commutatore
dei campi vettoriali U e V . Si faccia attenzione al fatto che qui e nel seguito, per adeguarsi alla
letteratura esistente, lo stesso simbolo [ , ] viene usato per indicare oggetti completamente diversi,
anche se viene sempre indicato come commutatore.
Proprietà dei commutatori – Notiamo che il commutatore delle derivate di Lie definisce una
applicazione prodotto sull’insieme delle derivate di Lie associate ai campi vettoriali su M. Tale
prodotto è antisimmetrico, (bi-)lineare e soddisfa l’identità di Jacobi:
[£U , £V ] = −[£V , £U ] (44)
[£U + £V , £W ] = [£U , £W ] + [£V , £W ] (45)
[£U , [£V , £W ]] + [£V , [£W , £U ]] + [£W , [£U , £V ]] = 0 . (46)
Grazie alla (42), e alle due ovvie proprietà £U +V = £U + £V , £U = 0 ⇒ U = 0, le tre proprietà
(44)-(46) si trasferiscono sui commutatori di campi vettoriali come segue (dimostrarlo):
[U , V ] = −[V , U ] (47)
[U + V , W ] = [U , W ] + [V , W ] (48)
[U , [V , W ]] + [W , [U , V ]] + [V , [W , U ]] = 0 . (49)
Quindi anche il commutatore di campi vettoriali è un prodotto antisimmetrico, (bi)-lineare e che
soddisfa l’identità di Jacobi.
Caso Hamiltoniano – M = Γ. Il membro destro delle equazioni del moto (10) o, equiva-
lentemente, (14), prende il nome di campo vettoriale Hamiltoniano associato ad H, e si indica con
X H (x):
X H (x) = J∇H(x) = DH(x) x . (50)
Essendo dato dal prodotto della matrice simplettica standard J per il gradiente di H, il campo
vettoriale X H viene anche detto gradiente simplettico della funzione H. Segue immediatamente
dalla definizione (24) di DH che
DH = LX H = LJ∇H , (51)
12 1. MECCANICA HAMILTONIANA
La relazione fondamentale che permette di caratterizzare i campi vettoriali Hamiltoniani è data dalla
seguente
Una conseguenza immediata della proposizione precedente è che l’identità di Jacobi (19) sod-
disfatta dalla parentesi di Poisson è conseguenza dell’identità di Jacobi (49) soddisfatta dai campi
vettoriali (dimostrarlo). Risulta dunque chiaro che se ci si restringe ai campi vettoriali Hamiltoniani,
le proprietà del commutatore [ , ] tra campi vettoriali vengono trasferite sulla parentesi di Poisson
{ , } tra funzioni definite su Γ. Tali proprietà fondamentali sono l’antisimmetria, la bi-linearità e
l’identità di Jacobi. Per capire a cosa sia dovuto tale fatto, come interpretarlo correttamente e quali
generalizzazioni sono permesse, si deve entrare, anche solo parzialmente, nella teoria dei gruppi e
delle algebre di Lie.
4. Trasformazioni canoniche
Dato un sistema Hamiltoniano ẋ = J∇H(x) si pone il problema della sua trasformazione ri-
spetto a cambiamenti di variabili x 7→ y = C(x), ovvero trasformazioni di coordinate C che siano
diffeomorfismi (biiezioni differenziabili) di Γ in sé. Ci restringiamo a cambiamenti di variabili indi-
pendenti dal tempo, anche se risultati generali possono essere formulati nel caso in cui C dipenda
esplicitamente da t (vedi [Fa&Ma-MA]). La classe fondamentale di trasformazioni di coordinate
della meccanica Hamiltoniana è quella delle trasformazioni canoniche.
Esempio 6. Nel caso dei moti centrali, definiti nell’esempio 3, H è funzione del modulo di p
e del modulo di q, essendo pertanto invariante rispetto a rotazioni nello spazio delle coordinate e a
rotazioni nello spazio dei momenti. Fissiamo un vettore ξ ∈ R3 e consideriamo l’Hamiltoniana
K(q, p) = ξ · (q ∧ p) ,
4. TRASFORMAZIONI CANONICHE 15
che rappresenta la proiezione lungo ξ del momento angolare. Le equazioni di Hamilton associate a
K sono
q̇ = ξ ∧ q , ṗ = ξ ∧ p ,
la cui soluzione al ”tempo s” si scrive
Φs (Q, P ) = (esA Q, esA P ) ,
essendo A l’unica matrice 3 × 3 antisimmetrica tale che Ay = ξ ∧ y (vedere più avanti per dettagli
su tale corrispondenza). La matrice esA descrive una rotazione attorno all’asse ξ. L’osservata in-
varianza per rotazioni di H implica che K è una costante del moto. Dall’arbitrarietà di ξ segue la
conservazione del vettore momento angolare q ∧ p nei moti centrali.
CAPITOLO 2
1. Gruppi: esempi
Iniziamo dando la definizione astratta di gruppo (per una esposizione sintetica della teoria dei
gruppi si consulti [Pro]).
Definizione 2. Sia G un insieme e ◦ : G × G → G un’operazione su di esso; si dice che G è un
gruppo rispetto all’operazione ◦ se
i) g1 ◦ (g2 ◦ g3 ) = (g1 ◦ g2 ) ◦ g3 ∀g1 , g2 , g3 ∈ G;
ii) ∃e ∈ G : g ◦ e = e ◦ g = g ∀g ∈ G;
iii) ∀g ∈ G ∃g −1 ∈ G : g −1 ◦ g = g ◦ g −1 = e.
A parole: G è un gruppo se è dotato di un’operazione associativa, con elemento neutro ed elemento
inverso di ogni elemento. Cosı́ ad esempio Z, Q, R e C sono gruppi rispetto all’addizione (◦ = +),
mentre non lo sono rispetto alla moltiplicazione, poiché lo zero non ammette inverso (lo zero è
l’elemento neutro dell’addizione, l’inverso rispetto all’addizione è l’opposto). Piú in generale, tutti
gli spazi vettoriali su campo reale o complesso sono gruppi rispetto all’addizione.
Se l’operazione ◦ è commutativa, cioè se g1 ◦ g2 = g2 ◦ g1 per ogni coppia di elementi g1 , g2 , il
gruppo G si dice abeliano, o commutativo. Gli spazi vettoriali sono gruppi abeliani.
Un esempio di gruppo non abeliano è quello delle permutazioni di n elementi. L’insieme G
in questo caso consiste delle n! permutazioni possibili, mentre l’operazione è la composizione tra
permutazioni.
Esempi fondamentali di gruppi non commutativi si ottengono considerando insiemi opportuni di
matrici non singolari (invertibili). In tale caso l’operazione è l’ordinaria moltiplicazione tra matrici,
l’elemento neutro è dunque la matrice identità, mentre l’inverso di un elemento, una matrice, è
ovviamente la matrice inversa. Riportiamo alcuni esempi di classici gruppi di matrici (si verifichi
in dettaglio per ognuno di essi che il prodotto di due matrici del gruppo è ancora una matrice del
gruppo e che valgono le tre proprietà gruppali della definizione).
• GL(n, R) – gruppo Generale Lineare (reale): il gruppo delle matrici reali n × n invertibili.
Una matrice A ∈ GL(n, R) è individuata assegnando n2 numeri reali, cioè specificando tutti
i suoi elementi. Dunque la dimensione del gruppo, ovvero il numero di parametri indipen-
denti che si deve fissare per determinare univocamente ciascun elemento, è n2 . Scriviamo:
dim GL(n, R) = n2 .
Se si impone il vincolo di determinante unitario sugli elementi di GL(n, R), si ottiene
il sottogruppo SL(n, R), il gruppo Speciale Lineare (reale). Notare che la moltiplicazione
matriciale conserva il vincolo. Una matrice A ∈ SL(n, R) è individuata da n2 − 1 numeri
reali: dim SL(n, R) = n2 − 1. Si definiscono in modo analogo i gruppi GL(n, C) e SL(n, C)
(dim = 2n2 e dim = 2n2 − 2 rispettivamente: spiegarlo).
• O(n, R) ≡ O(n) – gruppo Ortogonale (reale): il gruppo delle matrici reali n × n che
conservano il prodotto scalare euclideo in Rn e soddisfano pertanto la relazione
RRT = In ⇔ RT R = In . (62)
17
18 2. CENNI SUI GRUPPI E SULLE ALGEBRE DI LIE
Dalla relazione precedente, che definisce il gruppo, segue che dim O(n) = n(n − 1)/2 (ve-
rificarlo calcolando il numero di relazoni indipendenti che devono soddisfare gli n vettori
colonna di R e sottrarre tale numero da n2 ). Dalla (62) segue anche che det R = ±1. Nel
caso in cui ci si restringa al segno positivo, si ottiene il gruppo SO(n, R) ≡ SO(n), il gruppo
speciale ortogonale, o gruppo delle rotazioni in Rn (dim SO(n) = dim O(n) = n(n − 1)/2).
In questo caso, oltre alla conservazione del prodotto scalare, la trasformazione associata a R
conserva anche l’orientamento (riflettere sul fatto che O(3) contiene l’inversione degli assi,
−I3 , che non può essere operata da alcuna rotazione della base canonica di R3 ).
• U (n, C) ≡ U (n) – gruppo Unitario (complesso): il gruppo delle matrici complesse n × n
che conservano il prodotto scalare hermitiano in Cn e soddisfano pertanto la relazione
UU† = In ⇔ U† U = In . (63)
Qui U† = (UT )∗ = (U∗ )T indica la coniugazione hermitiana (trasposizione e complessa
coniugazione). Si ha dim U (n) = n2 che risulta dal seguente ragionamento. Una matrice
complessa n × n è individuata da n2 numeri complessi, ovvero 2n2 numeri reali. Dalla
(63) segue che le relazioni indipendenti che devono soddisfare i vettori colonna di U, sono
n(n − 1)/2 (ortogonalizzazione a due a due) piú n (normalizzazione di ognuno). Il primo
gruppo di relazioni consiste in equazioni complesse, dunque il numero di equazioni reali
corrispondenti è doppio, cioè n(n − 1); il secondo gruppo consiste invece di equazioni reali
(perché?). Dunque 2n2 −n(n−1)−n = n2 . Osserviamo che dalla (63) segue che | det U| = 1,
cioè det U = eiφ . In questo caso, a differenza di quanto accade per O(n), fissando il valore
del determinante il numero di parametri (reali) indipendenti diminuisce di una unità (perché
non di due?): dim SU (n) = n2 − 1.
• SP (2n, R) ≡ SP (2n) – gruppo Simplettico (reale): il gruppo delle matrici reali 2n × 2n
che soddisfano
SJST = J ⇔ ST JS = J , (64)
dove J ∈ SP (2n) è la matrice simplettica standard (11). Questo è un gruppo di importanza
fondamentale per la meccanica Hamiltoniana. Si ha dim SP (2n) = n(2n + 1), relazione che
si ottiene con il seguente ragionamento. Se
a b
S= ,
c d
ogni blocco essendo quadrato n × n, allora la condizione (64) che definisce il gruppo si
traduce nelle tre condizioni (dimostrarlo) aT c = (aT c)T , bT d = (bT d)T e aT d − cT b = In .
La condizione di simmetria delle due matrici aT c e bT d è espressa da n(n − 1)/2 equazioni
per ognuna delle due, mentre la condizione che la matrice aT d − cT b sia uguale all’identità è
espressa da n2 equazioni. In totale, la condizione (64) è espressa quindi da n(n − 1) + n2 =
2n2 − n equazioni. Sottraendo quest’ultimo numero da 4n2 (il numero degli elementi della
matrice S) si ottiene dim SP (2n) = n(2n + 1).
Osserviamo che la condizione (64) implica immediatamente det S = ±1. In realtà le
matrici di SP (2n) hanno determinante uguale a uno. Infatti,
det(S − λI2n ) = det(JT SJ − λI2n ) = det(JT SJST (ST )−1 − λI2n ) =
λ2n
= det((ST )−1 (I2n − λST ) = det(S − λ−1 I2n ) .
(det S)
Dalla relazione precedente si deduce che se λ0 è autovalore di S allora lo è anche 1/λ0 , con
la stessa molteplicità algebrica (dimostrarlo). Il prodotto degli autovalori di S, cioè det S,
2. GRUPPI E ALGEBRE DI LIE 19
vale quindi uno. Per maggiori dettagli su SP (2n) e le sue connessioni con gli altri gruppi
menzionati sopra consultare [Arn-MMMC] e [Ma&Ra-IMS].
Per quanto visto al capitolo precedente, Il gruppo simplettico SP (2n) gioca un ruolo
fondamentale in meccanica Hamiltoniana perché è il gruppo delle trasformazioni canoniche
lineari. Si è anche visto che in generale una trasformazione è canonica se e solo se ha per
matrice jacobiana una matrice simplettica (dipendente da x). Dalla proprietà di chiusura di
SP (2n) rispetto alla moltiplicazione tra matrici segue poi che la composizione di trasforma-
zioni canoniche è ancora una trasformazione canonica (verificarlo). Di conseguenza anche le
trasformazioni canoniche costituiscono un gruppo (perché?).
Lie, cioè un’applicazione biunivoca che conserva sia la struttura di spazio vettoriale che l’operazione
di prodotto con le sue proprietà (verificarlo).
Il sotto caso delle trasformazioni lineari è particolarmente interessante. In tale caso si ha Φt (x) =
T(t)x, per ogni fissato x ∈ Kn (K = R oppure K = C). In questo modo T(t) descrive una curva
nel gruppo delle trasformazioni lineari di Kn in sé (che può essere GL o un suo sottogruppo). La
condizione di passaggio per l’identità a t = 0 si scrive T(0) = In . Risulta
d
T(t)x = Ṫ(0)x .
dt t=0
Quindi l’algebra di Lie associata al gruppo considerato di trasformazioni lineari è l’algebra dei campi
vettoriali lineari su Kn con matrice associata A ≡ Ṫ(0).
Proposizione 9. L’algebra di Lie associata ad un gruppo di matrici ha per prodotto l’ordinario
commutatore tra matrici.
C Dim. Nel caso particolare delle trasformazioni lineari invertibili di Kn in sé (K = R oppure K = C),
il commutatore di due campi vettoriali U = Ax e V = Bx vale
[Ax, Bx] = (BA − AB)x ≡ [B, A]x .B
Da quanto visto, tutti i gruppi di matrici sono gruppi di Lie e il loro spazio tangente all’identità
è un’algebra di Lie che ha per prodotto il commutatore. Dalla definizione geometrica, l’algebra e
il gruppo hanno la stessa dimensione. Elenchiamo di seguito e descriviamo brevemente le classiche
algebre di matrici. Osserviamo preventivamente che, per quanto visto sopra, una curva in gruppo
di matrici è definita ad esempio dal flusso etA del campo vettoriale Ax. La derivata rispetto a
t di tale flusso in t = 0 è A, un elemento dell’algebra. Per definizione etA è una matrice e vale
det(etA ) = ettr(A) . Quindi ogni volta che si impone la condizione aggiuntiva di determinante unitario
sul gruppo di matrici si impone di conseguenza la condizione di traccia nulla sulle matrici dell’algebra
associata.
• gl(n, R) = TIn GL(n, R) – algebra generale lineare (reale): l’algebra delle matrici reali n ×
n (senza alcuna restrizione, con determinante qualsiasi). Ovviamente dim gl(n, R) = n2 .
Se ci si restringe al gruppo speciale SL(n, R), allora la sua algebra è sl(n, R), l’algebra
speciale lineare delle matrici reali n × n a traccia nulla, di dimensione n2 − 1. Notare che il
commutatore di due matrici ha sempre traccia nulla.
• o(n) = TIn O(n) – algebra ortogonale reale: l’algebra delle matrici reali n × n antisimme-
triche. Infatti, sia t 7→ R(t) una curva su O(n), tale che R(0) = In ; vale R(t)RT (t) = In per
ogni t. Derivando rispetto a t quest’ultima relazione e ponendo poi t = 0 si ha che A ≡ Ṙ(0)
soddisfa A = −AT , cioè A è antisimmetrica. Si osservi che le matrici antisimmetriche hanno
traccia nulla, il che implica o(n) = TIn O(n) = TIn SO(n). La dimensione di o(n) è pari
al numero di elementi indipendenti che determinano una matrice antisimmetrica, ovvero
n(n − 1)/2.
• u(n) = TIn U (n) – algebra unitaria complessa: l’algebra delle matrici complesse n × n anti-
hermitiane. Infatti, sia t 7→ U(t) una curva su U (n), tale che U(0) = In ; vale U(t)U† (t) = In
per ogni t. Derivando rispetto a t quest’ultima relazione e ponendo poi t = 0 si ha che
A ≡ U̇(0) soddisfa A = −A† , cioè A è antihermitiana (gli elementi di matrice soddisfano
Aij = −A∗ji e, in particolare, quelli sulla diagonale principale sono immaginari puri). Una
matrice antihermitiana n × n è determinata da n2 numeri reali, quindi dim u(n) = n2 . Se
ci si restringe al gruppo speciale unitario SU (n), imponendo la condizione di determinante
unitario, si ottiene la sottoalgebra speciale unitaria su(n) = TIn SU (n), ovvero l’algebra delle
matrici complesse n × n antihermitiane a traccia nulla, di dimensione n2 − 1.
22 2. CENNI SUI GRUPPI E SULLE ALGEBRE DI LIE
• sp(2n) – algebra simplettica reale: l’algebra delle matrici reali A 2n × 2n della forma
A = JB, essendo J la matrice simplettica standard e B una qualsiasi matrice 2n × 2n
simmetrica (BT = B). Infatti, sia t 7→ S(t) una curva su SP (2n) tale che S(0) = I2n ; vale
SJST = J per ogni t. Derivando quest’ultima relazione rispetto a t e ponendo poi t = 0 si
ottiene che A ≡ Ṡ(0) deve soddisfare la relazione
AJ + JAT = O2n ⇔ JA + AT J = O2n , (65)
che caratterizza l’algebra simplettica. Definendo poi B ≡ −JA, si vede immediatamente
che la (65) implica BT = B. Segue quindi che la dimensione di sp(2n) è data dal numero
di elementi indipendenti che definiscono una matrice simmetrica 2n × 2n, che è n(2n +
1). Le matrici dell’algebra simplettica, che soddisfano la condizione (65), sono anche dette
hamiltoniane.
Si dimostra (vedi [Fa&Ma-MA]) che un campo vettoriale V è Hamiltoniano (cioè è
un gradiente simplettico) se e solo se il suo jacobiano è Hamiltoniano (cioè è una matrice
dell’algebra simplettica). In particolare, un campo vettoriale Hamiltoniano X H linearizzato
attorno a una posizione di equilibrio x0 è un campo vettoriale lineare con matrice associata
Hamiltoniana della forma J∂ 2 H(x0 ), essendo ∂ 2 H la matrice hessiana di H.
3. Coefficienti di struttura
Poiché un’algebra di Lie L è uno spazio vettoriale, esiste in essa una base {u(i) }i tale che ogni
elemento di u ∈ L si può scrivere in modo unico come combinazione lineare degli elementi di base:
u = λi u(i) (somma su indici ripetuti). In particolare λi u(i) = 0 implica λi = 0 per ogni i.
Ora, la condizione di chiusura di L rispetto al prodotto di Lie [ , ] implica che, per ogni coppia
di elementi di base u(i) e u(j) , [u(i) , u(j) ] ∈ L. Ma quindi tale commutatore deve potersi esprimere in
modo unico come combinazione lineare degli elementi di base, ovvero
[u(i) , u(j) ] = cij
ku
(k)
(66)
I coefficienti cij
k prendono il nome di coefficienti di struttura dell’algebra di Lie L. Segue subito
dall’antisimmetria del commutatore che i coefficienti di struttura cambiano segno sotto scambio
degli indici alti
cji ij
k = −ck . (67)
L’identità di Jacobi implica invece la seguente identità fondamentale:
cip jk jp ki kp ij
q cp + cq cp + cq cp = 0 , (68)
Esempio 12. Consideriamo o(3) = so(3), l’algebra di Lie delle matrici antisimmetriche reali. Se
A ∈ o(3) allora
0 −a3 a2
A = a3 0 −a1 = a1 L1 + a2 L2 + a3 L3 ,
−a2 a1 0
dove le tre matrici di base Li ∈ o(3) (i = 1, 2, 3) sono definite come segue:
0 0 0 0 0 1 0 −1 0
L1 = 0 0 −1 , L2 = 0 0 0 , L3 = 1 0 0 . (69)
0 1 0 −1 0 0 0 0 0
Si verificano con calcolo diretto (farlo) le relazioni di commutazione
[L1 , L2 ] = L3 , [L2 , L3 ] = L1 , [L3 , L1 ] = L2 ,
ovvero, in forma compatta
[Li , Lj ] = εijk Lk , (70)
dove il simbolo di Levi-Civita a tre indici εijk vale 1 per permutazioni di ordine pari (numero pari
di scambi di coppia) degli indici, vale −1 per permutazioni di ordine dispari (numero dispari di
scambi di coppia) e vale 0 se almeno due indici sono uguali. In particolare εijk non cambia segno
sotto permutazioni cicliche di {i, j, k} e vale 1 se {i, j, k} è una permutazione ciclica di {1, 2, 3}. I
coefficienti di struttura di o(3) sono quindi dati dai simboli di Levi-Civita: cij k = εijk . La verifica
della proprietà di antisimmetria (67) è ovvia, mentre per l’identità di Jacobi (68) è necessario fare
uso della contrazione
εijk εilm = δjl δkm − δjm δkl ,
essendo δij il simbolo di Kronecker, che vale 1 se i = j e 0 se i 6= j. Usando tale identità si verifica
(farlo) che
cip jk jp ki kp ij
q cp + cq cp + cq cp = εipq εjkp + εjpq εkip + εkpq εijp = 0 .
Facciamo notare che, per come lo abbiamo scritto, un elemento A ∈ o(3) è bi-univocamente deter-
minato da un vettore a = ai ei , ei essendo l’i-esimo vettore della base canonica di R3 . Date ora due
matrici A = ai Li e B = bj Lj in o(3), risulta:
[A, B] = ai bj [Li , Lj ] = εijk ai bj Lk = (a ∧ b)k Lk ,
essendo a ∧ b = ai bj ei ∧ ej = εijk ai bj ek . Quindi il commutatore di A e B ha per vettore associato il
prodotto vettoriale dei corrispondenti vettori associati; di conseguenza la biiezione a 7→ A rappresenta
un isomorfismo tra l’algebra di Lie o(3), che ha per prodotto il commutatore tra matrici, e l’algebra
di Lie R3 che ha per prodotto l’ordinario vettoriale ∧. I coefficienti di struttura delle due algebre
sono identici: cij
k = εijk .
Esempio 13. su(2) è l’algebra delle matrici complesse 2×2 antihermitiane a traccia nulla. Quindi
A ∈ su(2) è della forma
1 ıa3 a1 + ıa2
A= = a1 s1 + a2 s2 + a3 s3 ,
2 −a1 + ıa2 −ıa3
dove ı è l’unità immaginaria e le tre matrici di base si ∈ su(2) sono definite come segue:
1 0 1 1 0 ı 1 ı 0
s1 = , s2 = , s3 = .
2 −1 0 2 ı 0 2 0 −ı
Si verifica facilmente che [si , sj ] = εijk sk ; quindi anche in questo caso i coefficienti di struttura sono
cij 3
k = εijk , gli stessi di o(3) e di R . Come visto per o(3), anche qui si ha [A, B] = (a ∧ b)k sk per ogni
coppia di matrici A, B ∈ su(2). Le algebre di Lie o(3), R3 e su(2) risultano isomorfe.
24 2. CENNI SUI GRUPPI E SULLE ALGEBRE DI LIE
Esempio 14. sp(2) è l’algebra simplettica di dimensione 3, ovvero l’algebra delle matrici hamilto-
niane 2 × 2 che si scrivono come prodotto della simplettica standard 2 × 2 per una matrice simmetrica
2 × 2. Se A ∈ sp(2) è della forma (lo so dimostri)
a3 a1
A= = a1 h1 + a2 h2 + a3 h3 ,
a2 −a3
dove le matrici di base hi ∈ sp(2) sono definite come segue:
0 1 0 0 1 0
h1 = , h2 = , h3 = .
0 0 1 0 0 −1
Si verifica che [h1 , h2 ] = h3 , [h2 , h3 ] = 2h2 e [h3 , h1 ] = 2h1 . I coefficienti di struttura di sp(2) sono
pertanto i seguenti: c12 21 23 32 31 13
3 = −c3 = 1, c2 = −c2 = 2, c1 = −c1 = 2 e tutti gli altri nulli (dimostrare
l’identità di Jacobi (68)).
CAPITOLO 3
1. Strutture di Poisson
Si è visto che i sistemi Hamiltoniani sono quei sistemi di EDO su varietà di dimensione pari
(lo spazio delle fasi Γ) i cui campi vettoriali sono gradienti simplettici di funzioni definite su Γ. I
campi vettoriali Hamiltoniani sono una sottoalgebra di Lie dell’algebra di Lie dei campi vettoriali
generali. La struttura di algebra di Lie viene trasferita dai campi vettoriali Hamiltoniani alle funzioni
di Hamilton dalla relazione [X H , X K ] = X {K,H} , che definisce un ismorfismo tra algebre di Lie.
Appaiono evidenti due cose. Prima di tutto ci si rende conto del fatto che in buona parte degli sviluppi
formali svolti la dimensione dello spazio delle fasi e la condizione di non degenerazione della parentesi
di Poisson non intervengono affatto. Inoltre, una volta compresa a fondo la definizione di sistema
Hamiltoniano, risulta chiaro il modo in cui si può cercare di estenderla: si possono cercare sottoalgebre
di Lie dell’algebra dei campi vettoriali che siano il piú ”estese” possibile. Questioni di eleganza
matematica a parte, la necessità di una tale generalizzazione è motivata dall’esigenza di riuscire a
trattare in un contesto ”Hamiltoniano” di qualche tipo alcuni sistemi fisici fondamentali quali il corpo
rigido, il fluido ideale, l’equazione di Schrödinger, le equazioni di Maxwell, ecc.. Ovviamente, a tale
scopo, il formalismo deve essere ulteriormente esteso al caso dei sistemi a infiniti gradi di libertà, cioè
quei sistemi il cui stato è individuato ad ogni istante di tempo t da un ”campo”, cioè, in generale,
da una n-upla di funzioni definite in qualche spazio finito-dimensionale. Come vedremo, i sistemi
Hamiltoniani fanno parte di una classe piú ampia di sistemi dinamici: i sistemi di Poisson (o sistemi
Hamiltoniani generalizzati). Allo scopo di motivare la definizione di questi ultimi, procediamo in
modo non assiomatico.
Consideriamo prima di tutto il caso dei sistemi finito-dimensionali. L’idea che sta alla base della
definizione dei sistemi di Poisson come generalizzazione dei sistemi Hamiltoniani è la seguente. I
sistemi dinamici di interesse fisico che vogliamo descrivere sono descritti da equazioni differenziali
della forma
u̇ = X H (u) , (71)
dove u(t) appartiene a qualche varietà n-dimensionale M (e quindi localmente ad un sottoinsieme di
Rn ). Abbiamo indicato con X H il campo vettoriale della (71) perché la prima richiesta che facciamo
è che il sistema ammetta un integrale primo H(u) che giochi il ruolo di Hamiltoniana (e tipicamente
ammetta interpretazione fisica di energia totale del sistema). La legge di conservazione di H in forma
differenziale si legge
(£X H H)(u) = ∇u H(u) · X H (u) = 0 , (72)
cioè X H è ortogonale al gradiente di H, ovvero tangente alla varietà {u : H(u) = E} per ogni E
fissato. Dunque il campo vettoriale X H , che definisce la dinamica del sistema, deve dipendere da H.
Un’ipotesi semplice (e certamente non l’unica possibile) è che tale dipendenza sia locale e lineare nel
gradiente di H, ovvero che esista una matrice J (u) tale che
X H (u) = J (u)∇u H(u) . (73)
I campi vettoriali Hamiltoniani sono di questa forma, con J = J (ed n pari). Ora, la condizione (72)
è garantita se J (u) è una matrice antisimmetrica per ogni u fissato. Il passo successivo consiste nel
25
26 3. SISTEMI HAMILTONIANI GENERALIZZATI
definire una ”parentesi” tra due funzioni qualsiasi F e G in analogia con quanto fatto per i sistemi
Hamiltoniani; poniamo
def
{F, G} = ∇F · J ∇G . (74)
Tale parentesi risulta antisimmetrica (perché lo è J ), bilineare e soddisfa la regola di Leibniz (le
ultime due proprietà sono ereditate dal gradiente). Prendendo F = ui e G = uj si ottengono le
parentesi fondamentali {ui , uj } = Jij (u), che scriviamo in forma compatta
{u, u} = J (u) . (75)
Affinché (74) possa essere considerata una parentesi di Poisson, si deve richiedere che soddisfi l’iden-
tità di Jacobi, cosa che ovviamente impone un vincolo sulla dipendenza di J da u. Vale il seguente
risultato.
Proposizione 10. Condizione necessaria e sufficiente affinché la parentesi (74) soddisfi l’identità
di Jacobi è che la matrice J (u) soddisfi, per ogni i, j, k, la relazione
Jil ∂l Jjk + Jjl ∂l Jki + Jkl ∂l Jij = 0 . (76)
C Dim. La condizione è necessaria: se vale l’identitaà di Jacobi
{F, {G, H}} + {G, {H, F }} + {H, {F, G}} = 0
per ogni terna di funzioni F, G, H, allora, prendendo F = ui , G = uj e H = uk e sfruttando la
(75) si ottiene subito la (76). Viceversa, supponiamo valga la (76). Si ha (vedi dimostrazione della
proposizione 1, capitolo 1):
{F, {G, H}} = ∇F · J (∂ 2 G)J ∇H − ∇F · J (∂ 2 H)J ∇G + (Jij ∂j Jkl )(∂i F )(∂k G)(∂l H) ;
{G, {H, F }} = ∇G · J (∂ 2 H)J ∇F − ∇G · J (∂ 2 F )J ∇H + (Jij ∂j Jkl )(∂i G)(∂k H)(∂l F ) ;
{H, {F, G}} = ∇H · J (∂ 2 F )J ∇G − ∇H · J (∂ 2 G)J ∇F + (Jij ∂j Jkl )(∂i H)(∂k F )(∂l G) .
Sommando i risultati, permutando ciclicamente gli indici i, k, l e usando la (76) si ottiene zero,
indipendentemente da F, G, H, ovvero l’identità di Jacobi. B
Il significato della relazione (76) è preciso: essa esprime la condizione che lo spazio dei campi
vettoriali su M della forma X H = J ∇H sia una sottoalgebra di Lie dell’algebra di Lie di ” tutti” i
campi vettoriali su M. Vale infatti la seguente
Proposizione 11. Condizione necessaria e sufficiente affincé per ogni coppia di funzioni H e K
si abbia
[X H , X K ] = [J ∇H, J ∇K] = J ∇{K, H} = X {K,H} (77)
è che valga la relazione (76).
C Dim. Scrivendo esplicitamente la componente k del commutatore dei campi X H e X K , lavorando
sugli indici e tenendo presente l’antisimmetria di J si ottiene:
[X H , X K ]k = J ∇H · ∇(J ∇K)k − J ∇K · ∇(J ∇H)k =
= (∂j H)(∂i K)(−Jjl ∂l Jki − Jil ∂l Jjk ) +
+ Jkl [(∂li2 K)Jij ∂j H + (∂i K)Jij ∂lj2 H] =
= −(∂j H)(∂i K)(Jil ∂l Jjk + Jjl ∂l Jki + Jkl ∂l Jij ) +
+ Jkl ∂l [(∂i K)Jij ∂j H] . (78)
Si ottiene quindi
[X H , X K ]k − (X {K,H} )k = −(∂j H)(∂i K)(Jil ∂l Jjk + Jjl ∂l Jki + Jkl ∂l Jij )
da cui segue la tesi immediatamente. B
1. STRUTTURE DI POISSON 27
La condizione di sottoalgebra (77), equivalente alla condizione (76) e quindi equivalente alla
condizione di validità dell’identità di Jacobi, stabilisce un isomorfismo tra algebre di Lie, precisamente
tra l’algebra di Lie dei campi della forma J ∇F (il cui prodotto di Lie è il commutatore di campi)
e l’algebra di Lie delle funzioni definite su M (il cui prodotto di Lie è la parentesi di Poisson (74)).
Abbiamo dunque ottenuto una estensione dell’algebra di Lie dei campi vettoriali Hamiltoniani e, di
conseguenza, dell’algebra di Lie delle funzioni di Hamilton.
L’essenza del nostro ragionamento è stata quella di partire dai campi vettoriali, sostituire alla
matrice simplettica standard una matrice antisimmetrica J dipendente dal punto u ∈ M. Abbiamo
quindi definito in (74) una parentesi { , } in stretta analogia con la definizione standard di parentesi
di Poisson, e abbiamo trovato che tale parentesi soddisfa l’identità di Jacobi se e solo se J soddisfa
la relazione (76). Le condizioni di antisimmetria, di bilinearità e di Leibniz della parentesi introdotta
sono garantite per definizione. Non abbiamo invece imposto alcuna condizione sulla dimensione di M
e non abbiamo richiesto alcuna condizione di non degenerazione (torneremo dopo su questo punto).
Viene ora spontaneo chiedersi se la parentesi (74), con J antisimmetrica e soddisfacente la (76), sia
il più generale prodotto di Lie (antisimmetrico, bilineare e soddisfacente l’identità di Jacobi) di tipo
Leibniz (che sia cioè una derivazione) definibile sullo spazio vettoriale F(M) delle funzioni definite
su M. La risposta (affermativa) a tale domanda è contenuta nella proposizione che segue.
Proposizione 12. Sia { , } una parentesi sullo spazio vettoriale F(M) delle funzioni definite su
M. Se { , } è antisimmetrica, (bi-)lineare e soddisfa la regola di Leibniz allora è della forma (74),
def
con Jij (u) = {ui , uj }; se si richiede inoltre che la parentesi soddisfi anche l’identità di Jacobi, allora
Jij deve soddisfare la relazione (76).
C Dim. Osserviamo preliminarmente che, dalla regola di Leibniz e dalla linearità segue che, se F è una
qualsiasi funzione e c una qualsiasi costante, allora {F, c} = 0. Infatti si ha {F, c} = c{F, 1}+{F, c},
da cui segue per linearità c{F, 1} = {F, c} = 0. Dall’antisimmetria segue poi che {c, F } = 0.
Dimostriamo la proposizione spezzandola in passi successivi.
(1) Per ogni a1 reale, per ogni k1 ≥ 0 intero e per ogni funzione F (u), vale
{F, (u1 − a1 )k1 } = {F, u1 }k1 (u1 − a1 )k1 −1 = {F, u1 }∂1 (u1 − a1 )k1 ,
che si dimostra per induzione usando la regola di Leibniz e la premessa.
(2) Dalla relazione precedente, sempre sfruttando la regola di Leibniz si dimostra la relazione
{F, (u1 − a1 )k1 · · · (un − an )kn } = {F, uj }∂j [(u1 − a1 )k1 · · · (un − an )kn ] .
(3) Una qualsiasi funzione G(u) sviluppata in serie di Taylor di centro a si esprime come segue
X
G(u) = gq (u1 − a1 )q1 · · · (un − an )qn .
q
Definizione 5. Sia P una varietà e F(P) lo spazio vettoriale delle funzioni definite su P.
(1) Una parentesi { , } : F(P) × F(P) → F(P) antisimmetrica, bilineare, che soddisfi l’identità
di Jacobi e la regola di Leibniz è detta parentesi di Poisson su P.
(2) La coppia (P, { , }) ≡ P{,} è detta varietà di Poisson (o si dice che su P è assegnata una
struttura di Poisson).
(3) La coppia (F(P), { , }) ≡ F{,} (P) è detta algebra di Poisson (è un’algebra di Lie con
prodotto che soddisfa la regola di Leibniz).
(4) L’operatore (o tensore) J (u) = {u, u} che definisce la parentesi di Poisson è detto opera-
tore (o tensore) di Poisson.
(5) Ad ogni funzione Hamiltoniana H ∈ F(P) è associato un campo vettoriale Hamil-
toniano X H (u) = {u, H} = J (u)∇H(u) ed un corrispondente sistema Hamiltoniano
u̇ = X H (u).
La derivata rispetto al tempo di ogni funzione F ∈ F(P) lungo le soluzioni del sistema Hamilto-
niano u̇ = X H (u) è esprimibile come
def
Ḟ = {F, H} = £X H F = DH F , (79)
in totale analogia con il caso Hamiltoniano standard.
Facciamo notare che non si è fatta richiesta di non degenerazione della parentesi di Poisson. Dun-
que, in generale, possono esistere funzioni di un’algebra di Poisson non banali (cioè non identicamente
costanti) che hanno parentesi di Poisson nulla o, come si dice, sono ”in involuzione”, o ”commutano”
con ogni altra funzione dell’agebra.
Definizione 6. Data un’algebra di Poisson F{,} (P), una funzione C dell’algebra in involuzione
con ogni altra (tale cioè che {C, F } = 0 per ogni F ∈ F{,} (P)) è detta funzione, o invariante,
di Casimir dell’algebra data.
In generale, data un’algebra di Lie L, l’insieme degli elementi c ∈ L tali che [c, u] = 0 per ogni
u ∈ L si dice centro dell’algebra di Lie L. Quindi il centro di un’algebra di Poisson (che è un’algebra
di Lie di tipo Leibniz) è l’insieme dei suoi invarianti di Casimir. La denominazione ”invarianti” di
Casimir è dovuta al fatto che essi sono integrali primi di qualunque sistema Hamiltoniano definito su
F{,} (P): Ċ = {C, H} = 0 per ogni H ∈ F{,} (P). Data un’algebra di Poisson F{,} (P), con tensore di
Poisson definito in (75), si ha
{F, C} = 0 ∀F ∈ F{,} (P) ⇔ J (u)∇C(u) = 0 ,
che viene dalla non degenerazione del prodotto scalare. Quindi gli invarianti di Casimir di un’algebra
di Poisson sono quelle funzioni C(u) tali che ∇C(u) ∈ ker J (u).
2. Trasformazioni di coordinate
Un’algebra di Poisson F{,} (P) è data assegnando una parentesi di Poisson { , } su F(P), o equiva-
lentemente assegnando un tensore di Poisson J che, fissato un sistema di coordinate, ha l’espressione
(75) e soddisfa la relazione (76). Si intuisce che tutto il formalismo sviluppato deve risultare indipen-
dente dal sistema di coordinate scelto, nel senso che, sotto trasformazioni di coordinate, una parentesi
di Poisson { , } e il suo associato tensore J si trasformano in una parentesi {g , } ed in un associato
tensore J che sono ancora, rispettivamente, una parentesi di Poisson ed il suo associato tensore.
e
In particolare, nel nuovo sistema di coordinate, J e deve soddisfare la relazione (76). Verifichiamo
quanto detto in dettaglio.
Sia v = Φ(u) una trasformazione (locale) di coordinate e sia u = Ψ(v) la sua inversa: Ψ = Φ−1 .
Indicheremo con un ”cappello”bla composizione con Ψ: Fb(v) = F (Ψ(v)), G(v) e = G(Ψ(v)), ecc..
2. TRASFORMAZIONI DI COORDINATE 29
Si ha
∂F\∂G ∂ Fb ∂Φ\
b
\ k ∂Φl ∂ G
{F, G} = Jij = Jij =
∂ui ∂uj ∂vk ∂ui ∂uj ∂vl
!T
−1 −1
∂ Fb ∂Ψ ∂Ψ ∂G =
b
= J
b
∂vk ∂v ∂v ∂vl
kl
∂ Fb # ∂ G
b
b #,
= Jkl = {Fb, G} (80)
∂vk ∂vl
avendo definito
−1 −1 !T
def ∂Ψ ∂Ψ
J # (v) = J (Ψ(v)) . (81)
∂v ∂v
La (80) significa che la parentesi di Poisson di due funzioni F e G calcolata nelle nuove variabili si
trasforma nella parentesi delle stesse funzioni (calcolate nelle nuove variabili, indicate con Fb e G)
b
#
associata al tensore J (81). La nuova parentesi, indicata con { , }# , è antisimmetrica, bilineare e
soddisfa la regola di Leibniz (perché?). Per quanto riguarda l’identità di Jacobi, sfruttando la (80)
si ha
0 = {F,\ {G, H}} + {G,\ {H, F }} + {H,\ {F, G}} =
\
= {Fb, {G, H}}# + {G, \
b {H, F }}# + {H, \
b {F, G}}# =
= {Fb, {G, b # }# + {G,
b H} b Fb}# }# + {H,
b {H, b # }# ,
b {Fb, G} (82)
che vale per ogni terna di funzioni F , G e H. Questo mostra che la parentesi { , }# soddisfa l’identità
di Jacobi. La proposizione 10 assicura poi che il nuovo tensore di Poisson J # definito in (81)
soddisfa la relazione (76). Abbiamo quindi mostrato esplicitamente che una varietà di Poisson P{,}
è tale indipendentemente dal sistema di coordinate scelto.
Osservazione 5. Si noti che se il tensore di Poisson J è una matrice antisimmetrica costante,
cioè non dipende dalla ”posizione” u, la condizione (76) è automaticamente soddisfatta.
Vale la seguente interessante proposizione, che è un caso particolare del teorema di Darboux.
Proposizione 13. Sia J un tensore di Poisson n × n costante e sia r = dim ker J ; allora esiste
una trasformazione lineare di coordinate che porta J nella forma standard
st J2k O2k,r
J = , (83)
Or,2k Or
dove n = 2k + r, J2k è la matrice simplettica standard 2k × 2k, mentre i rimanenti blocchi sono tutti
nulli con ovvia notazione.
C Dim. J è una matrice reale n × n antisimmetrica e quindi esiste una base ortonormale di Cn di
autovettori di J . Gli autovalori di J sono immaginari puri e, tra questi, ce ne sono esattamente
r nulli (ovvero 0 è autovalore di J con molteplicità algebrica e geometrica pari a r = dim ker J ).
Essendo J reale, si può scegliere in ker J una base ortonormale reale di vettori c1 , . . . , cr . Vi sono
poi 2k = n − r autovettori complessi ortonormali aj ± ıbj , tali che
J aj = −λj bj
J (aj ± ıbj ) = ±ıλj (aj ± ıbj ) ⇔ ,
J bj = λj aj
con λj > 0, j = 1, . . . , k. I 2k vettori a1 , . . . , ak , b1 , . . . , bk possono essere scelti mutuamente
ortonormali (lo sono di default se i numeri positivi λ1 , . . . , λk sono distinti); essi sono inoltre
30 3. SISTEMI HAMILTONIANI GENERALIZZATI
dove Ω(t) = RT (t)ω(t) è il vettore velocità angolare nel sistema mobile, vettore che definisce la
matrice antisimmetrica RT Ṙ. Sia µP la massa concentrata nel punto P . Il momento angolare del
punto P nel sistema fisso è
mP = µP q P ∧ q̇ P = µP q P ∧ (ω ∧ q P ) , (86)
che nel sistema mobile diventa
M P = µP QP ∧ (Ω ∧ QP ) = µP |QP |2 − QP QTP Ω = I P Ω ,
(87)
dove
def
I P = µP |QP |2 − QP QTP
(88)
è il tensore di inerzia del punto P , quantità indipendente dal tempo. La derivata rispetto al tempo
del momento angolare (86) vale
ṁP = µP q P ∧ (−gez ) , (89)
dove g è l’accelerazione di gravità ed ez è il versore dell’asse z del sistema fisso. La derivata rispetto
al tempo del momento angolare M P = RT mP nel sistema mobile è legata a quella del sistema fisso
dalla relazione cinematica
ṁP = ṘM P + RṀ P = R RT ṘM P + Ṁ P = R Ω ∧ M P + Ṁ P , (90)
Ṁ = M ∧ I −1 M + ξ ∧ µgQc ; (93)
ξ̇ = ξ ∧ I −1 M . (94)
Notare che nel caso gQc = 0, cioè in assenza di gravità oppure in presenza di gravità ma con il punto
fisso del corpo (l’origine comune dei sistemi fisso e mobile) coincidente con il centro di massa del
corpo, le due equazioni si disaccoppiano e la dinamica del sistema è descritta dalla sola equazione (93)
(senza il secondo termine a destra). Si noti che il tensore di inerzia I è simmetrico (come somma dei
tensori simmetrici I P ) e, se i punti P del corpo non sono tutti allineati, definito positivo (mentre il
singolo tensore I P è solo semi-definito positivo) . Infatti, dato un qualsiasi vettore a, vale l’identità
(dimostrarla)
X
µP |a ∧ QP |2 = a · Ia ,
P
da cui segue che la forma quadratica a secondo membro è nulla se e solo se a è parallelo a QP per
ogni P . Di conseguenza, si può sempre scegliere un sistema di coordinate solidale con il corpo tale
che in esso I risulti diagonale; gli elementi (autovalori) sulla diagonale sono i momenti principali di
inerzia e sono tutti positivi se il corpo non è unidimensionale.
32 3. SISTEMI HAMILTONIANI GENERALIZZATI
Al fine di dare una formulazione Hamiltoniana del sistema (93)-(94), scriviamo l’energia totale
del punto P , somma dell’energia cinetica e dell’energia potenziale. Si ha
1 1
HP = |v P |2 + µP gq P · ez = |V P |2 + µP gQP · ξ =
2 2
1 2 1
= |Ω ∧ QP | + µP gQP · ξ = Ω · I P Ω + µP gQP · ξ .
2 2
Integrando su P e tenendo presente che M = IΩ, si ottiene l’energia totale del sistema in funzione
delle variabili dinamiche M e ξ, cioè
1
H(M , ξ) = M · I −1 M + µgQc · ξ . (95)
2
Proposizione 15. Le equazioni di Eulero (93)- (94) sono le equazioni di Hamilton associate
all’Hamiltoniana (95) con tensore di Lie-Poisson
M X
J (M , ξ) = (96)
X O3
dove, Mij = −εijk Mk e Xij = −εijk ξk , ovvero Ma = M ∧ a e Xa = ξ ∧ a per ogni vettore a. Gli
invarianti di Casimir del tensore J sono tutte e sole le funzioni della forma C(M , ξ) = Φ(ξ·M , |ξ|2 ).
Nel caso particolare gQc = 0 il tensore J si riduce alla sola matrice M, i cui invarianti di Casimir
sono tutte e sole le funzioni della forma C(M ) = Φ(|M |2 ).
C Dim. Il gradiente dell’Hamiltoniana (95) preso rispetto al vettore (M , ξ)T è ∇H = (I −1 M , µgQc )T .
Moltiplicandolo da sinistra per il tensore (96) si ottiene
M ∧ I −1 M + ξ ∧ µgQc
−1
M X I M
J ∇H = =
X O3 µgQc ξ ∧ I −1 M
ovvero il campo vettoriale delle equazioni di Eulero (93)-(94). Per quanto riguarda gli invarianti
di Casimir, si deve caratterizzare ker J risolvendo l’equazione
M X a
=0,
X O3 b
trovando poi C tale che a = ∂C/∂M e b = ∂C/∂ξ. Si trova a = αξ e b = αM + βξ, che sono le
componenti del gradiente di C = Φ(M · ξ, |ξ|2 /2), Φ(x, y) funzione di due variabili reali, α = Φx
e β = Φy . Nel caso gQc = 0 si ha J (M ) = M e quindi J a = 0 se a = αM ; risulta quindi
C = Φ(|M |2 /2), con α = Φx .
Resta ora da far vedere che il tensore (96) è realmente di tipo Lie-Poisson, mostrando che
i coefficienti che lo definiscono sono le costanti di struttura di qualche algebra di Lie. Nel caso
”libero”, gQc = 0, si ha Jij (M ) = −εijk Mk e l’algebra di Lie sottostante è chiaramente so(3)
(ovvero su(2) o anche R3 . Nel caso generale (96) l’algebra di Lie sottostante alla struttura di
Lie-Poisson del corpo rigido è se(3) = so(3) × R3 , l’algebra di Lie associata al gruppo di Lie
SE(3) = SO(3) × R3 , il gruppo euclideo delle roto-traslazioni in R3 . Questo fatto viene dimostrato
a parte nella prossima sezione. B
La proposizione precedente prova che, oltre all’Hamiltoniana (95), le equazioni del moto del corpo
rigido (93)-(94) ammettono altri due integrali primi: la componente M · ξ del momento angolare
lungo la direzione del campo di gravità e il modulo |ξ| del versore nella direzione della gravità.
Tali integrali primi emergono in modo naturale come invarianti di Casimir della struttura di Lie-
Poisson introdotta. Ora, il sistema di equazioni (93)-(94) ”vive” in R6 . Con due invarianti di
Casimir ci si riduce localmente (via il citato teorema di Darboux) ad una dinamica Hamiltoniana
in uno spazio delle fasi di dimensione 4. È dunque sufficiente che esista una quarta costante del
moto (indipendente dall’Hamiltoniana e dai due invarianti di Casimir) in involuzione con H, per
rendere il sistema integrabile. Tale costante esiste in quattro casi, che sono: il caso a simmetria
3. STRUTTURE DI LIE-POISSON: IL CORPO RIGIDO 33
sferica, con I = II3 , I > 0; il caso della trottola di Lagrange, con momenti principali di inerzia
I1 = I2 6= I3 ; il caso ”libero”, in cui H e l’invariante di Casimir |M |2 bastano a rendere il sistema
integrabile (perché?); il caso della trottola di Kovalevskaya, con I1 = I2 = 2I3 . Il quarto caso è di
fondamentale importanza, perché è stato scoperto introducendo una tecnica di analisi delle singolarità
delle soluzioni delle equazioni del moto nel piano del tempo complesso. In sostanza, le Kovalevskaya
congetturò che le equazioni di Eulero sono integrabili se la soluzione delle equazioni del moto ammette
soltanto singolarità di tipo polo nel piano del tempo complesso. La sua tecnica, oggi nota con il nome
di test di Painlevé, o meglio di Kovalevskaya-Painlevé (KP), costituisce uno dei metodi piú potenti
che ci siano per vedere a priori se un dato sistema è integrabile. Il campo di ricerca sull’analisi delle
singolarità è ancora aperto, non esistendo ancora oggi un teorema generale che garantisca la validità
della congettura della Kovalevskaya per una classe ampia di sistemi dinamici, incluse le equazioni a
derivate parziali, per le quali l’applicazione del test KP ha fornito risultati importantissimi.
Come ulteriore commento sulla dinamica del corpo rigido, accenniamo al lavoro di Nambu
[Nam73], che prende spunto dalle equazioni di Eulero del caso ”libero”. Nambu ha osservato che
tali equazioni si possono scrivere nella forma
Ṁ = M ∧ I −1 M = ∇C ∧ ∇H (97)
dove C(M ) = |M |2 /2 e H(M ) = M · I −1 M /2. La derivata rispetto al tempo di F (M (t)), con
M (t) soluzione di (97) si scrive allora
def
Ḟ = ∇F · Ṁ = ∇F · (∇C ∧ ∇H) = [F, C, H] .
Nambu considera la quantità [F, C, H], dipendente da F e dalle due ”Hamiltoniane” C e H, una
possibile generalizzazione della parentesi di Poisson. Prosegue poi cercando di generalizzare la teoria
a sistemi a n gradi di libertà (veri, cioè descritti da sistemi di n EDO del primo ordine) aventi
n − 1 integrali primi, passando poi al caso quantistico. Si tratta di un interessante proposta di
generalizzazione del concetto di sistema Hamiltoniano nel caso di sistemi di EDO integrabili.
Chiudiamo questa sezione sul corpo rigido con un cenno alla teoria della stabilità degli equilibri
dei sistemi Hamiltoniani. I punti di equilibrio di un sistema di questo tipo, descritto dall’equazione
u̇ = J (u)∇H(u), sono gli zeri del campo vettoriale, ovvero quei punti ue tali che
J (ue )∇H(ue ) = 0 . (98)
Le soluzioni di tale equazione per le quali J (ue ) 6= 0 (caso che non consideriamo) sono tali che
∇[H(ue ) + C(ue )] = 0 , (99)
essendo C un qualsiasi invariante di Casimir del sistema. Dunque gli equilibri di un sistema Ha-
miltoniano sono, in generale, punti critici della funzione F = H + C, che è una costante del moto.
Dunque, per i sistemi finito dimensionali, se la matrice hessiana ∂ 2 F (ue ) di F in ue è definita (posi-
tiva o negativa), allora l’equilibrio ue è stabile (F è una funzione di Lyapunov costante del moto con
minimo o massimo nel punto di equilibrio). Si osservi che in generale gli invarianti di Casimir sono
infiniti (sono famiglie di funzioni - vedi corpo rigido). Pertanto c’e’ arbitrarietà nella scelta della
funzione F = H + C. Piú in generale, in presenza di un ulterioriore integrale primo J indipendente
da H e da C, si cerca una funzione F della forma F = H + C + φ(J), con φ funzione scelta in modo
che ∇F (ue ) = 0 e che, possibilmente, ∂ 2 F (ue ) sia definita. Nel caso del corpo rigido si trovano con
questo metodo i classici risultati di stabilità delle rotazioni attorno all’asse ”corto” e all’asse ”lungo”
del corpo ”libero” e delle rotazioni veloci della trottola di Lagrange.
La tecnica descritta, esportabile al caso infinito-dimensionale con la dovuta cautela, prende
il nome di metodo di ”Energia-Casimir” di Arnol’d. Per approfondimenti e applicazioni si veda
[HMRW85] e [Ma&Ra-IMS].
34 3. SISTEMI HAMILTONIANI GENERALIZZATI
x0 = Rx + r , (100)
il risultato di tale operazione è il vettore (x0 , 1)T , con x0 dato in (100). L’insieme delle matrici 4 × 4
della forma (101) è un gruppo di Lie di dimensione 6, che si indica con SE(3), il gruppo Speciale
Euclideo (si noti che det E = det R = 1). Ogni elemento (101) di tale gruppo è individuato da una
coppia ordinata (R, r), cioè SE(3) = SO(3) × R3 .
L’algebra di Lie di SE(3) si trova considerando le curve E(t) ∈ SE(3) tali che E(0) = I4 ; allora
se(3) è l’algebra di Lie delle matrici
A b
≡ Ė(0) = , (102)
0T 0
O3 eα−3
α = , α = 4, 5, 6 , (106)
0T 0
dove le matrici Lα (α = 1, 2, 3) sono le matrici di base (69) di so(3) mentre i vettori eα−3 (α = 4, 5, 6)
sono i versori della base canonica di R3 . Tramite la formula (103), tenendo presente la regola di
commutazione (70) tra le matrici di base di so(3) e sapendo che Lα x = eα ∧ x per ogni x, è possibile
4. IL GRUPPO EUCLIDEO SE(3) E L’ALGEBRA se(3) 35
Dimostriamo che il tensore di Poisson (96) ha i coefficienti che sono le costanti di struttura di so(3)
col segno meno. Sia u ≡ (M , ξ)T ∈ R6 , ovvero uα = Mα se α = 1, 2, 3, mentre uα = ξα−3 se
α = 4, 5, 6. Allora il tensore (96) è della forma Jαβ = cαβ
γ uγ , con α, β, γ ∈ {1, . . . , 6}. Precisamente,
si ha P3
− γ=1 εα,β,γ uγ ; α, β ∈ {1, 2, 3}
P6
− γ=4 εα,β−3,γ−3 uγ ; α ∈ {1, 2, 3} , β ∈ {4, 5, 6}
Jαβ = ,
P6
− γ=4 εα−3,β,γ−3 uγ ; α ∈ {4, 5, 6} , β ∈ {1, 2, 3}
0 ; α, β ∈ {4, 5, 6}
Sistemi infinito-dimensionali
L’estensione del formalismo Hamiltoniano al caso dei sistemi di equazioni alle derivate parziali
(EDP) e dei sistemi di equazioni integro-differenziali, che sono sistemi infinito-dimensionali, viene
fatta per analogia con il caso finito-dimensionale. Come abbiamo visto, una parentesi di Poisson
è definita da tre ingredienti essenziali: il prodotto scalare, il gradiente delle funzioni definite sullo
spazio delle fasi del sistema, il tensore, o operatore, di Poisson. Ci si aspetta quindi che, in ogni
problema specifico che si riesce a trattare nel contesto Hamiltoniano, la parentesi di Poisson tra due
funzioni F e G sia della forma
{F, G}(u) = h∇F (u), J (u)∇G(u)i , (108)
essendo ∇ una opportuna operazione di derivazione, h , i un opportuno prodotto scalare e J un
opportuno operatore antisimmetrico (rispetto a h , i) tale che { , } soddisfi l’identità di Jacobi. Non
svilupperemo il formalismo generale in astratto, ma procederemo per esempi. Accenniamo soltanto
che, quasi sempre, come prodotto scalare h , i si considera il prodotto L2 , cioè il prodotto ordina-
rio di campi scalari o il prodotto euclideo di campi vettoriali integrato sulle variabili spaziali. Di
conseguenza, il gradiente ∇ è l’associato gradiente L2 , o derivata funzionale.
Si osservi che la variabile p(t, x) è definita come u(t, x) su R × X. A questo punto basta osservare
che, se ξ(t, x) e η(t, x) sono due campi scalari definiti anch’essi su R × X, il differenziale di H in (q, p)
nella direzione (ξ, η) vale
Z
d
dH(u, p|ξ, η) = H(u + ξ, p + η) = (pη + ux ξx ) dx =
d =0
Z Z X
δH δH
= (−ξuxx + ηp) dx = ξ+ η =
X X δu δp
= ∇H, (ξ, η)T .
Qui
T
δH δH
∇H(u, p) = , = (−uxx , p)T ,
δu δp
indica il gradiente L2 di H, cioè l’oggetto che, moltiplicato scalarmente per la direzione (ξ, η), con
prodotto scalare L2 definito da
Z
T T
(a, b) , (c, d) = (ac + bd) dx , (114)
X
fornisce il differenziale di H lungo (ξ, η). Le componenti di ∇H, indicate con δH/δu e δH/δp
prendono il nome di derivate (parziali) funzionali di H. Il sistema (112) si può quindi riscrivere in
forma Hamiltoniana:
ut = δH
δp u
δH ⇔ = J2 ∇H , (115)
pt = − δu p t
dove J2 è la matrice simplettica standard 2 × 2. La derivata rispetto al tempo di una qualsiasi
funzione F (u, p) calcolata lungo una soluzione del sistema (115) vale
d d
Ḟ (u(t), p(t)) = F (u(t + ), p(t + )) = F (u(t) + ut ), p(t) + pt ) =
d =0 d =0
= dF (u(t), p(t)|ut , pt ) = h∇F, J2 ∇Hi (u(t), p(t)) .
Si può quindi definire la seguente parentesi di Poisson tra coppie di funzioni F e G:
Z
def δF δG δF δG
{F, G} = h∇F, J2 ∇Gi = − dx . (116)
X δu δp δp δu
Vediamo ora una formulazione Hamiltoniana dell’equazione delle onde nel caso specifico di X =
[0, 1] con estremi fissi.
√ In questo caso si possono espandere u e p sulla base di Fourier formata dalle
funzioni ϕk (x) = 2 sin(πkx), k ≥ 1. Tale base è ortonormale rispetto al prodotto scalare L2
standard: Z 1
ϕk (x)ϕk0 (x) dx = δk,k0 .
0
Siano quindi u(t, x) = k≥1 uk (t)ϕk (x) e p(t, x) = k≥1 pk (t)ϕk (x); allora uxx = − k≥1 ωk2 uk ϕk ,
P P P
con ωk = πk. Si vede quindi facilmente che il sistema Hamiltoniano (115) si può riscrivere nella
forma standard ∂H
u̇k = pk = ∂p k
∂H (k ≥ 1) , (117)
ṗk = −ωk2 uk = ∂u k
dove
X p2 + ω 2 u2
k k k
H(u, p) = . (118)
k≥1
2
1. EQUAZIONE DELLE ONDE 39
Quindi la dinamica del campo u(t, x), soluzione dell’equazione delle onde con estremi fissi, è sovrap-
posizione di infiniti moti armonici indipendenti di frequenze ωk = πk. La struttura di Poisson in
questo caso è quella standard ma in dimensione infinita.
Consideriamo ora il caso in cui X = R/Z. Osserviamo prima di tutto che dalle equazioni del
moto (112) si deducono le leggi di conservazione
Z 1
def
P (p(t)) = p(t, x) dx = P (p(0))
0
e Z 1
def
U (u(t)) = u(t, x) dx = U (u(0)) + t P (p(0)) ,
0
che esprimono rispettivamente la conservazione della quantità di moto e l’uniformità del moto del
centro di massa. Scegliamo quindi, senza perdita di generalità, dati iniziali tali che U (u(0)) =
P (p(0)) = 0. Osserviamo poi che nell’Hamiltoniana (113), cosı́ come nella seconda delle equazioni
del moto (112) entra solo la variabile ux . È naturale chiedersi allora se non sia possibile dare una
formulazione Hamiltoniana dell’equazione delle onde che coinvolga le variabili ux e p. A tale scopo
definiamo due nuove variabili
def ux (t, x) ± p(t, x)
w± (t, x) = √ . (119)
2
R1
Osserviamo che tale formula definisce, assieme alla condizione di media nulla 0 u dx = 0, una
trasformazione di variabili invertibile (u, p) 7→ (w+ , w− ). Infatti, assegnati i campi u e p, questi,
via la (119), determinano univocamente w± . Viceversa, assegnati w± , p e ux si ricavano per semi-
differenza e semi-somma, rispettivamente. Ora, grazie alla condizione di media nulla, ux determina
univocamente u. Infatti, le espansioni di Fourier di u e ux in R/Z sono i seguenti
X
u(t, x) = uk eı2πkx ,
k∈Z\{0}
X
ux (t, x) = (ı2πkuk )eı2πkx ,
k∈Z\{0}
con l’esclusione del termine k = 0 che equivale alla condizione di media nulla. Quindi il k-esimo
coefficiente di Fourier di u si ricava dal k-esimo coefficiente di ux dividendo per ı2πk.
Ora, si verifica facilmente che la funzione di Hamilton (113), nelle nuove variabili, si scrive
Z 1 + 2
+ − (w ) + (w− )2
H(w , w ) = dx , (120)
0 2
mentre le equazioni del moto (112) si scrivono
+ +
wt = wx+ w 1 0
⇔ = ∂x ∇H , (121)
wt− = −wx− w− t 0 −1
dove le componenti di ∇H sono δH/δw± = w± . Il tensore di Poisson in questo caso è l’operatore
lineare
1 0
J = ∂x , (122)
0 −1
che è antisimmetrico rispetto al prodotto scalare (114). La parentesi di Poisson di due funzioni
F (w+ , w− ) e G(w+ , w− ) è data allora da
Z 1
δF δG δF δG
{F, G} = h∇F, J ∇Gi = − dx . (123)
0 δw+ δw+ x δw− δw− x
40 4. SISTEMI INFINITO-DIMENSIONALI
La riformulazione (121) dell’equazione delle onde è molto utile sia dal punto di vista concettuale che da
quello pratico. Infatti, la dinamica dell’equazione delle onde risulta in questo modo in due dinamiche
indipendenti di onda semplice: quella per w+ , che descrive la traslazione a sinistra del profilo iniziale
e quella per w− , che descrive la traslazione a destra del profilo iniziale: w± (t, x) = w± (0, x ± t).
Si può dimostrare che il tenosre di Poisson (122) è il trasformato del tensore standard J2 tramite
il cambio di variabili (119), e che la parentesi di Poisson (123) è la trasformata della parentesi (116).
Facciamo notare che il tensore di Poisson (122) ha per nucleo i campi a due componenti costanti,
cioè indipendenti da x (verificarlo), che sono i gradienti di funzioni lineari in w+ e w− . In realtà la
condizione di media nulla su u e p si trasferisce su w± e con tale scelta ker J consiste nel solo vettore
nullo.
Quanto esposto per l’equazione delle onde (109) si applica senza variazioni a famiglie di equazioni
piú generali, ad esempio della forma
utt = uxx − V 0 (u) , (124)
essendo µ un parametro e V (u) una assegnata funzione di u (per V (u) = µu e V (u) = µu + λu3 si
hanno rispettivamente i modelli unidimensionali di Klein-Gordon e Klein-Gordon cubico, o ”modello
ϕ4 ”). L’equazione (124) è Hamiltoniana con struttura standard e funzione di Hamilton
Z 2
p + (ux )2
H(u, p) = + V (u) dx .
X 2
Si consideri il problema ad estremi fissi in X = [0, 1] con V (u) = µu + λu3 e si scrivano le equazioni
di Hamilton per i coefficienti di Fourier nella base dei seni.
tecnica detta ”Inverse Scattering”, molto simile a quella che si usa per ricostruire un potenziale di
interazione a partire dall’analisi delle perticelle da esso ”diffuse”. La coppia di Lax della KdV è
def
Lψ = (−∂x2 + u)ψ = λψ , (136)
def
ψt = Mψ = [−4∂x3 + 3(2u∂x + ux )] , (137)
con ψ(t, x) campo scalare ausiliario complesso. La condizione di compatibilità è
ut = −uxxx + 6uux ⇔ ∂t L = [M, L] .
Si osservi che l’operatore M è anti-hermitiano, pertanto il campo ausiliario ψ evolve unitariamente
nel tempo (dimostrarlo a partire dalla (137)) e l’operatore L, hermitiano, ha spettro reale indipen-
dente dal tempo. Tale spettro, ovvero l’insieme dei λ nella (136), può essere quindi calcolato al
tempo t = 0. L’equazione (136) al tempo t = 0 è l’equazione di Schrödinger unidimensionale indi-
pendente dal tempo, con u(0, x), il dato iniziale della KdV, che gioca il ruolo di potenziale. La teoria
dell’Inverse Scattering per la KdV sulla retta è stata proposta per la prima volta in [GGKM67].
Una rassegna generale abbastanza completa sulla KdV è [Miura76]. Per la derivazione della KdV
e sue generalizzazioni a partire delle equazioni dell’idrodinamica si veda [Jo-WW].
3. Fluido ideale
Un altro esempio di sistema fisico per il quale si pone il problema di una descrizione Hamiltoniana
è il fluido ideale incomprimibile, descritto dall’equazione di Eulero
v t = −v · ∇v − ∇p , (138)
dove v(t, x) è il campo di velocità del fluido in x ∈ D ⊂ Rd (d = 2, 3) al tempo t, mentre p(t, x) è
il campo di pressione diviso per la densità (costante). Il campo di velocità soddisfa due condizioni:
ha divergenza nulla in tutto il dominio D occupato dal fluido e componente normale nulla sul bordo
∂D del dominio stesso:
∇ · v(t, x) = 0 ∀x ∈ D ; (139)
n(x) · v(t, x) = 0 ∀x ∈ ∂D , (140)
essendo n(x) il versore normale ”uscente” al bordo ∂D nel punto x. Si noti che la condizione di
incomprimibilità (139) equivale all’ipotesi di densità costante. Infatti, se nell’equazione di continuità
ρt + ∇ · (ρv) = 0 per la densità di massa del fluido si pone ρ = costante, si ottiene la (139). La
condizione al contorno (140), che esprime la condizione di tangenza al bordo del dominio del campo di
velocità, ha una semplice interpretazione fisica: l’assenza di perdite o entrate di fluido al bordo. Dal
punto di vista matematico la condizione di campo tengente al bordo assicura invece l’unicità della
soluzione (se esiste) dell’equazione di Eulero (138) (vedi ad es. [Ma&Be-VIF]). La condizione di
incomprimibilità (139) è anche quella che permette di risolvere il problema apparente della mancanza
dell’equazione di evoluzione per la pressione. Infatti, prendendo la divergenza dell’equazione di Eulero
e sfruttando la (139), si ottiene l’equazione di Poisson per p
∆p = −∇ · (v · ∇v) . (141)
Inoltre, moltiplicando la (138) per n(x su ∂D e sfruttando la (140) si ottiene la condizione al bordo
n · ∇p = −n · (v · ∇v) ∀x ∈ ∂D . (142)
Il problema (141)-(142) ammette soluzione definita a meno di una costante arbitraria, che indichiamo
simbolicamente come segue:
p(t, x) = −∆−1 ∇ · (v · ∇v)(t, x) . (143)
3. FLUIDO IDEALE 43
[Arn-MMMC] V.I. Arnol’d, Metodi matematici della meccanica classica, Editori Riuniti, 1979.
[Arn-EDO] V.I. Arnol’d, Equazioni differenziali ordinarie, Edizioni Mir, 1979.
[Arn66] V.I. Arnol’d, ”Sur la géométrie différentielle des groupes de Lie de dimension infinie et ses applications à
l’hydrodynamique des fluides parfaits”, Annales de l’Institut Fourier, 16 (1966), 319-361.
[Arn&Khe-TMH] V.I. Arnol’d, B.A. Khesin, Topological Methods in Hydrodynamics, Springer, 1998.
[DNF-GC] B.A. Dubrovin, S.P. Novikov, A.T. Fomenko, Geometria contemporanea - Vol. primo: Geometria delle
superfici, dei gruppi di trasformazioni e dei campi, Editori Riuniti, 1987.
[Fa&Ma-MA] A. Fasano, S. Marmi, Meccanica Analitica, Bollati Boringhieri, 1994.
[GGKM67] C.S. Gardner, J.M. Greene, M.D. Kruskal, R.M. Miura, ”Method for solving the Korteweg-de Vries
equation”, Physical Review Letters 19 (1967), 1095-1097.
[Gr-SL] W. Gröbner, Serie di Lie e loro applicazioni, Cremonese, 1972.
[Gr-GAL] W. Gröbner, Gruppi, anelli e algebre di Lie, Cremonese, 1975.
[HMRW85] D.D. Holm, J.E. Marsden, T. Ratiu, A. Weinstein, ”Nonlinear Stability of Fluid and Plasma Equilibria”,
Physics Reports 123 (1985), 1-116.
[Jo-WW] R.S. Johnson, A Modern Introduction to the Mathematical Theory of Water Waves, Cambridge University
Press, 1997.
[Lax76] P.D. Lax, ”Almost Periodic Solutions of the KdV equation”, SIAM Review 18 (1976), 351-375.
[Magri78] F. Magri, ”A simple model of the integrable Hamiltonian equation”, Journal of Mathematical Physics 19
(1978), 1156-1162.
[Ma&Be-VIF] A.J. Majda, A.L. Bertozzi, Vorticity and Incompressible Flow, Cambridge University Press, 2002.
[Ma&Ra-IMS] J.E. Marsden, T. Ratiu, Introduction to Mechanics and Symmetry, Springer, 1999.
[Miura76] R.M. Miura, ”The Korteweg-de Vries Equation: a Survey of Results”, SIAM Review 18 (1976), 412-459.
[Mor98] P.J. Morrison, ”Hamiltonian description of the ideal fluid”, Reviews of Modern Physics 70 (1998), 467-521.
[Nam73] Y. Nambu, ”Generalized Hamiltonian Dynamics”, Physical Review D 7 (1973), 2405-2412.
[Pro] C. Procesi, Elementi di teoria dei gruppi, Decibel, 1984.
[Sam] H. Samelson, Notes on Lie Algebras, Springer, 1990.
[YoGi90] Z. Yoshida, Y. Giga, ”Remarks on Spectra of Operator Rot”, Mathematische Zeitschrift 204 (1990), 235-245.
[Yo92] Z. Yoshida, ”Eigenfunction expansions associated with the curl derivatives in cylindrical geometries:
Completeness of Chandrasekhar-Kendall eigenfunctions”, Journal of Mathematical Physics 33 (1992), 1252-1256.
47