Note per il corso di MECCANICA HAMILTONIANA

Università degli Studi di Padova
Anno Accademico 2009-2010
Note per il corso di
MECCANICA HAMILTONIANA
Antonio Ponno
Dipartimento di Matematica Pura ed Applicata, email: [email protected]
Indice
Capitolo 1. Meccanica Hamiltoniana
1. Sistemi Hamiltoniani
2. Proprietà delle parentesi di Poisson
3. Elementi di geometria delle EDO
4. Trasformazioni canoniche
5
5
7
8
12
Capitolo 2. Cenni sui gruppi e sulle algebre di Lie
1. Gruppi: esempi
2. Gruppi e algebre di Lie
3. Coefficienti di struttura
17
17
19
22
Capitolo 3. Sistemi Hamiltoniani generalizzati
1. Strutture di Poisson
2. Trasformazioni di coordinate
3. Strutture di Lie-Poisson: il corpo rigido
4. Il gruppo euclideo SE(3) e l’algebra se(3)
25
25
28
30
34
Capitolo 4. Sistemi infinito-dimensionali
1. Equazione delle onde
2. Equazione di Korteweg-de Vries
3. Fluido ideale
37
37
40
42
Bibliografia
47
3
CAPITOLO 1
Meccanica Hamiltoniana
1. Sistemi Hamiltoniani
Un sistema dinamico Hamiltoniano a n gradi di libertà è definito da una funzione H(q, p) - detta
Hamiltoniana, o funzione di Hamilton - definita su un opportuno insieme Γ ⊂ Rn × Rn - detto spazio
delle fasi - e dalle equazioni di Hamilton ad essa associate:
q̇ = ∂∂pH
.
(1)
ṗ = − ∂∂qH
Le componenti di q sono dette coordinate canoniche mentre le componenti di p sono dette momenti
canonici coniugati. L’Hamiltoniana H è una costante del moto, o integrale primo, del sistema, cioè
la derivata rispetto al tempo di H, quando si calcoli quest’ultima sulle soluzioni delle equazioni del
moto (1), è identicamente nulla:
d
∂H ∂H ∂H ∂H
H(q(t), p(t)) =
·
−
·
(q(t), p(t)) ≡ 0 .
dt
∂q ∂p
∂p ∂q
Ne segue che, per ogni assegnato dato iniziale (q 0 , p0 ), in corrispondenza del quale la soluzione delle
equazioni (1) esiste, vale la legge di conservazione
H(q(t), p(t)) = E ≡ H(q 0 , p0 )
(2)
e il moto del sistema si svolge sulla superficie di energia costante
SE = {(q, p) ∈ Γ : H(q, p) = E} .
(3)
Esempio 1. L’esempio fondamentale di sistema Hamiltoniano è quello di una particella di massa
m che si muove sotto l’azione di un campo di forze di energia potenziale U (q). L’Hamiltoniana del
sistema in questo caso è la funzione energia totale
|p|2
+ U (q) ,
2m
e le equazioni di Hamilton (1) non sono altro che l’ equazione di Newton mq̈ = −∂U/∂q scritta come
sistema del primo ordine:
p
q̇ = m
.
ṗ = − ∂∂qU
H(q, p) =
Si descriva la superficie di energia costante SE nel caso generico unidimensionale (n = 1) e nel caso
particolare dell’oscillatore armonico n-dimensionale: U (q) = k|q|2 /2, q ∈ Rn (n = 1, 2, 3).
Esempio 2. Si consideri il sistema definito dall’Hamiltoniana
1
1
H(q, p) = |p|2 + q · Vq ,
2
2
dove V è una matrice n × n, simmetrica, definita positiva. Si studino le equazioni di Hamilton e si
descriva la superficie di energia costante SE .
5
6
1. MECCANICA HAMILTONIANA
Data una qualsiasi funzione1 F definita su Γ, la sua derivata rispetto al tempo lungo le soluzioni
delle equazioni del moto (1) è data da
d
∂F ∂H ∂F ∂H
F (q(t), p(t)) =
·
−
·
(q(t), p(t)) .
(4)
dt
∂q ∂p
∂p ∂q
Questa identità motiva l’introduzione della parentesi di Poisson
def
{F, G} =
∂F ∂G ∂F ∂G
·
−
·
,
∂q ∂p
∂p ∂q
(5)
vista come applicazione che ad ogni coppia di funzioni F, G definite su Γ associa una nuova funzione
{F, G} definita su Γ. Utilizzando la parentesi di Poisson, l’equazione (4) si scrive in forma compatta
Ḟ = {F, H} ,
(6)
e le equazioni di Hamilton (1) possono essere riscritte nella forma
q̇ = {q, H}
.
ṗ = {p, H}
(7)
Si verifica immediatamente che le coordinate canoniche q e p soddisfano le relazioni
{q, q} = {p, p} = On , {q, p} = In ,
(8)
note come parentesi di Poisson fondamentali.
È conveniente a questo punto compattare ulteriormente la notazione adottata, introducendo la
variabile vettoriale
q
x=
∈Γ,
(9)
p
in termini della quale le equazioni di Hamilton (1) si scrivono
ẋ = J∇H(x) ,
(10)
dove
def
J =
On In
−In On
(11)
è la matrice (2nn) simplettica standard. Tale matrice ha le seguenti proprietà:
J−1 = JT = −J ; J2 = −I2n ; det J = 1 .
(12)
La parentesi di Poisson (5) tra due funzioni F (x) e G(x) si scrive
{F, G} = ∇F · J∇G ,
(13)
in termini della quale le equazioni di Hamilton (7) diventano
ẋ = {x, H} .
(14)
Le parentesi fondamentali (8) si scrivono semplicemente
{x, x} = J .
1Si
suppone ovunque che le funzioni trattate siano analitiche.
(15)
2. PROPRIETÀ DELLE PARENTESI DI POISSON
7
2. Proprietà delle parentesi di Poisson
Le proprietà fondamentali della parentesi di Poisson (13) dipendono a loro volta dalle proprietà
(12) della matrice simplettica (11).
Proposizione 1. La parentesi di Poisson (13) è caratterizzata dalle seguenti proprietà:
• antisimmetria:
{F, G} = −{G, F } ∀F, G ;
• linearità:
{F + G, H} = {F, H} + {G, H} ∀F, G, H ;
• regola di Leibniz:
{F G, H} = F {G, H} + {F, H}G
∀F, G, H ;
(16)
(17)
(18)
• identità di Jacobi:
{F, {G, H}} + {G, {H, F }} + {H, {F, G}} = 0
∀F, G, H ;
(19)
• non degenerazione:
{F, G} = 0 ∀F ⇒ G ≡ costante .
(20)
C Dim. La proprietà (16) è conseguenza dell’antisimmetria di J; le proprietà (17) e (18) sono quelle
del gradiente. La proprietà (20) è conseguenza della non degenerazione del prodotto scalare euclideo
che definisce la parentesi: a · Jb = 0 per ogni a implica Jb = 0, da cui segue b = 0 essendo J non
singolare. Dimostriamo esplicitamente l’identità di Jacobi (19). Si ha
{F, {G, H}} = ∇F · J∇(∇G · J∇H) = (∂i F )Jij ∂j (∂k G)Jkl (∂l H) =
2
2
= (∂i F )Jij (∂jk
G)Jkl (∂l H) + (∂i F )Jij (∂k G)Jkl (∂jl
H) =
= ∇F · J(∂ 2 G)J∇H − ∇F · J(∂ 2 H)J∇G .
(21)
Permutando ciclicamente F , G e H si scrivono immediatamente:
{G, {H, F }} = ∇G · J(∂ 2 H)J∇F − ∇G · J(∂ 2 F )J∇H ,
(22)
{H, {F, G}} = ∇H · J(∂ 2 F )J∇G − ∇H · J(∂ 2 G)J∇F .
(23)
2
2
Ora, la matrice hessiana ∂ F è simmetrica, mentre J è antisimmetrica, per cui J∂ F J è simmetrica;
idem per quanto riguarda G e H. Ne segue che la somma di (21), (22) e (23) è identicamente nulla
(perché?) B
Osservazione 1. Si noti che le proprietà (16) e (17) assieme implicano linearità anche rispetto al
secondo argomento, cosı́ come (16) e (18) implicano la validità della regola di Leibniz anche rispetto
al secondo argomento. Analogamente, le proprietà (16) e (20) assieme implicano non degenerazione
rispetto al primo argomento: {F, G} = 0 per ogni G implica F identicamente costante.
Dato un sistema Hamiltoniano definito dall’Hamiltoniana H, segue dall’equazione (6) che F è una
costante del moto per il sistema se e solo se {F, H} = 0. Una conseguenza interessante dell’identità
di Jacobi (19) è che se F1 e F2 sono due costanti del moto per il sistema definito da H, allora lo è
anche F3 = {F1 , F2 } (dimostrarlo).
Esempio 3. I moti ”centrali” sono definiti da Hamiltoniane della forma
|p|2
+ U (|q|) ,
2m
q, p ∈ R3 . Si verifica che `1 = q2 p3 − q3 p2 e `2 = q3 p1 − q1 p3 sono costanti del moto. Inoltre
`3 = q1 p2 − q2 p1 = {`1 , `2 }, per cui anche `3 è una costante del moto (svolgere esplicitamente e
spiegare il risultato).
H=
8
1. MECCANICA HAMILTONIANA
Ad ogni assegnata funzione H definita su Γ resta associato in modo naturale un operatore
differenziale lineare del primo ordine
def
DH = { , H} = J∇H · ∇ ,
(24)
in termini del quale le proprietà (16)-(20) si possono riesprimere, ad esempio, come segue (verificarlo):
DG F = −DF G ;
(25)
DF +G = DF + DG ;
(26)
DF G = F DG + GDF ;
(27)
DF DG − DG DF = D{G,F } ;
(28)
DG = 0 ⇒ G ≡ costante .
(29)
La derivata di una qualsiasi funzione F definita su Γ si scrive Ḟ = DH F mentre le equazioni di
Hamilton (14) diventano ẋ = DH x. Si è quindi portati ad introdurre l’applicazione esponenziale
etDH per definire la soluzione delle equazioni di Hamilton al tempo t. Prima di farlo però, è bene
chiarire alcuni concetti che riguardano le equazioni differenziali in generale.
3. Elementi di geometria delle EDO
In questo paragrafo vengono esposte nozioni generali riguardanti le equazioni differenziali ordinarie (EDO), di cui le equazioni di Hamilton (10) sono un caso particolare. Si considerano di proposito
EDO su varietà differenziabili, dal momento che i concetti introdotti, in questo modo, hanno una
definizione naturale indipendente dal sistema di coordinate locali scelto. Inoltre la trattazione su
varietà è necessaria per introdurre in modo sintetico i gruppi e le algebre di Lie, che usiamo nel
seguito. Per un approccio alla geometria moderna con taglio orientato alla fisica teorica si consiglia
[DNF-GC].
Varietà differenziabili – Una varietà differenziabile M di dimensione n immersa in Rd , d ≥
n, è definita (localmente) da una applicazione differenziabile che ad ogni x ∈ D ⊂ Rn associa
biunivocamente un punto P (x) ∈ Rd . Lo jacobiano ∂P/∂x di tale applicazione ha rango n, che
equivale alla condizione di indipendenza lineare degli n vettori tangenti τ i = ∂P/∂xi (i = 1, . . . , n),
per ogni x ∈ D. Lo spazio tangente a M in un punto P è lo spazio vettoriale generato dagli n vettori
τ i tangenti a M in P e si indica con TP M ≡ Tx M:
def
Tx M = {V ∈ Rd : V (x) = Vi (x)τ i } .
(30)
Si noti che il punto P (x) su M è normalmente identificato e indicato con x, tale identificazione
essendo permessa dalla biunivocitaà dell’applicazione x 7→ P (x). Si scrive x ∈ M per indicare un
punto sulla varietà, anche se, a stretto rigore, x varia in D, sottoinsieme di Rn , mentre è la sua
immagine P (x) che sta su M. Le coordinate locali sulla varietà M sono le componenti x1 , . . . , xn
del vettore x.
Campi vettoriali ed EDO su varietà – Sia M una varietà differenziabile di dimensione n,
e sia V (x) un campo vettoriale definito su M, cioè un’applicazione che ad ogni x ∈ M associa
V (x) ∈ Tx M. Il modo standard di definire V (x) è quello di assegnare una curva regolare ϕ(t) ∈ M
definita in un intorno I ⊂ R dello zero, tale che ϕ(0) = x. Allora il vettore tangente alla curva nel
punto x, cioè V (x) = ϕ̇(0), è tangente a M in x per costruzione. Ragionando in coordinate locali,
la curva ϕ(t) viene assegnata su D e si considera la composizione P (ϕ(t)). Allora risulta
d
V (x) = P (ϕ(t)) = ϕ̇i (0)τ i (x) .
dt
t=0
Si osservi quindi che la scrittura V (x) = ϕ̇(0) significa che le componenti di V (x) nella base dello
spazio tangente Tx M sono gli n numeri ϕ̇i (0).
3. ELEMENTI DI GEOMETRIA DELLE EDO
9
Assegnato un campo vettoriale v(P ) ≡ V (x) su M, una equazione differenziale ordinaria (EDO)
su M si scrive Ṗ = v(P ). Essendo P (t) ≡ P (x(t)), si può proiettare l’EDO sulla base di Tx(t) M e
riscriverla quindi in coordinate locali come ẋ = V (x).
Esempio 4. Una parametrizzazione della sfera S 2 è data da P (θ, φ) = (sin θ cos φ, sin θ sin φ, cos θ),
con x = (θ, φ) ∈]0, π[×[0, 2π[. I due vettori tangenti a S 2 sono τ θ = (cos θ cos φ, cos θ sin φ, − sin θ)
e τ φ = (− sin θ sin φ, sin θ cos φ, 0). Un campo vettoriale su S 2 è una combinazione lineare dei due
vettori tangenti con coefficienti dipendenti da θ e φ:
V (θ, φ) = Vθ (θ, φ)τ θ + Vφ (θ, φ)τ φ .
Una EDO su S 2 è rappresentata (in coordinate locali) dal sistema di due equazioni differenziali
θ̇ = Vθ (θ, φ), φ̇ = Vφ (θ, φ).
Derivata di Lie – Data una qualsiasi funzione F (x) definita su M e data la curva ϕ(t) ∈ M il
cui vettore tangente in ϕ(0) = x è ϕ̇(0) = V (x), si può considerare la composizione F (ϕ(t)), la cui
derivata rispetto a t in t = 0 vale
d
F (ϕ(t)) = V (x) · ∇F (x) = (£V F )(x) .
dt
t=0
dove la quantità
∂
def
(31)
£V = V · ∇ = V i
∂xi
prende il nome di derivata nella direzione del campo V , o derivata di Lie lungo V . Vale
£V (x) x = V (x) ,
(32)
identità alla base dell’identificazione che viene fatta spesso tra campi vettoriali e derivate di Lie ad
essi associate.
Serie di Lie – Dato un campo vettoriale V su M, con derivata di Lie associata £V , l’operatore
esponenziale
X tk
def
[£V ]k
(33)
et£V =
k!
k≥0
prende il nome di serie di Lie associata a V di parametro t, o ”al tempo t”. L’operatore et£V (x)
agisce su funzioni di x definite su M. Si osservi che
t£V e = idM ;
(34)
t=0
d t£V
e
= £V et£V = et£V £V .
dt
Queste ultime due relazioni motivano la seguente
Proposizione 2. La soluzione formale del problema di Cauchy
ẋ = V (x) = LV (x) x
x(0) = ξ
(35)
(36)
è data dalla serie di Lie
x(t) = et£V (ξ) ξ
(37)
10
1. MECCANICA HAMILTONIANA
C Dim. Sia F una funzione definita su M; se si dimostra che
F (et£V (ξ) ξ) = et£V (ξ) F (ξ) ,
(38)
allora, facendo uso delle relazioni (32) e (35), si ottiene
d t£V (ξ)
e
ξ = et£V (ξ) £V (ξ) ξ = et£V (ξ) V (ξ) = V (et£V (ξ) ξ) ,
dt
cioè ẋ = V (x) (dove F è qualsiasi componente di V ), e quind la tesi della proposizione quando si
osservi che la (34) garantisce la condizione x(0) = ξ. La dimostrazione della (38) si fa per passi.
(1) Si osserva che £V (ξ) è un operatore di derivazione e quindi soddisfa la regola di Leibniz:
£V (ξ) (ξi − ai )(ξj − aj ) = [£V (ξ) (ξi − ai )](ξj − aj ) + (ξi − ai )[£V (ξ) (ξj − aj )] ,
essendo ξi − ai e ξj − aj componenti qualsiasi di ξ − a, con a arbitrario.
(2) Si dimostra (ad esempio per induzione, oppure iterando la relazione precedente) che
N X
N
−s
(ξ
−
a
)(ξ
−
a
)
=
[£sV (ξ) (ξi − ai )][£N
£N
i
j
j
V (ξ) i
V (ξ) (ξj − aj )] .
s
s=0
(3) Moltiplicando per
ottiene
tN
e dividendo per N ! la relazione precedente e sommando su N ≥ 0, si
et£V (ξ) (ξi − ai )(ξj − aj ) = [et£V (ξ) (ξi − ai )][et£V (ξ) (ξj − aj )] .
(4) La (38) segue dal fatto che qualsiasi funzione analitica F in un intorno di ξ = a si scrive
X
F (ξ) =
cq (ξ1 − a1 )q1 · · · (ξn − an )qn . B
q
Osservazione 2. Espandendo l’esponenziale in (37) si ottiene lo sviluppo in serie di Taylor di
x centrato in t = 0. Il problema della convergenza (in t) della serie di Lie (33) è quindi ricondotto
a quello dell’esistenza di una soluzione analitica vicino all’origine (t = 0) del problema (36), o
viceversa. Vedi [Gr-SL].
Flusso – Dato un campo vettoriale V su M, la famiglia a un parametro di applicazioni ΦtV da
M in sé che per ogni t fissato (in un intorno dello zero) associa a ξ ∈ M la soluzione del problema
(36) al tempo t, si chiama flusso del (o associato al) campo vettoriale V . Si ha:
ΦtV (ξ) = et£V (ξ) ξ .
(39)
Valgono le ovvie proprietà ΦtV ◦ ΦsV = ΦVt+s , Φ0V = idM e [ΦtV ]−1 = Φ−t
V , tutte ereditate dalla serie
di Lie (33). Osserviamo che la relazione (39) è alla base della identificazione, spesso operata, tra
flusso di un campo e serie di Lie associata.
Osservazione 3. Se V (x) = Ax, cioè se il campo vettoriale V è lineare con matrice associata
A (indipendente da x), allora si mostra facilmente che
et£Aξ ξ = etA ξ ,
(40)
cioè la serie di Lie associata e (quindi il flusso) sono dati dall’ordinario esponenziale di matrice.
Commutazione di flussi e campi – Se su M sono assegnati due campi vettoriali U e V , ha
senso chiedersi quale è il grado di commutatività dei due rispettivi flussi. Vale la
Proposizione 3.
ΦtU ◦ ΦsV − ΦsV ◦ ΦtU ≡ 0 ⇔ £U £V − £V £U ≡ 0
(41)
3. ELEMENTI DI GEOMETRIA DELLE EDO
11
C Dim. Definiamo
∆(t, s; ξ) = ΦtU (ΦsV (ξ)) − ΦsV (ΦtU (ξ)) = et£U (ξ) es£V (ξ) ξ − es£V (ξ) et£U (ξ) ξ .
Se ∆ ≡ 0 allora anche tutte le sue derivate rispetto a t ed s, calcolate in t = s = 0, sono
identicamente nulle. In particolare
∂2
∆(t, s; ξ)
= £U (ξ) £V (ξ) ξ − £V (ξ) £U (ξ) ξ .
0≡
∂t∂s
t=s=0
D’altra parte, se £U £V − £V £U ≡ 0, commutano anche le due serie di Lie associate (lo si prova
immediatamente usando la definizione di esponenziale per serie) e quindi ∆ ≡ 0. B
Dunque il grado di commutatività dei flussi associati ai campi vettoriali U e V dipende dalla
differenza dei prodotti commutati, o commutatore, delle derivate di Lie corrispondenti. Calcolato in
coordinate, tale commutatore si esprime come
[£U , £V ]
def
=
=
=
£U £V − £V £U = Ui ∂i (Vj ∂j ) − Vi ∂i (Uj ∂j ) =
[Ui (∂i Vj ) − Vi (∂i Uj )]∂j = (U · ∇V − V · ∇U ) · ∇ =
£U ·∇V −V ·∇U = £[U ,V ] ,
(42)
dove il campo vettoriale
def
[U , V ] = U · ∇V − V · ∇U ,
(43)
è detto (con abuso di nome e notazione) commutatore dei campi vettoriali U e V . Dunque il commutatore delle derivate di Lie associate ai campi U e V è la derivata di Lie associata al commutatore
dei campi vettoriali U e V . Si faccia attenzione al fatto che qui e nel seguito, per adeguarsi alla
letteratura esistente, lo stesso simbolo [ , ] viene usato per indicare oggetti completamente diversi,
anche se viene sempre indicato come commutatore.
Proprietà dei commutatori – Notiamo che il commutatore delle derivate di Lie definisce una
applicazione prodotto sull’insieme delle derivate di Lie associate ai campi vettoriali su M. Tale
prodotto è antisimmetrico, (bi-)lineare e soddisfa l’identità di Jacobi:
[£U , £V ] = −[£V , £U ]
[£U + £V , £W ] = [£U , £W ] + [£V , £W ]
[£U , [£V , £W ]] + [£V , [£W , £U ]] + [£W , [£U , £V ]] = 0 .
(44)
(45)
(46)
Grazie alla (42), e alle due ovvie proprietà £U +V = £U + £V , £U = 0 ⇒ U = 0, le tre proprietà
(44)-(46) si trasferiscono sui commutatori di campi vettoriali come segue (dimostrarlo):
[U , V ] = −[V , U ]
[U + V , W ] = [U , W ] + [V , W ]
[U , [V , W ]] + [W , [U , V ]] + [V , [W , U ]] = 0 .
(47)
(48)
(49)
Quindi anche il commutatore di campi vettoriali è un prodotto antisimmetrico, (bi)-lineare e che
soddisfa l’identità di Jacobi.
Caso Hamiltoniano – M = Γ. Il membro destro delle equazioni del moto (10) o, equivalentemente, (14), prende il nome di campo vettoriale Hamiltoniano associato ad H, e si indica con
X H (x):
X H (x) = J∇H(x) = DH(x) x .
(50)
Essendo dato dal prodotto della matrice simplettica standard J per il gradiente di H, il campo
vettoriale X H viene anche detto gradiente simplettico della funzione H. Segue immediatamente
dalla definizione (24) di DH che
DH = LX H = LJ∇H ,
(51)
12
1. MECCANICA HAMILTONIANA
cioè l’operatore DH è la derivata di Lie lungo X H . Il flusso associato ad un campo vettoriale
Hamiltoniano X H si indica, con leggero abuso di notazione, con ΦtH e vale
ΦtH (x) = et£X H (x) (x) = etDH(x) x .
(52)
La relazione fondamentale che permette di caratterizzare i campi vettoriali Hamiltoniani è data dalla
seguente
Proposizione 4. Il commutatore di due campi vettoriali Hamiltoniani associati a due funzioni
di Hamilton H e K è il campo vettoriale Hamiltoniano associato alla funzione di Hamilton {K, H}:
[X H , X K ] = [J∇H, J∇K] = J∇{K, H} = X {K,H} .
(53)
C Dim. Sostituendo U = J∇H e V = J∇K nella definizione (43) di commutatore di due campi
vettoriali, si ha
[X H , X K ]j
= (J∇H)i ∂i (J∇K)j − (J∇K)i ∂i (J∇H)j =
2
2
= Jis (∂s H)Jjq (∂iq
K) − Jis (∂s K)Jjq (∂iq
H) =
2
2
= Jis (∂s H)Jjq (∂iq
K) − Jsi (∂i K)Jjq (∂sq
H) =
2
2
= Jis (∂s H)Jjq (∂iq
K) + Jis (∂i K)Jjq (∂sq
H) =
= Jjq ∂q [(∂i K)Jis (∂s H)] = (J∇{K, H})j = (X {K,H} )j .B
(54)
Una conseguenza immediata della proposizione precedente è che l’identità di Jacobi (19) soddisfatta dalla parentesi di Poisson è conseguenza dell’identità di Jacobi (49) soddisfatta dai campi
vettoriali (dimostrarlo). Risulta dunque chiaro che se ci si restringe ai campi vettoriali Hamiltoniani,
le proprietà del commutatore [ , ] tra campi vettoriali vengono trasferite sulla parentesi di Poisson
{ , } tra funzioni definite su Γ. Tali proprietà fondamentali sono l’antisimmetria, la bi-linearità e
l’identità di Jacobi. Per capire a cosa sia dovuto tale fatto, come interpretarlo correttamente e quali
generalizzazioni sono permesse, si deve entrare, anche solo parzialmente, nella teoria dei gruppi e
delle algebre di Lie.
4. Trasformazioni canoniche
Dato un sistema Hamiltoniano ẋ = J∇H(x) si pone il problema della sua trasformazione rispetto a cambiamenti di variabili x 7→ y = C(x), ovvero trasformazioni di coordinate C che siano
diffeomorfismi (biiezioni differenziabili) di Γ in sé. Ci restringiamo a cambiamenti di variabili indipendenti dal tempo, anche se risultati generali possono essere formulati nel caso in cui C dipenda
esplicitamente da t (vedi [Fa&Ma-MA]). La classe fondamentale di trasformazioni di coordinate
della meccanica Hamiltoniana è quella delle trasformazioni canoniche.
Definizione 1. Una trasformazione di coordinate y = C(x) si dice canonica se rispetto ad
essa, qualunque sistema Hamiltoniano ẋ = J∇x H(x) si trasforma nel sistema Hamiltoniano ẏ =
J∇y K(y), dove K(y) = H(C −1 (y)).
Per caratterizzare le trasformazioni canoniche facciamo le considerazioni seguenti. Sia y = C(x)
una trasformazione di coordinate qualsiasi. Se x(t) è soluzione di ẋ = J∇H(x), allora y(t) = C(x(t))
soddisfa
"
T #
∂C
∂C
∂C
ẏ =
J∇x H(x) =
J
∇y H(C −1 (y)) .
(55)
∂x
∂x
∂x
−1
x=C
(y)
4. TRASFORMAZIONI CANONICHE
13
Quindi l’effetto di una trasformazione di coordinate qualsiasi è quello di trasformare la matrice simplettica standard nella matrice (∂x C)J(∂x C)T (espressa in funzione della nuova variabile2).
Osserviamo poi che
"
T #
∂C
∂C
∂yi
∂yl
J
=
Jjk
= ∇yi · J∇yl = {yi , yl } ,
∂x
∂x
∂xj
∂xk
il
che in forma compatta si può scrivere come
T
∂C
∂C
J
= {y, y}x .
∂x
∂x
(56)
Infine, poiché ∇x = (∂x C)T ∂y , la parentesi di Poisson di due funzioni qualsiasi F e G definite su Γ
si trasforma come segue
"
T #
∂C
∂C
{F, G}x (C −1 (y)) = ∇y F (C −1 (y)) ·
J
∇y G(C −1 (y)) .
(57)
∂x
∂x
−1
x=C
(y)
Proposizione 5. Le seguenti affermazioni sono equivalenti:
(1) C : x 7→ y è canonica;
(2) (∂x C)J(∂x C)T = J;
(3) C conserva le parentesi di Poisson fondamentali, ovvero {y, y}x = J;
(4) C conserva le parentesi di Poisson, nel senso che {F, G}x ◦ C −1 = {F ◦ C −1 , G ◦ C −1 }y per
ogni F e G.
C Dim. L’equivalenza 1)-2) si basa sulla relazione (55); l’equivalenza 2)-3) si basa sulla relazione
(56); l’equivalenza 2)-4) si basa sulla relazione (57). B
Un esempio particolarmente interessante e utile in pratica è quello delle trasformazioni canoniche
lineari, definite da
∂C
y = C(x) = Sx ,
=S,
∂x
essendo S una matrice 2n × 2n invertibile. La condizione 2) della proposizione 5 diviene in questo
caso
SJST = J .
(58)
Vedremo nel prossimo capitolo che questa relazione definisce un gruppo di matrici che si chiama
gruppo simplettico ed è un esempio di gruppo di Lie. Se la trasformazione lineare ”non mescola” le
coordinate e gli impulsi allora la matrice di trasformazione S è a blocchi:
A On
S=
,
On B
con A e B matrici n × n invertibili. Imponendo che S soddisfi la condizione di simpletticità (58) si
ottiene la condizione ABT = In , ovvero B = (A−1 )T . Quindi le trasformazioni canoniche che non
mescolano le coordinate e gli impulsi sono della forma
Q = Aq , P = (A−1 )T p .
2Si
noti che dalle proprietà degli jacobiani segue che
"
T #
−1
−1 !T
∂C
∂C
∂ C −1 (y)
∂ C −1 (y)
J
=
J
.
∂x
∂x
∂y
∂y
−1
x=C
(y)
(59)
14
1. MECCANICA HAMILTONIANA
Esempio 5. Dato il sistema Hamiltoniano a n gradi di libertà definito da
1
1
H = |p|2 + q · Vq ,
2
2
dove V è una matrice n × n simmetrica, esiste una trasformazione lineare che porta H nella somma
di n+ Hamiltoniane di oscillatore armonico unidimensionale, n− Hamiltoniane di oscillatore iperbolico unidimensionale e n0 Hamiltoniane di particella libera unidimensionale. n+ , n− ed n0 sono
rispettivamente il numero di autovalori positivi, negativi e nulli di V; n+ + n− + n0 = n (dimostrare
tutto in dettaglio; in particolare si determini il ruolo degli autovalori di V).
Un modo concreto di realizzare trasformazioni canoniche consiste nel realizzarle tramite flussi
Hamiltoniani. Precisamente, data una funzione di Hamilton K, il flusso ΦsK ad essa associato,
definito dalla (52), definisce una famiglia a un parametro di trasformazioni di Γ in sé. Definiamo la
trasformazione C : x 7→ y come segue:
−sDK
y = C(x) = Φ−s
x.
K (x) = e
(60)
Proposizione 6. I flussi Hamiltoniani realizzano trasformazioni canoniche.
C Dim. La proposizione si dimostra facendo vedere che per la trasformazione inversa della (60) vale
la condizione 4) della proposizione 5. Si ha ovviamente
x = C −1 (y) = Φs (y) = esDK y ,
e si vuole far vedere che
{F, G} ◦ C −1 = esDK {F, G} = {esDK F, esDK G} = {F ◦ C −1 , G ◦ C −1 } .
(61)
L’identità di Jacobi (19), con H = K, si può facilmente riscrivere come
DK {F, G} = {DK F, G} + {F, DK G} .
Da questa relazione si dimostra, ad esempio per induzione, che
n X
n
n−j
j
n
G} ;
F, DK
DK {F, G} =
{DK
j
j=0
moltiplicando per sn /n! e sommando su n ∈ N si ottiene la (61). B
Quindi, muovendosi nello spazio delle fasi tramite flussi Hamiltoniani si lasciano le equazioni
di Hamilton di un dato sistema invarianti in forma, dovendosi solamente ricalcolare l’Hamiltoniana
nelle nuove coordinate. Questo fatto è di fondamentale importanza e permette di formulare in modo
semplicissimo il legame tra simmetrie e costanti del moto per i sistemi Hamiltoniani. Vale il seguente
Teorema 1 (Toerema di Noether). Se l’Hamiltoniana H(x) è invariante rispetto alla trasformazione canonica realizzata dal flusso di K, se cioè H(ΦsK (y)) = H(y), allora K è una costante del
moto per il sistema ẋ = J∇H(x).
C Dim. Si ha
H(y) = H(ΦsK (y)) = H(esDK y) = esDK H(y)
per ogni s. Derivando questa relazione rispetto a s e ponendo poi s = 0 si ottiene
0 = DK H = {H, K} .B
Esempio 6. Nel caso dei moti centrali, definiti nell’esempio 3, H è funzione del modulo di p
e del modulo di q, essendo pertanto invariante rispetto a rotazioni nello spazio delle coordinate e a
rotazioni nello spazio dei momenti. Fissiamo un vettore ξ ∈ R3 e consideriamo l’Hamiltoniana
K(q, p) = ξ · (q ∧ p) ,
4. TRASFORMAZIONI CANONICHE
15
che rappresenta la proiezione lungo ξ del momento angolare. Le equazioni di Hamilton associate a
K sono
q̇ = ξ ∧ q , ṗ = ξ ∧ p ,
la cui soluzione al ”tempo s” si scrive
Φs (Q, P ) = (esA Q, esA P ) ,
essendo A l’unica matrice 3 × 3 antisimmetrica tale che Ay = ξ ∧ y (vedere più avanti per dettagli
su tale corrispondenza). La matrice esA descrive una rotazione attorno all’asse ξ. L’osservata invarianza per rotazioni di H implica che K è una costante del moto. Dall’arbitrarietà di ξ segue la
conservazione del vettore momento angolare q ∧ p nei moti centrali.
CAPITOLO 2
Cenni sui gruppi e sulle algebre di Lie
1. Gruppi: esempi
Iniziamo dando la definizione astratta di gruppo (per una esposizione sintetica della teoria dei
gruppi si consulti [Pro]).
Definizione 2. Sia G un insieme e ◦ : G × G → G un’operazione su di esso; si dice che G è un
gruppo rispetto all’operazione ◦ se
i) g1 ◦ (g2 ◦ g3 ) = (g1 ◦ g2 ) ◦ g3 ∀g1 , g2 , g3 ∈ G;
ii) ∃e ∈ G : g ◦ e = e ◦ g = g ∀g ∈ G;
iii) ∀g ∈ G ∃g −1 ∈ G : g −1 ◦ g = g ◦ g −1 = e.
A parole: G è un gruppo se è dotato di un’operazione associativa, con elemento neutro ed elemento
inverso di ogni elemento. Cosı́ ad esempio Z, Q, R e C sono gruppi rispetto all’addizione (◦ = +),
mentre non lo sono rispetto alla moltiplicazione, poiché lo zero non ammette inverso (lo zero è
l’elemento neutro dell’addizione, l’inverso rispetto all’addizione è l’opposto). Piú in generale, tutti
gli spazi vettoriali su campo reale o complesso sono gruppi rispetto all’addizione.
Se l’operazione ◦ è commutativa, cioè se g1 ◦ g2 = g2 ◦ g1 per ogni coppia di elementi g1 , g2 , il
gruppo G si dice abeliano, o commutativo. Gli spazi vettoriali sono gruppi abeliani.
Un esempio di gruppo non abeliano è quello delle permutazioni di n elementi. L’insieme G
in questo caso consiste delle n! permutazioni possibili, mentre l’operazione è la composizione tra
permutazioni.
Esempi fondamentali di gruppi non commutativi si ottengono considerando insiemi opportuni di
matrici non singolari (invertibili). In tale caso l’operazione è l’ordinaria moltiplicazione tra matrici,
l’elemento neutro è dunque la matrice identità, mentre l’inverso di un elemento, una matrice, è
ovviamente la matrice inversa. Riportiamo alcuni esempi di classici gruppi di matrici (si verifichi
in dettaglio per ognuno di essi che il prodotto di due matrici del gruppo è ancora una matrice del
gruppo e che valgono le tre proprietà gruppali della definizione).
• GL(n, R) – gruppo Generale Lineare (reale): il gruppo delle matrici reali n × n invertibili.
Una matrice A ∈ GL(n, R) è individuata assegnando n2 numeri reali, cioè specificando tutti
i suoi elementi. Dunque la dimensione del gruppo, ovvero il numero di parametri indipendenti che si deve fissare per determinare univocamente ciascun elemento, è n2 . Scriviamo:
dim GL(n, R) = n2 .
Se si impone il vincolo di determinante unitario sugli elementi di GL(n, R), si ottiene
il sottogruppo SL(n, R), il gruppo Speciale Lineare (reale). Notare che la moltiplicazione
matriciale conserva il vincolo. Una matrice A ∈ SL(n, R) è individuata da n2 − 1 numeri
reali: dim SL(n, R) = n2 − 1. Si definiscono in modo analogo i gruppi GL(n, C) e SL(n, C)
(dim = 2n2 e dim = 2n2 − 2 rispettivamente: spiegarlo).
• O(n, R) ≡ O(n) – gruppo Ortogonale (reale): il gruppo delle matrici reali n × n che
conservano il prodotto scalare euclideo in Rn e soddisfano pertanto la relazione
RRT = In ⇔ RT R = In .
17
(62)
18
2. CENNI SUI GRUPPI E SULLE ALGEBRE DI LIE
Dalla relazione precedente, che definisce il gruppo, segue che dim O(n) = n(n − 1)/2 (verificarlo calcolando il numero di relazoni indipendenti che devono soddisfare gli n vettori
colonna di R e sottrarre tale numero da n2 ). Dalla (62) segue anche che det R = ±1. Nel
caso in cui ci si restringa al segno positivo, si ottiene il gruppo SO(n, R) ≡ SO(n), il gruppo
speciale ortogonale, o gruppo delle rotazioni in Rn (dim SO(n) = dim O(n) = n(n − 1)/2).
In questo caso, oltre alla conservazione del prodotto scalare, la trasformazione associata a R
conserva anche l’orientamento (riflettere sul fatto che O(3) contiene l’inversione degli assi,
−I3 , che non può essere operata da alcuna rotazione della base canonica di R3 ).
• U (n, C) ≡ U (n) – gruppo Unitario (complesso): il gruppo delle matrici complesse n × n
che conservano il prodotto scalare hermitiano in Cn e soddisfano pertanto la relazione
UU† = In ⇔ U† U = In .
(63)
Qui U† = (UT )∗ = (U∗ )T indica la coniugazione hermitiana (trasposizione e complessa
coniugazione). Si ha dim U (n) = n2 che risulta dal seguente ragionamento. Una matrice
complessa n × n è individuata da n2 numeri complessi, ovvero 2n2 numeri reali. Dalla
(63) segue che le relazioni indipendenti che devono soddisfare i vettori colonna di U, sono
n(n − 1)/2 (ortogonalizzazione a due a due) piú n (normalizzazione di ognuno). Il primo
gruppo di relazioni consiste in equazioni complesse, dunque il numero di equazioni reali
corrispondenti è doppio, cioè n(n − 1); il secondo gruppo consiste invece di equazioni reali
(perché?). Dunque 2n2 −n(n−1)−n = n2 . Osserviamo che dalla (63) segue che | det U| = 1,
cioè det U = eiφ . In questo caso, a differenza di quanto accade per O(n), fissando il valore
del determinante il numero di parametri (reali) indipendenti diminuisce di una unità (perché
non di due?): dim SU (n) = n2 − 1.
• SP (2n, R) ≡ SP (2n) – gruppo Simplettico (reale): il gruppo delle matrici reali 2n × 2n
che soddisfano
SJST = J ⇔ ST JS = J ,
(64)
dove J ∈ SP (2n) è la matrice simplettica standard (11). Questo è un gruppo di importanza
fondamentale per la meccanica Hamiltoniana. Si ha dim SP (2n) = n(2n + 1), relazione che
si ottiene con il seguente ragionamento. Se
a b
S=
,
c d
ogni blocco essendo quadrato n × n, allora la condizione (64) che definisce il gruppo si
traduce nelle tre condizioni (dimostrarlo) aT c = (aT c)T , bT d = (bT d)T e aT d − cT b = In .
La condizione di simmetria delle due matrici aT c e bT d è espressa da n(n − 1)/2 equazioni
per ognuna delle due, mentre la condizione che la matrice aT d − cT b sia uguale all’identità è
espressa da n2 equazioni. In totale, la condizione (64) è espressa quindi da n(n − 1) + n2 =
2n2 − n equazioni. Sottraendo quest’ultimo numero da 4n2 (il numero degli elementi della
matrice S) si ottiene dim SP (2n) = n(2n + 1).
Osserviamo che la condizione (64) implica immediatamente det S = ±1. In realtà le
matrici di SP (2n) hanno determinante uguale a uno. Infatti,
det(S − λI2n ) = det(JT SJ − λI2n ) = det(JT SJST (ST )−1 − λI2n ) =
λ2n
= det((ST )−1 (I2n − λST ) =
det(S − λ−1 I2n ) .
(det S)
Dalla relazione precedente si deduce che se λ0 è autovalore di S allora lo è anche 1/λ0 , con
la stessa molteplicità algebrica (dimostrarlo). Il prodotto degli autovalori di S, cioè det S,
2. GRUPPI E ALGEBRE DI LIE
19
vale quindi uno. Per maggiori dettagli su SP (2n) e le sue connessioni con gli altri gruppi
menzionati sopra consultare [Arn-MMMC] e [Ma&Ra-IMS].
Per quanto visto al capitolo precedente, Il gruppo simplettico SP (2n) gioca un ruolo
fondamentale in meccanica Hamiltoniana perché è il gruppo delle trasformazioni canoniche
lineari. Si è anche visto che in generale una trasformazione è canonica se e solo se ha per
matrice jacobiana una matrice simplettica (dipendente da x). Dalla proprietà di chiusura di
SP (2n) rispetto alla moltiplicazione tra matrici segue poi che la composizione di trasformazioni canoniche è ancora una trasformazione canonica (verificarlo). Di conseguenza anche le
trasformazioni canoniche costituiscono un gruppo (perché?).
Un altro esempio fondamentale di gruppo è quello delle biiezioni di un assegnato insieme S
in sé, che indichiamo con B(S). L’operazione è la composizione di biiezioni, che è associativa;
l’elemento neutro è la trasformazione identica idS ; dato poi un qualsiasi elemento di B(S), cioè
una applicazione biiettiva di S in sé, questo ammette elemento inverso, precisamente l’applicazione
inversa dell’applicazione data. Ovviamente, ci si può restringere a opportuni sottogruppi di B(S),
ovvero sottoinsiemi di quest’ultimo che siano gruppi rispetto alla stessa operazione (la composizione).
B(S) è l’esempio piú generale possibile di gruppo di trasformazioni, che include tutti gli esempi
fatti sopra. Infatti, nel caso delle permutazioni si ha S = {1, 2, . . . , n}. D’altra parte, i gruppi di
matrici possono essere visti come gruppi di trasformazioni lineari invertibili. In tale caso S = Rn
oppure S = Cn . La composizione di trasformazioni lineari ha per matrice associata il prodotto delle
matrici associate alle trasformazioni composte (nello stesso ordine), fatto che consente di trattare
direttamente le matrici, a prescindere dal fatto che rappresentino biiezioni lineari, come abbiamo
fatto sopra. Tutti i gruppi di matrici menzionati sopra sono sottogruppi di GL(n, R) o di GL(n, C).
Il caso che maggiormente ci interesserà nel seguito è quello di gruppo di diffeomorfismi di una
varietà differenziabile S = M in sé. Tale gruppo si indica con Diff(M) ed è ovviamente un sottogruppo di B(M). Notare che, se K = R oppure K = C, allora GL(n, K) ⊂ Diff(Kn ) (modulo
l’identificazione del gruppo di matrici GL(n, K) con il gruppo di trasformazioni lineari invertibili di
Kn in sé).
2. Gruppi e algebre di Lie
Definizione 3. Un gruppo di Lie di dimensione dim G = n è un gruppo G che abbia struttura di
varietà differenziabile n-dimensionale compatibile con la struttura di gruppo.
In pratica ogni elemento g ∈ G è individuato assegnando n numeri reali, ovvero deve esistere una
applicazione differenziabile µ 7→ g(µ) ∈ G, compatibile con l’operazione ◦ che definisce il gruppo,
definita su G ⊆ Rn , detta varietà gruppale, o spazio dei parametri. Quindi, prima di tutto, deve
essere soddisfatta la condizione di chiusura, ovvero per ogni coppia di parametri (n-uple di parametri)
µ, ν deve esistere un solo parametro ω tale che g(µ) ◦ g(ν) = g(ω). Essendo poi ◦ associativa, la
relazione g(µ) ◦ (g(ν) ◦ g(ω)) = (g(µ) ◦ g(ν)) ◦ g(ω) deve valere per ogni terna µ, ν, ω. L’esistenza
dell’elemento neutro richiede che esista un particolare parametro µe , al quale corrisponda l’unità
e = g(µe ): g(µ) ◦ g(µe ) = g(µe ) ◦ g(µ) = g(µ) deve valere per ogni µ. Infine, per ogni µ deve
esistere un µ̃ tale che g(µ) ◦ g(µ̃) = g(µ̃) ◦ g(µ) = g(µe ). Senza perdita di generalità si può
porre µe = 0. Facciamo notare che la condizione di chiusura equivale a postulare l’esistenza di una
applicazione f : G × G → G, ω = f (µ, ν), sulla quale si trasferiscono le tre condizioni gruppali.
Precisamente, si deve avere f (µ, f (ν, ω)) = f (f (µ, ν), ω) (per ogni µ, ν, ω) per l’associatività,
f (µ, 0) = f (0, µ) = µ (per ogni µ) per l’esistenza del neutro e f (µ, µ̃) = f (µ̃, µ) = 0 (per ogni
µ, µ̃) per l’esistenza dell’inverso di ogni elemento. Ovviamente queste condizioni impongono delle
condizioni sulla f . Lo studio dei gruppi di Lie (e delle algebre associate, vedi sotto) viene in questo
20
2. CENNI SUI GRUPPI E SULLE ALGEBRE DI LIE
modo ricondotto al problema della caratterizzazione dell’applicazione f . Per approfondimenti si
rimanda a [Mor98] e [Gr-GAL].
Esempio 7. I gruppi di matrici (o trasformazioni lineari) menzionati al paragrafo precedente sono
tutti gruppi di Lie di dimensione finita (che è stata calcolata determinando il numero di parametri
indipendenti che definiscono il generico elemento del gruppo).
Esempio 8. Il gruppo Diff(M) è un gruppo di Lie infinito-dimensionale. È tuttavia sempre
possibile ridursi ad un sottogruppo D-dimensionale considerando famiglie a D parametri di diffeomorfismi. Per ogni famiglia e per ogni D devono essere soddisfatte le condizioni di compatibilità
menzionate sopra.
La definizione astratta di algebra di Lie, indipendente in linea di principio da quella di gruppo di
Lie, è la seguente.
Definizione 4. Un’algebra di Lie è uno spazio vettoriale L munito di prodotto [ , ] : L × L → L
antisimmetrico, bi-lineare e che soddisfa l’identità di Jacobi:
[u, [v, w]] + [w, [u, v]] + [v, [w, u]] ∀u, v, w ∈ L .
Il prodotto [ , ] prende il nome di parentesi, o prodotto, di Lie, o anche di commutatore.
Un riferimento completo sulle algebre di Lie è [Sam].
Esempio 9. Lo spazio vettoriale R3 munito del prodotto [x, y] = x ∧ y (l’ordinario prodotto
vettoriale) è un’algebra di Lie (dimostrare l’identità di Jacobi).
Esempio 10. Lo spazio Vec(M) dei campi vettoriali su una varietà M con prodotto di Lie definito
dal commutatore tra campi vettoriali (43) è un’algebra di Lie (grazie alle proprietà (47)-(49)).
Esempio 11. Un altro esempio di algebra di Lie è l’algebra di Lie VecH (Γ) dei campi vettoriali
Hamiltoniani su Γ. Dalla relazione (53) risulta che VecH (Γ) è una sotto-algebra di Lie di Vec(Γ). In
realtà, la relazione (53) trasferisce la struttura di algebra di Lie da VecH (Γ) a F(Γ), l’algebra delle
funzioni definite su Γ con prodotto definito dalla parentesi di Poisson.
Il legame profondo che esiste tra gruppi e algebre di Lie è messo in luce nella seguente proposizione
di carattere generale.
Proposizione 7. Sia G un gruppo di Lie. Lo spazio vettoriale g = Te G, cioè lo spazio tangente
a G in e, ha struttura naturale di algebra di Lie e si chiama algebra di Lie associata al gruppo G.
Si noti che g = Te G è ben definito grazie alla struttura di varietà di G. Non dimostriamo
la proposizione, rimandando a [Mor98] e [Gr-GAL]. Ci soffermiamo invece sul seguente caso
particolare.
Proposizione 8. Te Diff(M) = Vec(M), cioè lo spazio tangente a Diff(M) in e = idM è Vec(M),
l’algebra di Lie dei campi vettoriali su M.
C Un vettore tangente a Diff(M) in e è definito dalla derivata in t = 0 di una curva Φt ∈ Diff(M)
tale che Φ0 = idM . Fissato x ∈ M, ϕ(t) = Φt (x) descrive una curva su M e si ha
d t Φ (x)
= ϕ̇(0) ≡ V (x) ∈ Tx M .
dt
t=0
Al variare di x ∈ M si ottiene un campo vettoriale V su M, cioè un elemento di Vec(M). B
Alternativamente, assegnando V si può definire Φt = et£V , da cui segue che £V ∈ Te Diff(M). Le
derivate di Lie £V associate ai campi vettoriali su M formano un’algebra di Lie con prodotto dato
dal commutatore ordinario tra derivate. La corrispondenza V → £V è un isomorfismo tra algebre di
2. GRUPPI E ALGEBRE DI LIE
21
Lie, cioè un’applicazione biunivoca che conserva sia la struttura di spazio vettoriale che l’operazione
di prodotto con le sue proprietà (verificarlo).
Il sotto caso delle trasformazioni lineari è particolarmente interessante. In tale caso si ha Φt (x) =
T(t)x, per ogni fissato x ∈ Kn (K = R oppure K = C). In questo modo T(t) descrive una curva
nel gruppo delle trasformazioni lineari di Kn in sé (che può essere GL o un suo sottogruppo). La
condizione di passaggio per l’identità a t = 0 si scrive T(0) = In . Risulta
d
T(t)x = Ṫ(0)x .
dt
t=0
Quindi l’algebra di Lie associata al gruppo considerato di trasformazioni lineari è l’algebra dei campi
vettoriali lineari su Kn con matrice associata A ≡ Ṫ(0).
Proposizione 9. L’algebra di Lie associata ad un gruppo di matrici ha per prodotto l’ordinario
commutatore tra matrici.
C Dim. Nel caso particolare delle trasformazioni lineari invertibili di Kn in sé (K = R oppure K = C),
il commutatore di due campi vettoriali U = Ax e V = Bx vale
[Ax, Bx] = (BA − AB)x ≡ [B, A]x .B
Da quanto visto, tutti i gruppi di matrici sono gruppi di Lie e il loro spazio tangente all’identità
è un’algebra di Lie che ha per prodotto il commutatore. Dalla definizione geometrica, l’algebra e
il gruppo hanno la stessa dimensione. Elenchiamo di seguito e descriviamo brevemente le classiche
algebre di matrici. Osserviamo preventivamente che, per quanto visto sopra, una curva in gruppo
di matrici è definita ad esempio dal flusso etA del campo vettoriale Ax. La derivata rispetto a
t di tale flusso in t = 0 è A, un elemento dell’algebra. Per definizione etA è una matrice e vale
det(etA ) = ettr(A) . Quindi ogni volta che si impone la condizione aggiuntiva di determinante unitario
sul gruppo di matrici si impone di conseguenza la condizione di traccia nulla sulle matrici dell’algebra
associata.
• gl(n, R) = TIn GL(n, R) – algebra generale lineare (reale): l’algebra delle matrici reali n ×
n (senza alcuna restrizione, con determinante qualsiasi). Ovviamente dim gl(n, R) = n2 .
Se ci si restringe al gruppo speciale SL(n, R), allora la sua algebra è sl(n, R), l’algebra
speciale lineare delle matrici reali n × n a traccia nulla, di dimensione n2 − 1. Notare che il
commutatore di due matrici ha sempre traccia nulla.
• o(n) = TIn O(n) – algebra ortogonale reale: l’algebra delle matrici reali n × n antisimmetriche. Infatti, sia t 7→ R(t) una curva su O(n), tale che R(0) = In ; vale R(t)RT (t) = In per
ogni t. Derivando rispetto a t quest’ultima relazione e ponendo poi t = 0 si ha che A ≡ Ṙ(0)
soddisfa A = −AT , cioè A è antisimmetrica. Si osservi che le matrici antisimmetriche hanno
traccia nulla, il che implica o(n) = TIn O(n) = TIn SO(n). La dimensione di o(n) è pari
al numero di elementi indipendenti che determinano una matrice antisimmetrica, ovvero
n(n − 1)/2.
• u(n) = TIn U (n) – algebra unitaria complessa: l’algebra delle matrici complesse n × n antihermitiane. Infatti, sia t 7→ U(t) una curva su U (n), tale che U(0) = In ; vale U(t)U† (t) = In
per ogni t. Derivando rispetto a t quest’ultima relazione e ponendo poi t = 0 si ha che
A ≡ U̇(0) soddisfa A = −A† , cioè A è antihermitiana (gli elementi di matrice soddisfano
Aij = −A∗ji e, in particolare, quelli sulla diagonale principale sono immaginari puri). Una
matrice antihermitiana n × n è determinata da n2 numeri reali, quindi dim u(n) = n2 . Se
ci si restringe al gruppo speciale unitario SU (n), imponendo la condizione di determinante
unitario, si ottiene la sottoalgebra speciale unitaria su(n) = TIn SU (n), ovvero l’algebra delle
matrici complesse n × n antihermitiane a traccia nulla, di dimensione n2 − 1.
22
2. CENNI SUI GRUPPI E SULLE ALGEBRE DI LIE
• sp(2n) – algebra simplettica reale: l’algebra delle matrici reali A 2n × 2n della forma
A = JB, essendo J la matrice simplettica standard e B una qualsiasi matrice 2n × 2n
simmetrica (BT = B). Infatti, sia t 7→ S(t) una curva su SP (2n) tale che S(0) = I2n ; vale
SJST = J per ogni t. Derivando quest’ultima relazione rispetto a t e ponendo poi t = 0 si
ottiene che A ≡ Ṡ(0) deve soddisfare la relazione
AJ + JAT = O2n ⇔ JA + AT J = O2n ,
(65)
che caratterizza l’algebra simplettica. Definendo poi B ≡ −JA, si vede immediatamente
che la (65) implica BT = B. Segue quindi che la dimensione di sp(2n) è data dal numero
di elementi indipendenti che definiscono una matrice simmetrica 2n × 2n, che è n(2n +
1). Le matrici dell’algebra simplettica, che soddisfano la condizione (65), sono anche dette
hamiltoniane.
Si dimostra (vedi [Fa&Ma-MA]) che un campo vettoriale V è Hamiltoniano (cioè è
un gradiente simplettico) se e solo se il suo jacobiano è Hamiltoniano (cioè è una matrice
dell’algebra simplettica). In particolare, un campo vettoriale Hamiltoniano X H linearizzato
attorno a una posizione di equilibrio x0 è un campo vettoriale lineare con matrice associata
Hamiltoniana della forma J∂ 2 H(x0 ), essendo ∂ 2 H la matrice hessiana di H.
3. Coefficienti di struttura
Poiché un’algebra di Lie L è uno spazio vettoriale, esiste in essa una base {u(i) }i tale che ogni
elemento di u ∈ L si può scrivere in modo unico come combinazione lineare degli elementi di base:
u = λi u(i) (somma su indici ripetuti). In particolare λi u(i) = 0 implica λi = 0 per ogni i.
Ora, la condizione di chiusura di L rispetto al prodotto di Lie [ , ] implica che, per ogni coppia
di elementi di base u(i) e u(j) , [u(i) , u(j) ] ∈ L. Ma quindi tale commutatore deve potersi esprimere in
modo unico come combinazione lineare degli elementi di base, ovvero
(k)
[u(i) , u(j) ] = cij
ku
(66)
I coefficienti cij
k prendono il nome di coefficienti di struttura dell’algebra di Lie L. Segue subito
dall’antisimmetria del commutatore che i coefficienti di struttura cambiano segno sotto scambio
degli indici alti
ij
cji
k = −ck .
(67)
L’identità di Jacobi implica invece la seguente identità fondamentale:
kp ij
jk
jp ki
cip
q cp + cq cp + cq cp = 0 ,
(68)
valida per ogni q = 1, . . . , D. Per dimostrarla basta osservare che
(q)
(p)
jk (i)
(p)
ip jk
[u(i) , [u(j) , u(k) ]] = [u(i) , cjk
u ,
p u ] = cp [u , u ] = cq cp
e la (68) segue permutando ciclicamente gli indici, sommando e imponendo che la somma valga zero
(perché?).
Osservazione 4. In generale L viene considerato spazio vettoriale su campo reale. In questo
modo D è realmente la dimensione ereditata dal gruppo di cui L è spazio tangente all’unità e, di
conseguenza, i coefficienti di struttura sono tutti reali. Vedi esempi sotto.
Un’algebra di Lie L è quindi completamente specificata dai propri coefficienti di struttura.
3. COEFFICIENTI DI STRUTTURA
23
Esempio 12. Consideriamo o(3) = so(3), l’algebra di Lie delle matrici antisimmetriche reali. Se
A ∈ o(3) allora


0 −a3 a2
0 −a1  = a1 L1 + a2 L2 + a3 L3 ,
A =  a3
−a2 a1
0
dove le tre matrici di base Li ∈ o(3) (i = 1, 2, 3) sono definite come segue:






0 0 0
0 0 1
0 −1 0
L1 =  0 0 −1  , L2 =  0 0 0  , L3 =  1 0 0  .
(69)
0 1 0
−1 0 0
0 0 0
Si verificano con calcolo diretto (farlo) le relazioni di commutazione
[L1 , L2 ] = L3 , [L2 , L3 ] = L1 , [L3 , L1 ] = L2 ,
ovvero, in forma compatta
[Li , Lj ] = εijk Lk ,
(70)
dove il simbolo di Levi-Civita a tre indici εijk vale 1 per permutazioni di ordine pari (numero pari
di scambi di coppia) degli indici, vale −1 per permutazioni di ordine dispari (numero dispari di
scambi di coppia) e vale 0 se almeno due indici sono uguali. In particolare εijk non cambia segno
sotto permutazioni cicliche di {i, j, k} e vale 1 se {i, j, k} è una permutazione ciclica di {1, 2, 3}. I
coefficienti di struttura di o(3) sono quindi dati dai simboli di Levi-Civita: cij
k = εijk . La verifica
della proprietà di antisimmetria (67) è ovvia, mentre per l’identità di Jacobi (68) è necessario fare
uso della contrazione
εijk εilm = δjl δkm − δjm δkl ,
essendo δij il simbolo di Kronecker, che vale 1 se i = j e 0 se i 6= j. Usando tale identità si verifica
(farlo) che
jk
jp ki
kp ij
cip
q cp + cq cp + cq cp = εipq εjkp + εjpq εkip + εkpq εijp = 0 .
Facciamo notare che, per come lo abbiamo scritto, un elemento A ∈ o(3) è bi-univocamente determinato da un vettore a = ai ei , ei essendo l’i-esimo vettore della base canonica di R3 . Date ora due
matrici A = ai Li e B = bj Lj in o(3), risulta:
[A, B] = ai bj [Li , Lj ] = εijk ai bj Lk = (a ∧ b)k Lk ,
essendo a ∧ b = ai bj ei ∧ ej = εijk ai bj ek . Quindi il commutatore di A e B ha per vettore associato il
prodotto vettoriale dei corrispondenti vettori associati; di conseguenza la biiezione a 7→ A rappresenta
un isomorfismo tra l’algebra di Lie o(3), che ha per prodotto il commutatore tra matrici, e l’algebra
di Lie R3 che ha per prodotto l’ordinario vettoriale ∧. I coefficienti di struttura delle due algebre
sono identici: cij
k = εijk .
Esempio 13. su(2) è l’algebra delle matrici complesse 2×2 antihermitiane a traccia nulla. Quindi
A ∈ su(2) è della forma
1
ıa3
a1 + ıa2
A=
= a1 s1 + a2 s2 + a3 s3 ,
−ıa3
2 −a1 + ıa2
dove ı è l’unità immaginaria e le tre matrici di base si ∈ su(2) sono definite come segue:
1
1 0 ı
1
0 1
ı 0
s1 =
, s2 =
, s3 =
.
ı 0
2 −1 0
2
2 0 −ı
Si verifica facilmente che [si , sj ] = εijk sk ; quindi anche in questo caso i coefficienti di struttura sono
3
cij
k = εijk , gli stessi di o(3) e di R . Come visto per o(3), anche qui si ha [A, B] = (a ∧ b)k sk per ogni
coppia di matrici A, B ∈ su(2). Le algebre di Lie o(3), R3 e su(2) risultano isomorfe.
24
2. CENNI SUI GRUPPI E SULLE ALGEBRE DI LIE
Esempio 14. sp(2) è l’algebra simplettica di dimensione 3, ovvero l’algebra delle matrici hamiltoniane 2 × 2 che si scrivono come prodotto della simplettica standard 2 × 2 per una matrice simmetrica
2 × 2. Se A ∈ sp(2) è della forma (lo so dimostri)
a3 a1
A=
= a1 h1 + a2 h2 + a3 h3 ,
a2 −a3
dove le matrici di base hi ∈ sp(2) sono definite come segue:
0 1
0 0
1 0
h1 =
, h2 =
, h3 =
.
0 0
1 0
0 −1
Si verifica che [h1 , h2 ] = h3 , [h2 , h3 ] = 2h2 e [h3 , h1 ] = 2h1 . I coefficienti di struttura di sp(2) sono
21
23
32
31
13
pertanto i seguenti: c12
3 = −c3 = 1, c2 = −c2 = 2, c1 = −c1 = 2 e tutti gli altri nulli (dimostrare
l’identità di Jacobi (68)).
CAPITOLO 3
Sistemi Hamiltoniani generalizzati
1. Strutture di Poisson
Si è visto che i sistemi Hamiltoniani sono quei sistemi di EDO su varietà di dimensione pari
(lo spazio delle fasi Γ) i cui campi vettoriali sono gradienti simplettici di funzioni definite su Γ. I
campi vettoriali Hamiltoniani sono una sottoalgebra di Lie dell’algebra di Lie dei campi vettoriali
generali. La struttura di algebra di Lie viene trasferita dai campi vettoriali Hamiltoniani alle funzioni
di Hamilton dalla relazione [X H , X K ] = X {K,H} , che definisce un ismorfismo tra algebre di Lie.
Appaiono evidenti due cose. Prima di tutto ci si rende conto del fatto che in buona parte degli sviluppi
formali svolti la dimensione dello spazio delle fasi e la condizione di non degenerazione della parentesi
di Poisson non intervengono affatto. Inoltre, una volta compresa a fondo la definizione di sistema
Hamiltoniano, risulta chiaro il modo in cui si può cercare di estenderla: si possono cercare sottoalgebre
di Lie dell’algebra dei campi vettoriali che siano il piú ”estese” possibile. Questioni di eleganza
matematica a parte, la necessità di una tale generalizzazione è motivata dall’esigenza di riuscire a
trattare in un contesto ”Hamiltoniano” di qualche tipo alcuni sistemi fisici fondamentali quali il corpo
rigido, il fluido ideale, l’equazione di Schrödinger, le equazioni di Maxwell, ecc.. Ovviamente, a tale
scopo, il formalismo deve essere ulteriormente esteso al caso dei sistemi a infiniti gradi di libertà, cioè
quei sistemi il cui stato è individuato ad ogni istante di tempo t da un ”campo”, cioè, in generale,
da una n-upla di funzioni definite in qualche spazio finito-dimensionale. Come vedremo, i sistemi
Hamiltoniani fanno parte di una classe piú ampia di sistemi dinamici: i sistemi di Poisson (o sistemi
Hamiltoniani generalizzati). Allo scopo di motivare la definizione di questi ultimi, procediamo in
modo non assiomatico.
Consideriamo prima di tutto il caso dei sistemi finito-dimensionali. L’idea che sta alla base della
definizione dei sistemi di Poisson come generalizzazione dei sistemi Hamiltoniani è la seguente. I
sistemi dinamici di interesse fisico che vogliamo descrivere sono descritti da equazioni differenziali
della forma
u̇ = X H (u) ,
(71)
dove u(t) appartiene a qualche varietà n-dimensionale M (e quindi localmente ad un sottoinsieme di
Rn ). Abbiamo indicato con X H il campo vettoriale della (71) perché la prima richiesta che facciamo
è che il sistema ammetta un integrale primo H(u) che giochi il ruolo di Hamiltoniana (e tipicamente
ammetta interpretazione fisica di energia totale del sistema). La legge di conservazione di H in forma
differenziale si legge
(£X H H)(u) = ∇u H(u) · X H (u) = 0 ,
(72)
cioè X H è ortogonale al gradiente di H, ovvero tangente alla varietà {u : H(u) = E} per ogni E
fissato. Dunque il campo vettoriale X H , che definisce la dinamica del sistema, deve dipendere da H.
Un’ipotesi semplice (e certamente non l’unica possibile) è che tale dipendenza sia locale e lineare nel
gradiente di H, ovvero che esista una matrice J (u) tale che
X H (u) = J (u)∇u H(u) .
(73)
I campi vettoriali Hamiltoniani sono di questa forma, con J = J (ed n pari). Ora, la condizione (72)
è garantita se J (u) è una matrice antisimmetrica per ogni u fissato. Il passo successivo consiste nel
25
26
3. SISTEMI HAMILTONIANI GENERALIZZATI
definire una ”parentesi” tra due funzioni qualsiasi F e G in analogia con quanto fatto per i sistemi
Hamiltoniani; poniamo
def
{F, G} = ∇F · J ∇G .
(74)
Tale parentesi risulta antisimmetrica (perché lo è J ), bilineare e soddisfa la regola di Leibniz (le
ultime due proprietà sono ereditate dal gradiente). Prendendo F = ui e G = uj si ottengono le
parentesi fondamentali {ui , uj } = Jij (u), che scriviamo in forma compatta
{u, u} = J (u) .
(75)
Affinché (74) possa essere considerata una parentesi di Poisson, si deve richiedere che soddisfi l’identità di Jacobi, cosa che ovviamente impone un vincolo sulla dipendenza di J da u. Vale il seguente
risultato.
Proposizione 10. Condizione necessaria e sufficiente affinché la parentesi (74) soddisfi l’identità
di Jacobi è che la matrice J (u) soddisfi, per ogni i, j, k, la relazione
Jil ∂l Jjk + Jjl ∂l Jki + Jkl ∂l Jij = 0 .
(76)
C Dim. La condizione è necessaria: se vale l’identitaà di Jacobi
{F, {G, H}} + {G, {H, F }} + {H, {F, G}} = 0
per ogni terna di funzioni F, G, H, allora, prendendo F = ui , G = uj e H = uk e sfruttando la
(75) si ottiene subito la (76). Viceversa, supponiamo valga la (76). Si ha (vedi dimostrazione della
proposizione 1, capitolo 1):
{F, {G, H}} = ∇F · J (∂ 2 G)J ∇H − ∇F · J (∂ 2 H)J ∇G + (Jij ∂j Jkl )(∂i F )(∂k G)(∂l H) ;
{G, {H, F }} = ∇G · J (∂ 2 H)J ∇F − ∇G · J (∂ 2 F )J ∇H + (Jij ∂j Jkl )(∂i G)(∂k H)(∂l F ) ;
{H, {F, G}} = ∇H · J (∂ 2 F )J ∇G − ∇H · J (∂ 2 G)J ∇F + (Jij ∂j Jkl )(∂i H)(∂k F )(∂l G) .
Sommando i risultati, permutando ciclicamente gli indici i, k, l e usando la (76) si ottiene zero,
indipendentemente da F, G, H, ovvero l’identità di Jacobi. B
Il significato della relazione (76) è preciso: essa esprime la condizione che lo spazio dei campi
vettoriali su M della forma X H = J ∇H sia una sottoalgebra di Lie dell’algebra di Lie di ” tutti” i
campi vettoriali su M. Vale infatti la seguente
Proposizione 11. Condizione necessaria e sufficiente affincé per ogni coppia di funzioni H e K
si abbia
[X H , X K ] = [J ∇H, J ∇K] = J ∇{K, H} = X {K,H}
(77)
è che valga la relazione (76).
C Dim. Scrivendo esplicitamente la componente k del commutatore dei campi X H e X K , lavorando
sugli indici e tenendo presente l’antisimmetria di J si ottiene:
[X H , X K ]k = J ∇H · ∇(J ∇K)k − J ∇K · ∇(J ∇H)k =
= (∂j H)(∂i K)(−Jjl ∂l Jki − Jil ∂l Jjk ) +
+ Jkl [(∂li2 K)Jij ∂j H + (∂i K)Jij ∂lj2 H] =
= −(∂j H)(∂i K)(Jil ∂l Jjk + Jjl ∂l Jki + Jkl ∂l Jij ) +
+ Jkl ∂l [(∂i K)Jij ∂j H] .
Si ottiene quindi
[X H , X K ]k − (X {K,H} )k = −(∂j H)(∂i K)(Jil ∂l Jjk + Jjl ∂l Jki + Jkl ∂l Jij )
da cui segue la tesi immediatamente. B
(78)
1. STRUTTURE DI POISSON
27
La condizione di sottoalgebra (77), equivalente alla condizione (76) e quindi equivalente alla
condizione di validità dell’identità di Jacobi, stabilisce un isomorfismo tra algebre di Lie, precisamente
tra l’algebra di Lie dei campi della forma J ∇F (il cui prodotto di Lie è il commutatore di campi)
e l’algebra di Lie delle funzioni definite su M (il cui prodotto di Lie è la parentesi di Poisson (74)).
Abbiamo dunque ottenuto una estensione dell’algebra di Lie dei campi vettoriali Hamiltoniani e, di
conseguenza, dell’algebra di Lie delle funzioni di Hamilton.
L’essenza del nostro ragionamento è stata quella di partire dai campi vettoriali, sostituire alla
matrice simplettica standard una matrice antisimmetrica J dipendente dal punto u ∈ M. Abbiamo
quindi definito in (74) una parentesi { , } in stretta analogia con la definizione standard di parentesi
di Poisson, e abbiamo trovato che tale parentesi soddisfa l’identità di Jacobi se e solo se J soddisfa
la relazione (76). Le condizioni di antisimmetria, di bilinearità e di Leibniz della parentesi introdotta
sono garantite per definizione. Non abbiamo invece imposto alcuna condizione sulla dimensione di M
e non abbiamo richiesto alcuna condizione di non degenerazione (torneremo dopo su questo punto).
Viene ora spontaneo chiedersi se la parentesi (74), con J antisimmetrica e soddisfacente la (76), sia
il più generale prodotto di Lie (antisimmetrico, bilineare e soddisfacente l’identità di Jacobi) di tipo
Leibniz (che sia cioè una derivazione) definibile sullo spazio vettoriale F(M) delle funzioni definite
su M. La risposta (affermativa) a tale domanda è contenuta nella proposizione che segue.
Proposizione 12. Sia { , } una parentesi sullo spazio vettoriale F(M) delle funzioni definite su
M. Se { , } è antisimmetrica, (bi-)lineare e soddisfa la regola di Leibniz allora è della forma (74),
def
con Jij (u) = {ui , uj }; se si richiede inoltre che la parentesi soddisfi anche l’identità di Jacobi, allora
Jij deve soddisfare la relazione (76).
C Dim. Osserviamo preliminarmente che, dalla regola di Leibniz e dalla linearità segue che, se F è una
qualsiasi funzione e c una qualsiasi costante, allora {F, c} = 0. Infatti si ha {F, c} = c{F, 1}+{F, c},
da cui segue per linearità c{F, 1} = {F, c} = 0. Dall’antisimmetria segue poi che {c, F } = 0.
Dimostriamo la proposizione spezzandola in passi successivi.
(1) Per ogni a1 reale, per ogni k1 ≥ 0 intero e per ogni funzione F (u), vale
{F, (u1 − a1 )k1 } = {F, u1 }k1 (u1 − a1 )k1 −1 = {F, u1 }∂1 (u1 − a1 )k1 ,
che si dimostra per induzione usando la regola di Leibniz e la premessa.
(2) Dalla relazione precedente, sempre sfruttando la regola di Leibniz si dimostra la relazione
{F, (u1 − a1 )k1 · · · (un − an )kn } = {F, uj }∂j [(u1 − a1 )k1 · · · (un − an )kn ] .
(3) Una qualsiasi funzione G(u) sviluppata in serie di Taylor di centro a si esprime come segue
X
G(u) =
gq (u1 − a1 )q1 · · · (un − an )qn .
q
di conseguenza, per linearità e dalla relazione del punto precedente segue
{F, G} = {F, uj }∂j G .
(4) Dalla antisimmetria della parentesi e dalla relazione precedente segue che
{F, uj } = −{uj , F } = −{uj , ui }∂i F = (∂i F ){ui , uj } ,
e quindi
{F, G} = (∂i F ){ui , uj }(∂j G) ,
che è della forma (74) se si definisce Jij (u) = {ui , uj }. Se la parentesi deve soddisfare l’identità
di Jacobi (nel qual caso F(M) è un’algebra di Lie) allora, per la proposizione 10 (condizione
necessaria) la matrice J deve soddisfare la relazione (76). B
In conclusione, ogni parentesi di tipo Leibniz che renda F(M) un’algebra di Lie è necessariamente
della forma (74), con matrice J che soddisfa la condizione (76), equivalente alla identità di Jacobi.
Ciò motiva la seguente definizione.
28
3. SISTEMI HAMILTONIANI GENERALIZZATI
Definizione 5. Sia P una varietà e F(P) lo spazio vettoriale delle funzioni definite su P.
(1) Una parentesi { , } : F(P) × F(P) → F(P) antisimmetrica, bilineare, che soddisfi l’identità
di Jacobi e la regola di Leibniz è detta parentesi di Poisson su P.
(2) La coppia (P, { , }) ≡ P{,} è detta varietà di Poisson (o si dice che su P è assegnata una
struttura di Poisson).
(3) La coppia (F(P), { , }) ≡ F{,} (P) è detta algebra di Poisson (è un’algebra di Lie con
prodotto che soddisfa la regola di Leibniz).
(4) L’operatore (o tensore) J (u) = {u, u} che definisce la parentesi di Poisson è detto operatore (o tensore) di Poisson.
(5) Ad ogni funzione Hamiltoniana H ∈ F(P) è associato un campo vettoriale Hamiltoniano X H (u) = {u, H} = J (u)∇H(u) ed un corrispondente sistema Hamiltoniano
u̇ = X H (u).
La derivata rispetto al tempo di ogni funzione F ∈ F(P) lungo le soluzioni del sistema Hamiltoniano u̇ = X H (u) è esprimibile come
def
Ḟ = {F, H} = £X H F = DH F ,
(79)
in totale analogia con il caso Hamiltoniano standard.
Facciamo notare che non si è fatta richiesta di non degenerazione della parentesi di Poisson. Dunque, in generale, possono esistere funzioni di un’algebra di Poisson non banali (cioè non identicamente
costanti) che hanno parentesi di Poisson nulla o, come si dice, sono ”in involuzione”, o ”commutano”
con ogni altra funzione dell’agebra.
Definizione 6. Data un’algebra di Poisson F{,} (P), una funzione C dell’algebra in involuzione
con ogni altra (tale cioè che {C, F } = 0 per ogni F ∈ F{,} (P)) è detta funzione, o invariante,
di Casimir dell’algebra data.
In generale, data un’algebra di Lie L, l’insieme degli elementi c ∈ L tali che [c, u] = 0 per ogni
u ∈ L si dice centro dell’algebra di Lie L. Quindi il centro di un’algebra di Poisson (che è un’algebra
di Lie di tipo Leibniz) è l’insieme dei suoi invarianti di Casimir. La denominazione ”invarianti” di
Casimir è dovuta al fatto che essi sono integrali primi di qualunque sistema Hamiltoniano definito su
F{,} (P): Ċ = {C, H} = 0 per ogni H ∈ F{,} (P). Data un’algebra di Poisson F{,} (P), con tensore di
Poisson definito in (75), si ha
{F, C} = 0 ∀F ∈ F{,} (P) ⇔ J (u)∇C(u) = 0 ,
che viene dalla non degenerazione del prodotto scalare. Quindi gli invarianti di Casimir di un’algebra
di Poisson sono quelle funzioni C(u) tali che ∇C(u) ∈ ker J (u).
2. Trasformazioni di coordinate
Un’algebra di Poisson F{,} (P) è data assegnando una parentesi di Poisson { , } su F(P), o equivalentemente assegnando un tensore di Poisson J che, fissato un sistema di coordinate, ha l’espressione
(75) e soddisfa la relazione (76). Si intuisce che tutto il formalismo sviluppato deve risultare indipendente dal sistema di coordinate scelto, nel senso che, sotto trasformazioni di coordinate, una parentesi
di Poisson { , } e il suo associato tensore J si trasformano in una parentesi {g
, } ed in un associato
e
tensore J che sono ancora, rispettivamente, una parentesi di Poisson ed il suo associato tensore.
e deve soddisfare la relazione (76). Verifichiamo
In particolare, nel nuovo sistema di coordinate, J
quanto detto in dettaglio.
Sia v = Φ(u) una trasformazione (locale) di coordinate e sia u = Ψ(v) la sua inversa: Ψ = Φ−1 .
e
Indicheremo con un ”cappello”bla composizione con Ψ: Fb(v) = F (Ψ(v)), G(v)
= G(Ψ(v)), ecc..
2. TRASFORMAZIONI DI COORDINATE
29
Si ha
b
∂F\∂G
∂ Fb ∂Φ\
∂Φl ∂ G
k
Jij
=
Jij
=
∂ui
∂uj
∂vk ∂ui
∂uj ∂vl

!T 
−1
−1
b
∂ Fb  ∂Ψ
∂Ψ
b
 ∂G =
=
J
∂vk
∂v
∂v
∂vl
\
{F,
G} =
kl
b
∂ Fb # ∂ G
b #,
Jkl
= {Fb, G}
=
∂vk
∂vl
(80)
avendo definito
def
J # (v) =
∂Ψ
∂v
−1
J (Ψ(v))
∂Ψ
∂v
−1 !T
.
(81)
La (80) significa che la parentesi di Poisson di due funzioni F e G calcolata nelle nuove variabili si
b
trasforma nella parentesi delle stesse funzioni (calcolate nelle nuove variabili, indicate con Fb e G)
#
associata al tensore J (81). La nuova parentesi, indicata con { , }# , è antisimmetrica, bilineare e
soddisfa la regola di Leibniz (perché?). Per quanto riguarda l’identità di Jacobi, sfruttando la (80)
si ha
0 = {F,\
{G, H}} + {G,\
{H, F }} + {H,\
{F, G}} =
\
\
\
b {H,
b {F,
= {Fb, {G,
H}}# + {G,
F }}# + {H,
G}}# =
b H}
b # }# + {G,
b {H,
b Fb}# }# + {H,
b {Fb, G}
b # }# ,
= {Fb, {G,
(82)
che vale per ogni terna di funzioni F , G e H. Questo mostra che la parentesi { , }# soddisfa l’identità
di Jacobi. La proposizione 10 assicura poi che il nuovo tensore di Poisson J # definito in (81)
soddisfa la relazione (76). Abbiamo quindi mostrato esplicitamente che una varietà di Poisson P{,}
è tale indipendentemente dal sistema di coordinate scelto.
Osservazione 5. Si noti che se il tensore di Poisson J è una matrice antisimmetrica costante,
cioè non dipende dalla ”posizione” u, la condizione (76) è automaticamente soddisfatta.
Vale la seguente interessante proposizione, che è un caso particolare del teorema di Darboux.
Proposizione 13. Sia J un tensore di Poisson n × n costante e sia r = dim ker J ; allora esiste
una trasformazione lineare di coordinate che porta J nella forma standard
J2k O2k,r
st
J =
,
(83)
Or,2k Or
dove n = 2k + r, J2k è la matrice simplettica standard 2k × 2k, mentre i rimanenti blocchi sono tutti
nulli con ovvia notazione.
C Dim. J è una matrice reale n × n antisimmetrica e quindi esiste una base ortonormale di Cn di
autovettori di J . Gli autovalori di J sono immaginari puri e, tra questi, ce ne sono esattamente
r nulli (ovvero 0 è autovalore di J con molteplicità algebrica e geometrica pari a r = dim ker J ).
Essendo J reale, si può scegliere in ker J una base ortonormale reale di vettori c1 , . . . , cr . Vi sono
poi 2k = n − r autovettori complessi ortonormali aj ± ıbj , tali che
J aj = −λj bj
J (aj ± ıbj ) = ±ıλj (aj ± ıbj ) ⇔
,
J bj = λj aj
con λj > 0, j = 1, . . . , k. I 2k vettori a1 , . . . , ak , b1 , . . . , bk possono essere scelti mutuamente
ortonormali (lo sono di default se i numeri positivi λ1 , . . . , λk sono distinti); essi sono inoltre
30
3. SISTEMI HAMILTONIANI GENERALIZZATI
normali a ker J . Si consideri ora la matrice (n × n) A tale che
1
1
1
1
T
A = √ a1 , . . . , √ ak , √ b1 , . . . , √ bk , c1 , . . . , cr ;
λk
λk
λ1
λ1
si verifica facilmente che vale la relazione
AJ AT = J st .
La tesi segue quindi definendo la trasformazione lineare di coordinate u 7→ v tramite la matrice A,
precisamente v = Au. B
Il teorema di Darboux menzionato sopra generalizza il risultato della proposizione precedente,
affermando che nel caso non costante si può sempre effettuare una trasformazione di coordinate che
porti localmente J (u) nella forma standard (83).
Osservazione 6. Nel caso di tensore J costante, nel sistema di coordinate in cui esso assume
la forma standard J st , il significato degli invarianti di Casimir diventa molto semplice: sono tutte
le funzioni delle sole ultime r coordinate v2k+1 , . . . , vn , che giocano il ruolo di parametri costanti
nella dinamica. Infatti, ponendo ξ = (v1 , . . . , v2k )T ed η = (v2k+1 , . . . , vn )T , le equazioni di Hamilton
associate ad H(ξ; η) con tensore di Poisson J st diventano
ξ̇ = J2k ∇ξ H(ξ; η) ; η̇ = 0 ,
cioè le equazioni di Hamilton standard per un sistema a k gradi di libertà con Hamiltoniana dipendente
da r parametri.
3. Strutture di Lie-Poisson: il corpo rigido
Un classe particolarmente interessante di strutture di Poisson è quello corrispondente a tensori
J (u) lineari omogenei in u: Jij (u) = cij
k uk . La relazione (76) impone ovviamente un vincolo sui
coefficienti cij
che
definiscono
J
.
Risulta
immediata la dimostrazione della seguente
k
ij
Proposizione 14. Jij (u) = cij
k uk è un tensore di Poisson se e solo se i coefficienti ck sono le
costanti di struttura di qualche algebra di Lie, cioè se e solo se soddisfano le relazioni (67) e (68).
Le parentesi di Poisson con tensore associato lineare omogeneo definito dalle costanti di struttura
di un’algebra di Lie sono dette parentesi di Lie-Poisson.
Esaminiamo in dettaglio un esempio finito-dimensionale di sistema di Lie-Poisson, quello di un
corpo rigido che ruota attorno ad un punto fisso sotto l’azione della gravità (il caso in assenza
di gravità è trattato come caso particolare). In particolare, ci occupiamo della descrizione della
dinamica del corpo nelle variabili di Eulero, cioè le componenti del momento angolare visto da un
sistema mobile, solidale con il corpo. Ricordiamo come si ricavano le equazioni del moto. Sia R(t)
la matrice di SO(3) che descrive l’orientamento del corpo al tempo t e che trasferisce i vettori dal
riferimento mobile al riferimento fisso. Un punto qualsiasi P del corpo è individuato da un vettore
solidale QP indipendente dal tempo, che nel sistema fisso si scrive q P (t) = R(t)QP . La velocità del
punto P nel sistema fisso è
v P = q̇ P = ṘQP = ṘRT RQP = ṘRT q P = ω ∧ q P ,
(84)
essendo ω(t) il vettore velocità angolare che definisce la matrice antisimmetrica Ṙ(t)RT (t). La velocità
di P nel sistema mobile diventa
V P = RT v P = RT ṘQP = Ω ∧ QP ,
(85)
3. STRUTTURE DI LIE-POISSON: IL CORPO RIGIDO
31
dove Ω(t) = RT (t)ω(t) è il vettore velocità angolare nel sistema mobile, vettore che definisce la
matrice antisimmetrica RT Ṙ. Sia µP la massa concentrata nel punto P . Il momento angolare del
punto P nel sistema fisso è
mP = µP q P ∧ q̇ P = µP q P ∧ (ω ∧ q P ) ,
(86)
che nel sistema mobile diventa
M P = µP QP ∧ (Ω ∧ QP ) = µP |QP |2 − QP QTP Ω = I P Ω ,
(87)
dove
def
I P = µP |QP |2 − QP QTP
(88)
è il tensore di inerzia del punto P , quantità indipendente dal tempo. La derivata rispetto al tempo
del momento angolare (86) vale
ṁP = µP q P ∧ (−gez ) ,
(89)
dove g è l’accelerazione di gravità ed ez è il versore dell’asse z del sistema fisso. La derivata rispetto
al tempo del momento angolare M P = RT mP nel sistema mobile è legata a quella del sistema fisso
dalla relazione cinematica
(90)
ṁP = ṘM P + RṀ P = R RT ṘM P + Ṁ P = R Ω ∧ M P + Ṁ P ,
che, messa assieme alla (89) fornisce l’equazione
Ṁ P + Ω ∧ M P = −gµP QP ∧ (RT ez ) .
(91)
Si noti che, essendo ez fisso, il vettore unitario ξ = RT ez evolve nel tempo secondo l’equazione
ξ̇ + Ω ∧ ξ = 0 .
P
(92)
P
Passando alleP
quantità integrali M = P P
M P (momento angolare totale), I = P I P (tensore di
inerzia), µ = P µP (massa totale), Qc = P µP QP /µ (posizione del centro di massa) e sfruttando
la relazione M = IΩ, si trovano le equazioni di Eulero del corpo rigido con punto fisso (o della
”trottola”)
Ṁ = M ∧ I −1 M + ξ ∧ µgQc ;
(93)
ξ̇ = ξ ∧ I −1 M .
(94)
Notare che nel caso gQc = 0, cioè in assenza di gravità oppure in presenza di gravità ma con il punto
fisso del corpo (l’origine comune dei sistemi fisso e mobile) coincidente con il centro di massa del
corpo, le due equazioni si disaccoppiano e la dinamica del sistema è descritta dalla sola equazione (93)
(senza il secondo termine a destra). Si noti che il tensore di inerzia I è simmetrico (come somma dei
tensori simmetrici I P ) e, se i punti P del corpo non sono tutti allineati, definito positivo (mentre il
singolo tensore I P è solo semi-definito positivo) . Infatti, dato un qualsiasi vettore a, vale l’identità
(dimostrarla)
X
µP |a ∧ QP |2 = a · Ia ,
P
da cui segue che la forma quadratica a secondo membro è nulla se e solo se a è parallelo a QP per
ogni P . Di conseguenza, si può sempre scegliere un sistema di coordinate solidale con il corpo tale
che in esso I risulti diagonale; gli elementi (autovalori) sulla diagonale sono i momenti principali di
inerzia e sono tutti positivi se il corpo non è unidimensionale.
32
3. SISTEMI HAMILTONIANI GENERALIZZATI
Al fine di dare una formulazione Hamiltoniana del sistema (93)-(94), scriviamo l’energia totale
del punto P , somma dell’energia cinetica e dell’energia potenziale. Si ha
1
1
HP =
|v P |2 + µP gq P · ez = |V P |2 + µP gQP · ξ =
2
2
1
1
2
=
|Ω ∧ QP | + µP gQP · ξ = Ω · I P Ω + µP gQP · ξ .
2
2
Integrando su P e tenendo presente che M = IΩ, si ottiene l’energia totale del sistema in funzione
delle variabili dinamiche M e ξ, cioè
1
H(M , ξ) = M · I −1 M + µgQc · ξ .
2
(95)
Proposizione 15. Le equazioni di Eulero (93)- (94) sono le equazioni di Hamilton associate
all’Hamiltoniana (95) con tensore di Lie-Poisson
M X
J (M , ξ) =
(96)
X O3
dove, Mij = −εijk Mk e Xij = −εijk ξk , ovvero Ma = M ∧ a e Xa = ξ ∧ a per ogni vettore a. Gli
invarianti di Casimir del tensore J sono tutte e sole le funzioni della forma C(M , ξ) = Φ(ξ·M , |ξ|2 ).
Nel caso particolare gQc = 0 il tensore J si riduce alla sola matrice M, i cui invarianti di Casimir
sono tutte e sole le funzioni della forma C(M ) = Φ(|M |2 ).
C Dim. Il gradiente dell’Hamiltoniana (95) preso rispetto al vettore (M , ξ)T è ∇H = (I −1 M , µgQc )T .
Moltiplicandolo da sinistra per il tensore (96) si ottiene
−1
M X
M ∧ I −1 M + ξ ∧ µgQc
I M
J ∇H =
=
X O3
µgQc
ξ ∧ I −1 M
ovvero il campo vettoriale delle equazioni di Eulero (93)-(94). Per quanto riguarda gli invarianti
di Casimir, si deve caratterizzare ker J risolvendo l’equazione
M X
a
=0,
X O3
b
trovando poi C tale che a = ∂C/∂M e b = ∂C/∂ξ. Si trova a = αξ e b = αM + βξ, che sono le
componenti del gradiente di C = Φ(M · ξ, |ξ|2 /2), Φ(x, y) funzione di due variabili reali, α = Φx
e β = Φy . Nel caso gQc = 0 si ha J (M ) = M e quindi J a = 0 se a = αM ; risulta quindi
C = Φ(|M |2 /2), con α = Φx .
Resta ora da far vedere che il tensore (96) è realmente di tipo Lie-Poisson, mostrando che
i coefficienti che lo definiscono sono le costanti di struttura di qualche algebra di Lie. Nel caso
”libero”, gQc = 0, si ha Jij (M ) = −εijk Mk e l’algebra di Lie sottostante è chiaramente so(3)
(ovvero su(2) o anche R3 . Nel caso generale (96) l’algebra di Lie sottostante alla struttura di
Lie-Poisson del corpo rigido è se(3) = so(3) × R3 , l’algebra di Lie associata al gruppo di Lie
SE(3) = SO(3) × R3 , il gruppo euclideo delle roto-traslazioni in R3 . Questo fatto viene dimostrato
a parte nella prossima sezione. B
La proposizione precedente prova che, oltre all’Hamiltoniana (95), le equazioni del moto del corpo
rigido (93)-(94) ammettono altri due integrali primi: la componente M · ξ del momento angolare
lungo la direzione del campo di gravità e il modulo |ξ| del versore nella direzione della gravità.
Tali integrali primi emergono in modo naturale come invarianti di Casimir della struttura di LiePoisson introdotta. Ora, il sistema di equazioni (93)-(94) ”vive” in R6 . Con due invarianti di
Casimir ci si riduce localmente (via il citato teorema di Darboux) ad una dinamica Hamiltoniana
in uno spazio delle fasi di dimensione 4. È dunque sufficiente che esista una quarta costante del
moto (indipendente dall’Hamiltoniana e dai due invarianti di Casimir) in involuzione con H, per
rendere il sistema integrabile. Tale costante esiste in quattro casi, che sono: il caso a simmetria
3. STRUTTURE DI LIE-POISSON: IL CORPO RIGIDO
33
sferica, con I = II3 , I > 0; il caso della trottola di Lagrange, con momenti principali di inerzia
I1 = I2 6= I3 ; il caso ”libero”, in cui H e l’invariante di Casimir |M |2 bastano a rendere il sistema
integrabile (perché?); il caso della trottola di Kovalevskaya, con I1 = I2 = 2I3 . Il quarto caso è di
fondamentale importanza, perché è stato scoperto introducendo una tecnica di analisi delle singolarità
delle soluzioni delle equazioni del moto nel piano del tempo complesso. In sostanza, le Kovalevskaya
congetturò che le equazioni di Eulero sono integrabili se la soluzione delle equazioni del moto ammette
soltanto singolarità di tipo polo nel piano del tempo complesso. La sua tecnica, oggi nota con il nome
di test di Painlevé, o meglio di Kovalevskaya-Painlevé (KP), costituisce uno dei metodi piú potenti
che ci siano per vedere a priori se un dato sistema è integrabile. Il campo di ricerca sull’analisi delle
singolarità è ancora aperto, non esistendo ancora oggi un teorema generale che garantisca la validità
della congettura della Kovalevskaya per una classe ampia di sistemi dinamici, incluse le equazioni a
derivate parziali, per le quali l’applicazione del test KP ha fornito risultati importantissimi.
Come ulteriore commento sulla dinamica del corpo rigido, accenniamo al lavoro di Nambu
[Nam73], che prende spunto dalle equazioni di Eulero del caso ”libero”. Nambu ha osservato che
tali equazioni si possono scrivere nella forma
Ṁ = M ∧ I −1 M = ∇C ∧ ∇H
(97)
dove C(M ) = |M |2 /2 e H(M ) = M · I −1 M /2. La derivata rispetto al tempo di F (M (t)), con
M (t) soluzione di (97) si scrive allora
def
Ḟ = ∇F · Ṁ = ∇F · (∇C ∧ ∇H) = [F, C, H] .
Nambu considera la quantità [F, C, H], dipendente da F e dalle due ”Hamiltoniane” C e H, una
possibile generalizzazione della parentesi di Poisson. Prosegue poi cercando di generalizzare la teoria
a sistemi a n gradi di libertà (veri, cioè descritti da sistemi di n EDO del primo ordine) aventi
n − 1 integrali primi, passando poi al caso quantistico. Si tratta di un interessante proposta di
generalizzazione del concetto di sistema Hamiltoniano nel caso di sistemi di EDO integrabili.
Chiudiamo questa sezione sul corpo rigido con un cenno alla teoria della stabilità degli equilibri
dei sistemi Hamiltoniani. I punti di equilibrio di un sistema di questo tipo, descritto dall’equazione
u̇ = J (u)∇H(u), sono gli zeri del campo vettoriale, ovvero quei punti ue tali che
J (ue )∇H(ue ) = 0 .
(98)
Le soluzioni di tale equazione per le quali J (ue ) 6= 0 (caso che non consideriamo) sono tali che
∇[H(ue ) + C(ue )] = 0 ,
(99)
essendo C un qualsiasi invariante di Casimir del sistema. Dunque gli equilibri di un sistema Hamiltoniano sono, in generale, punti critici della funzione F = H + C, che è una costante del moto.
Dunque, per i sistemi finito dimensionali, se la matrice hessiana ∂ 2 F (ue ) di F in ue è definita (positiva o negativa), allora l’equilibrio ue è stabile (F è una funzione di Lyapunov costante del moto con
minimo o massimo nel punto di equilibrio). Si osservi che in generale gli invarianti di Casimir sono
infiniti (sono famiglie di funzioni - vedi corpo rigido). Pertanto c’e’ arbitrarietà nella scelta della
funzione F = H + C. Piú in generale, in presenza di un ulterioriore integrale primo J indipendente
da H e da C, si cerca una funzione F della forma F = H + C + φ(J), con φ funzione scelta in modo
che ∇F (ue ) = 0 e che, possibilmente, ∂ 2 F (ue ) sia definita. Nel caso del corpo rigido si trovano con
questo metodo i classici risultati di stabilità delle rotazioni attorno all’asse ”corto” e all’asse ”lungo”
del corpo ”libero” e delle rotazioni veloci della trottola di Lagrange.
La tecnica descritta, esportabile al caso infinito-dimensionale con la dovuta cautela, prende
il nome di metodo di ”Energia-Casimir” di Arnol’d. Per approfondimenti e applicazioni si veda
[HMRW85] e [Ma&Ra-IMS].
34
3. SISTEMI HAMILTONIANI GENERALIZZATI
4. Il gruppo euclideo SE(3) e l’algebra se(3)
In questo paragrafo esaminiamo la struttura del gruppo di Lie delle roto-traslazioni in SE(3) e
della relativa algebra di Lie se(3) = Te SE(3), mostrando che quest’ultima è l’algebra di Lie le cui
costanti di struttura definiscono (a meno del segno) il tensore di Lie-Poisson (96) del corpo rigido.
Una roto-traslazione in R3 è una operazione che ad ogni x ∈ R3 associa
x0 = Rx + r ,
(100)
dove R ∈ SO(3) e r ∈ R3 . L’operazione (100) si può descrivere in modo equivalente in R4 , facendo
agire sul vettore (x, 1)T la matrice
R r
;
(101)
E=
0T 1
il risultato di tale operazione è il vettore (x0 , 1)T , con x0 dato in (100). L’insieme delle matrici 4 × 4
della forma (101) è un gruppo di Lie di dimensione 6, che si indica con SE(3), il gruppo Speciale
Euclideo (si noti che det E = det R = 1). Ogni elemento (101) di tale gruppo è individuato da una
coppia ordinata (R, r), cioè SE(3) = SO(3) × R3 .
L’algebra di Lie di SE(3) si trova considerando le curve E(t) ∈ SE(3) tali che E(0) = I4 ; allora
se(3) è l’algebra di Lie delle matrici
A b
≡ Ė(0) =
,
(102)
0T 0
dove A ∈ so(3) e b ∈ R3 . Il commutatore di due matrici ed 0 vale
[A, A0 ] Ab0 − A0 b
[A, A0 ] a ∧ b0 − a0 ∧ b
0
[, ] =
=
,
0T
0
0T
0
(103)
dove a e a0 sono i vettori di R3 che definiscono A e A0 , rispettivamente, tali che cioè Ax = a ∧ x
e A0 x = a0 ∧ x per ogni x ∈ R3 . Chiaramente, ogni elemento di se(3) è individuato da una
coppia ordinata (A, b), cioè se(3) = so(3) × R3 o anche, via l’isomorfismo R3 3 a 7→ A ∈ so(3),
se(3) = R3 × R3 .
Per determinare le costanti di struttura dell’algebra di Lie se(3) bisogna introdurre in essa una
base. Il generico elemento (102) dell’algebra si scrive in modo unico come
=
3
X
aα α +
α=1
6
X
bα−3 α ,
(104)
, α = 1, 2, 3 ;
(105)
α=4
con elementi di base α definiti da
α =
α =
Lα 0
0T 0
O3 eα−3
0T
0
, α = 4, 5, 6 ,
(106)
dove le matrici Lα (α = 1, 2, 3) sono le matrici di base (69) di so(3) mentre i vettori eα−3 (α = 4, 5, 6)
sono i versori della base canonica di R3 . Tramite la formula (103), tenendo presente la regola di
commutazione (70) tra le matrici di base di so(3) e sapendo che Lα x = eα ∧ x per ogni x, è possibile
4. IL GRUPPO EUCLIDEO SE(3) E L’ALGEBRA se(3)
calcolare i commutatori tra gli elementi della base 1 , . . . , 6 . Si trova (verificare)
 P3

γ=1 εα,β,γ γ ; α, β ∈ {1, 2, 3}





P6


 γ=4 εα,β−3,γ−3 γ ; α ∈ {1, 2, 3} , β ∈ {4, 5, 6}
[α , β ] =
P


 6γ=4 εα−3,β,γ−3 γ ; α ∈ {4, 5, 6} , β ∈ {1, 2, 3}






0 ; α, β ∈ {4, 5, 6}
35
(107)
Dimostriamo che il tensore di Poisson (96) ha i coefficienti che sono le costanti di struttura di so(3)
col segno meno. Sia u ≡ (M , ξ)T ∈ R6 , ovvero uα = Mα se α = 1, 2, 3, mentre uα = ξα−3 se
α = 4, 5, 6. Allora il tensore (96) è della forma Jαβ = cαβ
γ uγ , con α, β, γ ∈ {1, . . . , 6}. Precisamente,
si ha
 P3

 − γ=1 εα,β,γ uγ ; α, β ∈ {1, 2, 3}




P6


 − γ=4 εα,β−3,γ−3 uγ ; α ∈ {1, 2, 3} , β ∈ {4, 5, 6}
Jαβ =
,
P6



− γ=4 εα−3,β,γ−3 uγ ; α ∈ {4, 5, 6} , β ∈ {1, 2, 3}






0 ; α, β ∈ {4, 5, 6}
αβ
da cui segue evidentemente la corrispondenza tra le relazioni [α , β ] = −cαβ
γ γ e Jαβ = cγ uγ . Per
maggiori dettagli sul gruppo euclideo e sul corpo rigido si consulti [Ma&Ra-IMS].
CAPITOLO 4
Sistemi infinito-dimensionali
L’estensione del formalismo Hamiltoniano al caso dei sistemi di equazioni alle derivate parziali
(EDP) e dei sistemi di equazioni integro-differenziali, che sono sistemi infinito-dimensionali, viene
fatta per analogia con il caso finito-dimensionale. Come abbiamo visto, una parentesi di Poisson
è definita da tre ingredienti essenziali: il prodotto scalare, il gradiente delle funzioni definite sullo
spazio delle fasi del sistema, il tensore, o operatore, di Poisson. Ci si aspetta quindi che, in ogni
problema specifico che si riesce a trattare nel contesto Hamiltoniano, la parentesi di Poisson tra due
funzioni F e G sia della forma
{F, G}(u) = h∇F (u), J (u)∇G(u)i ,
(108)
essendo ∇ una opportuna operazione di derivazione, h , i un opportuno prodotto scalare e J un
opportuno operatore antisimmetrico (rispetto a h , i) tale che { , } soddisfi l’identità di Jacobi. Non
svilupperemo il formalismo generale in astratto, ma procederemo per esempi. Accenniamo soltanto
che, quasi sempre, come prodotto scalare h , i si considera il prodotto L2 , cioè il prodotto ordinario di campi scalari o il prodotto euclideo di campi vettoriali integrato sulle variabili spaziali. Di
conseguenza, il gradiente ∇ è l’associato gradiente L2 , o derivata funzionale.
1. Equazione delle onde
Si consideri l’equazione delle onde
utt = uxx
(109)
con campo scalare incognito u(t, x) definito su R × X, dove X può essere R con condizioni di decrescenza rapida all’infinito, R/Z (cioè [0, 1] con condizioni periodiche agli estremi) oppure [0, 1] con
condizioni fisse agli estremi. Moltiplicando la (109) per ut e integrando su X otteniamo
Z
Z 1
1
2
2
0 =
ut (utt − uxx ) dx =
∂t (ut ) + ∂t (ux ) − ∂x (ut ux ) dx =
2
X
X 2
Z
2
2
d
(ut ) + (ux )
=
dx − ut ux |∂X .
(110)
dt X
2
L’ultimo termine vale zero in tutti e tre i casi menzionati, per cui la quantità
Z
(ut )2 + (ux )2
H(u, ut ) =
dx
(111)
2
X
è una costante del moto dell’equazione delle onde, chiaramente interpretabile come energia totale
del sistema. Una prima formulazione Hamiltoniana dell’equazione delle onde si ottiene riscrivendola
come sistema di EDP del primo ordine (in t):
ut = p
.
(112)
pt = uxx
L’integrale primo (111) riscritto nelle variabili u e p diventa
Z 2
p + (ux )2
H(u, p) =
dx .
2
X
37
(113)
38
4. SISTEMI INFINITO-DIMENSIONALI
Si osservi che la variabile p(t, x) è definita come u(t, x) su R × X. A questo punto basta osservare
che, se ξ(t, x) e η(t, x) sono due campi scalari definiti anch’essi su R × X, il differenziale di H in (q, p)
nella direzione (ξ, η) vale
Z
d
dH(u, p|ξ, η) =
H(u + ξ, p + η)
= (pη + ux ξx ) dx =
d
=0
Z
Z X
δH
δH
=
(−ξuxx + ηp) dx =
ξ+
η =
δu
δp
X
X
= ∇H, (ξ, η)T .
Qui
T
δH δH
∇H(u, p) =
,
= (−uxx , p)T ,
δu δp
indica il gradiente L2 di H, cioè l’oggetto che, moltiplicato scalarmente per la direzione (ξ, η), con
prodotto scalare L2 definito da
Z
T
T
(114)
(a, b) , (c, d) = (ac + bd) dx ,
X
fornisce il differenziale di H lungo (ξ, η). Le componenti di ∇H, indicate con δH/δu e δH/δp
prendono il nome di derivate (parziali) funzionali di H. Il sistema (112) si può quindi riscrivere in
forma Hamiltoniana:
ut = δH
u
δp
⇔
= J2 ∇H ,
(115)
δH
p t
pt = − δu
dove J2 è la matrice simplettica standard 2 × 2. La derivata rispetto al tempo di una qualsiasi
funzione F (u, p) calcolata lungo una soluzione del sistema (115) vale
d
d
= F (u(t) + ut ), p(t) + pt )
=
Ḟ (u(t), p(t)) =
F (u(t + ), p(t + ))
d
d
=0
=0
= dF (u(t), p(t)|ut , pt ) = h∇F, J2 ∇Hi (u(t), p(t)) .
Si può quindi definire la seguente parentesi di Poisson tra coppie di funzioni F e G:
Z δF δG δF δG
def
{F, G} = h∇F, J2 ∇Gi =
−
dx .
δu δp
δp δu
X
(116)
Vediamo ora una formulazione Hamiltoniana dell’equazione delle onde nel caso specifico di X =
[0, 1] con estremi fissi.
√ In questo caso si possono espandere u e p sulla base di Fourier formata dalle
funzioni ϕk (x) = 2 sin(πkx), k ≥ 1. Tale base è ortonormale rispetto al prodotto scalare L2
standard:
Z
1
ϕk (x)ϕk0 (x) dx = δk,k0 .
P
P
P
Siano quindi u(t, x) = k≥1 uk (t)ϕk (x) e p(t, x) = k≥1 pk (t)ϕk (x); allora uxx = − k≥1 ωk2 uk ϕk ,
con ωk = πk. Si vede quindi facilmente che il sistema Hamiltoniano (115) si può riscrivere nella
forma standard
∂H
u̇k = pk = ∂p
k
(k ≥ 1) ,
(117)
∂H
ṗk = −ωk2 uk = ∂u
k
0
dove
H(u, p) =
X p2 + ω 2 u2
k
k≥1
k k
2
.
(118)
1. EQUAZIONE DELLE ONDE
39
Quindi la dinamica del campo u(t, x), soluzione dell’equazione delle onde con estremi fissi, è sovrapposizione di infiniti moti armonici indipendenti di frequenze ωk = πk. La struttura di Poisson in
questo caso è quella standard ma in dimensione infinita.
Consideriamo ora il caso in cui X = R/Z. Osserviamo prima di tutto che dalle equazioni del
moto (112) si deducono le leggi di conservazione
Z 1
def
P (p(t)) =
p(t, x) dx = P (p(0))
0
e
def
Z
1
u(t, x) dx = U (u(0)) + t P (p(0)) ,
U (u(t)) =
0
che esprimono rispettivamente la conservazione della quantità di moto e l’uniformità del moto del
centro di massa. Scegliamo quindi, senza perdita di generalità, dati iniziali tali che U (u(0)) =
P (p(0)) = 0. Osserviamo poi che nell’Hamiltoniana (113), cosı́ come nella seconda delle equazioni
del moto (112) entra solo la variabile ux . È naturale chiedersi allora se non sia possibile dare una
formulazione Hamiltoniana dell’equazione delle onde che coinvolga le variabili ux e p. A tale scopo
definiamo due nuove variabili
def ux (t, x) ± p(t, x)
√
w± (t, x) =
.
(119)
2
R1
Osserviamo che tale formula definisce, assieme alla condizione di media nulla 0 u dx = 0, una
trasformazione di variabili invertibile (u, p) 7→ (w+ , w− ). Infatti, assegnati i campi u e p, questi,
via la (119), determinano univocamente w± . Viceversa, assegnati w± , p e ux si ricavano per semidifferenza e semi-somma, rispettivamente. Ora, grazie alla condizione di media nulla, ux determina
univocamente u. Infatti, le espansioni di Fourier di u e ux in R/Z sono i seguenti
X
u(t, x) =
uk eı2πkx ,
k∈Z\{0}
ux (t, x) =
X
(ı2πkuk )eı2πkx ,
k∈Z\{0}
con l’esclusione del termine k = 0 che equivale alla condizione di media nulla. Quindi il k-esimo
coefficiente di Fourier di u si ricava dal k-esimo coefficiente di ux dividendo per ı2πk.
Ora, si verifica facilmente che la funzione di Hamilton (113), nelle nuove variabili, si scrive
Z 1 + 2
(w ) + (w− )2
+
−
H(w , w ) =
dx ,
(120)
2
0
mentre le equazioni del moto (112) si scrivono
+
+ wt = wx+
w
1 0
⇔
=
∂x ∇H ,
wt− = −wx−
w− t
0 −1
(121)
dove le componenti di ∇H sono δH/δw± = w± . Il tensore di Poisson in questo caso è l’operatore
lineare
1 0
J =
∂x ,
(122)
0 −1
che è antisimmetrico rispetto al prodotto scalare (114). La parentesi di Poisson di due funzioni
F (w+ , w− ) e G(w+ , w− ) è data allora da
Z 1
δF
δG
δF
δG
{F, G} = h∇F, J ∇Gi =
−
dx .
(123)
δw+ δw+ x δw− δw− x
0
40
4. SISTEMI INFINITO-DIMENSIONALI
La riformulazione (121) dell’equazione delle onde è molto utile sia dal punto di vista concettuale che da
quello pratico. Infatti, la dinamica dell’equazione delle onde risulta in questo modo in due dinamiche
indipendenti di onda semplice: quella per w+ , che descrive la traslazione a sinistra del profilo iniziale
e quella per w− , che descrive la traslazione a destra del profilo iniziale: w± (t, x) = w± (0, x ± t).
Si può dimostrare che il tenosre di Poisson (122) è il trasformato del tensore standard J2 tramite
il cambio di variabili (119), e che la parentesi di Poisson (123) è la trasformata della parentesi (116).
Facciamo notare che il tensore di Poisson (122) ha per nucleo i campi a due componenti costanti,
cioè indipendenti da x (verificarlo), che sono i gradienti di funzioni lineari in w+ e w− . In realtà la
condizione di media nulla su u e p si trasferisce su w± e con tale scelta ker J consiste nel solo vettore
nullo.
Quanto esposto per l’equazione delle onde (109) si applica senza variazioni a famiglie di equazioni
piú generali, ad esempio della forma
utt = uxx − V 0 (u) ,
(124)
essendo µ un parametro e V (u) una assegnata funzione di u (per V (u) = µu e V (u) = µu + λu3 si
hanno rispettivamente i modelli unidimensionali di Klein-Gordon e Klein-Gordon cubico, o ”modello
ϕ4 ”). L’equazione (124) è Hamiltoniana con struttura standard e funzione di Hamilton
Z 2
p + (ux )2
+ V (u) dx .
H(u, p) =
2
X
Si consideri il problema ad estremi fissi in X = [0, 1] con V (u) = µu + λu3 e si scrivano le equazioni
di Hamilton per i coefficienti di Fourier nella base dei seni.
2. Equazione di Korteweg-de Vries
Consideriamo l’equazione di Korteweg-de Vries (KdV)
ut = −uxxx + 6uux .
(125)
Questa equazione alle derivate parziali nell’incognita u(t, x) descrive la dinamica di sistemi fisici
continui debolmente dispersivi e debolmente non lineari ed è stata ricavata per la prima volta nel
1895 in un lavoro sulla propagazione di onde di superficie in acqua poco profonda (l’equazione
fornisce una buona descrizione sia della propagazione di onde in un ”naviglio” sia della propagazione
di Tsunami in oceano aperto).
Supporremo il campo incognito u(t, x) definito su R×X, con X = R oppure X = R/Z. Si dimostra
facilmente che la KdV ammette i due integrali primi
Z
u
C(u) =
dx ,
(126)
X 2
Z 2
u
S(u) =
dx .
(127)
X 2
In realtà, è noto che la KdV ammette infinite costanti del moto. ed è integrabile. Un altro integrale
primo, meno banale da intuire a vista, è (dimostrarlo)
Z (ux )2
3
H(u) =
+ u dx .
(128)
2
X
il cui differenziale in u nella direzione h(t, x) risulta
Z
dH(u|h) = (−uxx + 3u2 )h dx .
X
(129)
2. EQUAZIONE DI KORTEWEG-DE VRIES
41
Si vede allora facilmente che la KdV (125) si può riscrivere come
δH
ut = ∂x
.
(130)
δu
R
Poiché l’operatore lineare ∂x è antisimmetrico rispetto al prodotto scalare L2 hf, gi = X f g dx e
non dipende da u, esso è un tensore di Poisson e l’equazione (130) è Hamiltoniana. La parentesi di
Poisson di due funzioni F (u) e G(u) è allora data da
Z
δF δG
dx .
(131)
{F, G} = h∇F, ∂x ∇Gi =
δu x
X δu
Osserviamo che gli invarianti di Casimir di tale struttura di Poisson sono dati da quelle funzioni C
con gradiente in ker ∂x , ovvero dalle funzioni con gradiente costante, indipendente cioè da x. Queste
sono le funzioni lineari di u della forma (126).
La KdV ammette una seconda formulazione Hamiltoniana. Precisamente, definito l’operatore
def
D = −∂x3 + 2(2u∂x + ux ) ,
(132)
la KdV si può scrivere come
δS
,
(133)
δu
con S(u) definita in (127). In questa seconda formulazione l’Hamiltoniana è, a parte un fattore,
la norma L2 di u, mentre il tensore di Poisson è l’operatore D definito in (132). Tale operatore è
antisimmetrico (rispetto al prodotto scalare L2 ) ed è lineare in u, ma non omogeneo (contiene il
termine costante antisimmetrico −∂x3 ). Non dimostriamo che si tratta realmente di un tensore di
Poisson.
L’esistenza di due strutture di Poisson indipendenti è alla base dell’esistenza di infinite costanti
del moto per la KdV. Infatti, le due identità
δS
δC
δH
δS
∂x
=D
, ∂x
=D
,
(134)
δu
δu
δu
δu
suggeriscono la relazione ricorsiva
δIj
δIj+1
=D
, I0 = C (j ∈ N) ,
(135)
∂x
δu
δu
che genera infinite costanti del moto della KdV. I primi quattro integrali primi sono I0 = C, I1 = S,
I2 = H (vedi le identità (134)), e
Z (uxx )2
5u4
2
I3 (u) =
+ 5(ux ) u +
dx .
2
2
X
ut = D
Si può dimostrare che le costanti del moto Ij generate dalla relazione ricorsiva (135) sono in involuzione rispetto ad entrambe le strutture di Poisson, cioè
{Ij , Ik }∂x = 0 = {Ij , Ik }D
per ogni j, k ≥ 0. Sfruttando questo fatto, nel caso spazialmente periodico X = R/Z, si possono
costruire soluzioni quasi-periodiche della KdV con un numero qualsiasi di frequenze. Per ulteriori dettagli si veda [Arn-MMMC] (ultima appendice) e soprattutto [Lax76]. Si consulti anche
[Magri78], un lavoro generale sulle costanti del moto e sulle simmetrie dei sistemi Hamiltoniani a
infiniti gradi di libertà.
In conclusione alla presente sezione dedicata alla KdV, osserviamo che tale equazione è parte di
una famiglia di EDP integrabili molto perticolari, che si ottengono come condizione di compatibilità
di due equazioni ausiliarie, che prendono il nome di ”coppia di Lax” dell’equazione data. L’esistenza
di una coppia di Lax per una data equazione implica (quasi sempre) la sua integrabilità via una
42
4. SISTEMI INFINITO-DIMENSIONALI
tecnica detta ”Inverse Scattering”, molto simile a quella che si usa per ricostruire un potenziale di
interazione a partire dall’analisi delle perticelle da esso ”diffuse”. La coppia di Lax della KdV è
def
Lψ = (−∂x2 + u)ψ = λψ ,
def
ψt = Mψ = [−4∂x3 + 3(2u∂x + ux )] ,
(136)
(137)
con ψ(t, x) campo scalare ausiliario complesso. La condizione di compatibilità è
ut = −uxxx + 6uux ⇔ ∂t L = [M, L] .
Si osservi che l’operatore M è anti-hermitiano, pertanto il campo ausiliario ψ evolve unitariamente
nel tempo (dimostrarlo a partire dalla (137)) e l’operatore L, hermitiano, ha spettro reale indipendente dal tempo. Tale spettro, ovvero l’insieme dei λ nella (136), può essere quindi calcolato al
tempo t = 0. L’equazione (136) al tempo t = 0 è l’equazione di Schrödinger unidimensionale indipendente dal tempo, con u(0, x), il dato iniziale della KdV, che gioca il ruolo di potenziale. La teoria
dell’Inverse Scattering per la KdV sulla retta è stata proposta per la prima volta in [GGKM67].
Una rassegna generale abbastanza completa sulla KdV è [Miura76]. Per la derivazione della KdV
e sue generalizzazioni a partire delle equazioni dell’idrodinamica si veda [Jo-WW].
3. Fluido ideale
Un altro esempio di sistema fisico per il quale si pone il problema di una descrizione Hamiltoniana
è il fluido ideale incomprimibile, descritto dall’equazione di Eulero
v t = −v · ∇v − ∇p ,
(138)
dove v(t, x) è il campo di velocità del fluido in x ∈ D ⊂ Rd (d = 2, 3) al tempo t, mentre p(t, x) è
il campo di pressione diviso per la densità (costante). Il campo di velocità soddisfa due condizioni:
ha divergenza nulla in tutto il dominio D occupato dal fluido e componente normale nulla sul bordo
∂D del dominio stesso:
∇ · v(t, x) = 0 ∀x ∈ D ;
n(x) · v(t, x) = 0 ∀x ∈ ∂D ,
(139)
(140)
essendo n(x) il versore normale ”uscente” al bordo ∂D nel punto x. Si noti che la condizione di
incomprimibilità (139) equivale all’ipotesi di densità costante. Infatti, se nell’equazione di continuità
ρt + ∇ · (ρv) = 0 per la densità di massa del fluido si pone ρ = costante, si ottiene la (139). La
condizione al contorno (140), che esprime la condizione di tangenza al bordo del dominio del campo di
velocità, ha una semplice interpretazione fisica: l’assenza di perdite o entrate di fluido al bordo. Dal
punto di vista matematico la condizione di campo tengente al bordo assicura invece l’unicità della
soluzione (se esiste) dell’equazione di Eulero (138) (vedi ad es. [Ma&Be-VIF]). La condizione di
incomprimibilità (139) è anche quella che permette di risolvere il problema apparente della mancanza
dell’equazione di evoluzione per la pressione. Infatti, prendendo la divergenza dell’equazione di Eulero
e sfruttando la (139), si ottiene l’equazione di Poisson per p
∆p = −∇ · (v · ∇v) .
(141)
Inoltre, moltiplicando la (138) per n(x su ∂D e sfruttando la (140) si ottiene la condizione al bordo
n · ∇p = −n · (v · ∇v) ∀x ∈ ∂D .
(142)
Il problema (141)-(142) ammette soluzione definita a meno di una costante arbitraria, che indichiamo
simbolicamente come segue:
p(t, x) = −∆−1 ∇ · (v · ∇v)(t, x) .
(143)
3. FLUIDO IDEALE
43
Inserendo tale espressione formale nell’equazione di Eulero (138) si ottiene
v t = −v · ∇v + ∇∆−1 ∇ · (v · ∇v)
che, definendo l’operatore
def
P = I − ∇∆−1 ∇· ,
(144)
può essere riscritta nella forma compatta
v t = −P(v · ∇v) .
(145)
L’operatore P definito in (144) agisce sui campi di vettori definiti su D ed è un operatore di proiezione
sul sottospazio dei campi su D a divergenza nulla e tangenti a ∂D. Infatti, si ha ∇ · P ≡ 0. Inoltre,
inserendo la (143) nella condizione (142) si ottiene n · P ≡ 0. Si capisce quindi che la soluzione
dell’equazione di Eulero (145) corrispondente ad un dato iniziale v(0, x) a divergenza nulla e tangente
al bordo è a divergenza nulla e tangente al bordo per ogni t per cui esiste.
Sfruttando l’identità vettoriale v · ∇v = ∇(|v|2 /2) − v ∧ ω, essendo ω = ∇ ∧ v il campo di
vorticità, l’equazione di Eulero del fluido ideale si può scrivere come
v t = v ∧ ω − ∇h
(146)
con h = p + |v|2 /2. Da questa equazione si vede subito, moltiplicando scalarmente per v e integrando
su D, che la quantità
Z
|v(t, x)|2 dd x
H(v) =
(147)
D
è una costante del moto per l’equazione di Eulero. Si osservi che grazie alle condizioni (139)-(140),
per ogni funzione f definita su D si ha
Z
Z
Z
Z
d
d
d
v · ∇f d x =
∇ · (f v) d x −
f∇ · v d x =
f n · v dσ = 0 .
D
D
D
∂D
Osserviamo ancora che il differenziale di H in v nella direzione w è dato da
Z
δH
d def
v · w d x = hv, wi =
dH(v|w) =
,w ,
δv
D
(148)
dove h , i è il prodotto L2 ottenuto integrando su D il prodotto scalare euclideo degli argomenti.
Dunque δH/δv = v. Dalla forma (146) dell’equazione di Eulero e da quanto detto sopra si vede
subito che il campo scalare h può essere eliminato (farlo in dettaglio)introducendo il proiettore P,
ottenendo
δH
δH
v t = P(v ∧ ω) = −P ω ∧
= J (v)
,
(149)
δv
δv
dove abbiamo definito l’operatore
def
J (v)· = −P (ω ∧ ·)
(150)
lineare ed omogeneo nel campo di velocità v. Quindi la forma (149) dell’equazione di Eulero è
Hamiltoniana se l’operatore (150) è di tipo di Lie-Poisson. Al fine di dimostrare quest’ultimo fatto
e di dare quindi una formulazione Hamiltoniana della meccanica del fluido ideale, introduciamo lo
spazio dei campi vettoriali su D a divergenza nulla e tangenti al bordo:
def
SVec(D) = {v : R × D → Rd : ∇ · v = 0 ; n · v|∂D = 0} .
(151)
Vale la seguente
Proposizione 16. SVec(D) è un’algebra di Lie (infinito-dimensionale) con prodotto dato dall’ordinario commutatore tra campi vettoriali.
44
4. SISTEMI INFINITO-DIMENSIONALI
C Dim. La struttura di spazio vettoriale è ovvia. Siano v, w ∈ SVec(D) e sia
[v, w] = v · ∇w − w · ∇v
il loro commutatore. Dobbiamo dimostrare che [v, w] ∈ SVec(D). La condizione di divergenza
nulla è immediata:
∇ · [v, w] = ∂i (vj ∂j wi − wj ∂j vi ) = (∂i vj )(∂j wi ) − (∂i wj )(∂j vi ) ≡ 0 .
Un modo alternativo di dimostrarla si basa sulla seguente identità vettoriale, valida per campi a
divergenza nulla:
∇ ∧ (v ∧ w) = −v · ∇w + w · v = −[v, w] ;
(152)
la divergenza del rotore è identicamente nulla. La condizione di tangenza al bordo si dimostra
come segue. Si fissi ad arbitrio un insieme B ⊂ ∂D, cioè una ”porzione” di frontiera del dominio
D; allora, sfruttando la (152) e il teorema di Stokes, si ha
I
Z
(v ∧ w) · d` = 0 .
n · [v, w] dσ = −
B
∂B
L’ultima uguaglianza segue dal fatto che d` è tangente a ∂B e quindi a ∂D, mentre v ∧w è normale
a ∂D e quindi a d`. Dall’arbitrarietà di B segue che n · [v, w] = 0 in ogni punto di ∂D. B
Mostreremo che l’equazione di Eulero del fluido ideale ha una struttura di Lie-Poisson, con tensore
di Poisson lineare e omogeneo in v definito dalle costanti di struttura di SVec(D).
Sia F definita su SVec(D) tale che δF/δv ∈ SVec(D) e sia v(t, ·) soluzione dell’equazione di
Eulero (149); la derivata rispetto al tempo di F (v(t, ·)) vale
δF
δF
δH
Ḟ = dF (v|v t ) =
, vt =
, J (v)
.
(153)
δv
δv
δv
Questo suggerisce ovviamente di definire la parentesi di Poisson tra due funzioni F e G definite su
SVec(D) e a gradienti in SVec(D) come
{F, G} = h∇F, J ∇Gi .
(154)
Riscriviamo ora tale parentesi in una forma equivalente piú comoda al fine di dimostrare che si tratta
effettivamente di una parentesi di Poisson. A tale scopo sfruttiamo prima di tutto il fatto che, se
v ∈ SVec(D), allora hv, Pwi = hv, wi per ogni w (la parte di gradiente di P ha contributo nullo per
il teorema della divergenza). Usando la definizione (150) di J , la (154) diviene allora
Z
δF δG
ω·
{F, G} = − h∇F, P(ω ∧ ∇G)i = hω, ∇F ∧ ∇Gi =
∧
dd x .
(155)
δv
δv
D
Ora, se u e w sono campi a divergenza nulla e ω = ∇ ∧ v, vale l’identità vettoriale
ω · (u ∧ w) = ∇ · (uv · w − wu · v) − v · [u, w] .
Sfruttando tale relazione si può riscrivere la (155) come segue:
Z
δF δG
{F, G} = − hv, [∇F, ∇G]i = −
v·
,
dd x .
δv
δv
D
(156)
Dobbiamo ora dimostrare che la parentesi (156) soddisfa l’identità di Jacobi o, equivalentemente,
che l’operatore (150) è di tipo Lie-Poisson. Supponiamo che in SVec(D) esista una base di campi
vettoriali {v α }α ortonormali rispetto al prodotto h , i (supponiamo cioè che SVec(D) sia uno spazio
di Hilbert): hv α , v β i δα,β . Allora, per ogni v ∈ SVec(D) si ha (somma sugli ”indici” ripetuti)
v = uα v α ; uα = hv α , vi .
3. FLUIDO IDEALE
45
Moltiplicando da sinistra per v α l’equazione di Eulero (149) si ottiene
u̇α = − hv α , P(ω ∧ v)i = hω, v α ∧ vi =
= − hv, [v α , v]i = − hv γ , [v α , v β ]i uβ uγ =
αβ
= − v γ , λαβ
µ v µ uβ uγ = −λγ uγ uβ ,
dove i coefficienti λαβ
γ sono le costanti di struttura di SVec(D). Dunque l’equazione di Eulero, scritta
come sistema di EDO per i coefficienti di Fourier uα , ha la forma
u̇α = Jαβ uβ ,
(157)
dove
Jαβ = hv α , J v β i = −λαβ
γ uγ ,
essendo J l’operatore (150) (verificarlo). Se ora si osserva che
1
1
H(v) = hv, vi = uα uα ,
2
2
si vede che l’equazione di Eulero (157) è Hamiltoniana:
∂H
,
u̇α = Jαβ
∂uβ
(158)
(159)
con tensore di Lie-Poisson (158), i cui coefficienti sono (meno) le costanti di struttura dell’algebra
di Lie SVec(D). La parentesi di Poisson di due funzioni F e G con gradiente in SVec(D) si scrive
(dimostrarlo)
∂F ∂G
∂F ∂G
{F, G} = Jα,β
= −λαβ
.
γ uγ
∂uα ∂uβ
∂uα ∂uβ
Resta ovviamente da dimostrare che effettivamente una base ortonormale in SVec(D) esiste. Tale
risultato è dovuto a Yoshida e non lo riportiamo. Accenniamo solo al fatto che i campi vettoriali v α
sono gli autovettori del rotore, vedi [YoGi90] e [Yo92].
La struttura Hamiltoniana del fluido ideale appare per la prima volta nel lavoro (molto astratto)
[Arn66], sintetizzato in appendice al testo [Arn-MMMC]; vedi anche la monografia [Arn&Khe-TMH].
Bibliografia
[Arn-MMMC] V.I. Arnol’d, Metodi matematici della meccanica classica, Editori Riuniti, 1979.
[Arn-EDO] V.I. Arnol’d, Equazioni differenziali ordinarie, Edizioni Mir, 1979.
[Arn66] V.I. Arnol’d, ”Sur la géométrie différentielle des groupes de Lie de dimension infinie et ses applications à
l’hydrodynamique des fluides parfaits”, Annales de l’Institut Fourier, 16 (1966), 319-361.
[Arn&Khe-TMH] V.I. Arnol’d, B.A. Khesin, Topological Methods in Hydrodynamics, Springer, 1998.
[DNF-GC] B.A. Dubrovin, S.P. Novikov, A.T. Fomenko, Geometria contemporanea - Vol. primo: Geometria delle
superfici, dei gruppi di trasformazioni e dei campi, Editori Riuniti, 1987.
[Fa&Ma-MA] A. Fasano, S. Marmi, Meccanica Analitica, Bollati Boringhieri, 1994.
[GGKM67] C.S. Gardner, J.M. Greene, M.D. Kruskal, R.M. Miura, ”Method for solving the Korteweg-de Vries
equation”, Physical Review Letters 19 (1967), 1095-1097.
[Gr-SL] W. Gröbner, Serie di Lie e loro applicazioni, Cremonese, 1972.
[Gr-GAL] W. Gröbner, Gruppi, anelli e algebre di Lie, Cremonese, 1975.
[HMRW85] D.D. Holm, J.E. Marsden, T. Ratiu, A. Weinstein, ”Nonlinear Stability of Fluid and Plasma Equilibria”,
Physics Reports 123 (1985), 1-116.
[Jo-WW] R.S. Johnson, A Modern Introduction to the Mathematical Theory of Water Waves, Cambridge University
Press, 1997.
[Lax76] P.D. Lax, ”Almost Periodic Solutions of the KdV equation”, SIAM Review 18 (1976), 351-375.
[Magri78] F. Magri, ”A simple model of the integrable Hamiltonian equation”, Journal of Mathematical Physics 19
(1978), 1156-1162.
[Ma&Be-VIF] A.J. Majda, A.L. Bertozzi, Vorticity and Incompressible Flow, Cambridge University Press, 2002.
[Ma&Ra-IMS] J.E. Marsden, T. Ratiu, Introduction to Mechanics and Symmetry, Springer, 1999.
[Miura76] R.M. Miura, ”The Korteweg-de Vries Equation: a Survey of Results”, SIAM Review 18 (1976), 412-459.
[Mor98] P.J. Morrison, ”Hamiltonian description of the ideal fluid”, Reviews of Modern Physics 70 (1998), 467-521.
[Nam73] Y. Nambu, ”Generalized Hamiltonian Dynamics”, Physical Review D 7 (1973), 2405-2412.
[Pro] C. Procesi, Elementi di teoria dei gruppi, Decibel, 1984.
[Sam] H. Samelson, Notes on Lie Algebras, Springer, 1990.
[YoGi90] Z. Yoshida, Y. Giga, ”Remarks on Spectra of Operator Rot”, Mathematische Zeitschrift 204 (1990), 235-245.
[Yo92] Z. Yoshida, ”Eigenfunction expansions associated with the curl derivatives in cylindrical geometries:
Completeness of Chandrasekhar-Kendall eigenfunctions”, Journal of Mathematical Physics 33 (1992), 1252-1256.
47