Università degli Studi di Padova Anno Accademico 2009-2010 Note per il corso di MECCANICA HAMILTONIANA Antonio Ponno Dipartimento di Matematica Pura ed Applicata, email: [email protected] Indice Capitolo 1. Meccanica Hamiltoniana 1. Sistemi Hamiltoniani 2. Proprietà delle parentesi di Poisson 3. Elementi di geometria delle EDO 4. Trasformazioni canoniche 5 5 7 8 12 Capitolo 2. Cenni sui gruppi e sulle algebre di Lie 1. Gruppi: esempi 2. Gruppi e algebre di Lie 3. Coefficienti di struttura 17 17 19 22 Capitolo 3. Sistemi Hamiltoniani generalizzati 1. Strutture di Poisson 2. Trasformazioni di coordinate 3. Strutture di Lie-Poisson: il corpo rigido 4. Il gruppo euclideo SE(3) e l’algebra se(3) 25 25 28 30 34 Capitolo 4. Sistemi infinito-dimensionali 1. Equazione delle onde 2. Equazione di Korteweg-de Vries 3. Fluido ideale 37 37 40 42 Bibliografia 47 3 CAPITOLO 1 Meccanica Hamiltoniana 1. Sistemi Hamiltoniani Un sistema dinamico Hamiltoniano a n gradi di libertà è definito da una funzione H(q, p) - detta Hamiltoniana, o funzione di Hamilton - definita su un opportuno insieme Γ ⊂ Rn × Rn - detto spazio delle fasi - e dalle equazioni di Hamilton ad essa associate: q̇ = ∂∂pH . (1) ṗ = − ∂∂qH Le componenti di q sono dette coordinate canoniche mentre le componenti di p sono dette momenti canonici coniugati. L’Hamiltoniana H è una costante del moto, o integrale primo, del sistema, cioè la derivata rispetto al tempo di H, quando si calcoli quest’ultima sulle soluzioni delle equazioni del moto (1), è identicamente nulla: d ∂H ∂H ∂H ∂H H(q(t), p(t)) = · − · (q(t), p(t)) ≡ 0 . dt ∂q ∂p ∂p ∂q Ne segue che, per ogni assegnato dato iniziale (q 0 , p0 ), in corrispondenza del quale la soluzione delle equazioni (1) esiste, vale la legge di conservazione H(q(t), p(t)) = E ≡ H(q 0 , p0 ) (2) e il moto del sistema si svolge sulla superficie di energia costante SE = {(q, p) ∈ Γ : H(q, p) = E} . (3) Esempio 1. L’esempio fondamentale di sistema Hamiltoniano è quello di una particella di massa m che si muove sotto l’azione di un campo di forze di energia potenziale U (q). L’Hamiltoniana del sistema in questo caso è la funzione energia totale |p|2 + U (q) , 2m e le equazioni di Hamilton (1) non sono altro che l’ equazione di Newton mq̈ = −∂U/∂q scritta come sistema del primo ordine: p q̇ = m . ṗ = − ∂∂qU H(q, p) = Si descriva la superficie di energia costante SE nel caso generico unidimensionale (n = 1) e nel caso particolare dell’oscillatore armonico n-dimensionale: U (q) = k|q|2 /2, q ∈ Rn (n = 1, 2, 3). Esempio 2. Si consideri il sistema definito dall’Hamiltoniana 1 1 H(q, p) = |p|2 + q · Vq , 2 2 dove V è una matrice n × n, simmetrica, definita positiva. Si studino le equazioni di Hamilton e si descriva la superficie di energia costante SE . 5 6 1. MECCANICA HAMILTONIANA Data una qualsiasi funzione1 F definita su Γ, la sua derivata rispetto al tempo lungo le soluzioni delle equazioni del moto (1) è data da d ∂F ∂H ∂F ∂H F (q(t), p(t)) = · − · (q(t), p(t)) . (4) dt ∂q ∂p ∂p ∂q Questa identità motiva l’introduzione della parentesi di Poisson def {F, G} = ∂F ∂G ∂F ∂G · − · , ∂q ∂p ∂p ∂q (5) vista come applicazione che ad ogni coppia di funzioni F, G definite su Γ associa una nuova funzione {F, G} definita su Γ. Utilizzando la parentesi di Poisson, l’equazione (4) si scrive in forma compatta Ḟ = {F, H} , (6) e le equazioni di Hamilton (1) possono essere riscritte nella forma q̇ = {q, H} . ṗ = {p, H} (7) Si verifica immediatamente che le coordinate canoniche q e p soddisfano le relazioni {q, q} = {p, p} = On , {q, p} = In , (8) note come parentesi di Poisson fondamentali. È conveniente a questo punto compattare ulteriormente la notazione adottata, introducendo la variabile vettoriale q x= ∈Γ, (9) p in termini della quale le equazioni di Hamilton (1) si scrivono ẋ = J∇H(x) , (10) dove def J = On In −In On (11) è la matrice (2nn) simplettica standard. Tale matrice ha le seguenti proprietà: J−1 = JT = −J ; J2 = −I2n ; det J = 1 . (12) La parentesi di Poisson (5) tra due funzioni F (x) e G(x) si scrive {F, G} = ∇F · J∇G , (13) in termini della quale le equazioni di Hamilton (7) diventano ẋ = {x, H} . (14) Le parentesi fondamentali (8) si scrivono semplicemente {x, x} = J . 1Si suppone ovunque che le funzioni trattate siano analitiche. (15) 2. PROPRIETÀ DELLE PARENTESI DI POISSON 7 2. Proprietà delle parentesi di Poisson Le proprietà fondamentali della parentesi di Poisson (13) dipendono a loro volta dalle proprietà (12) della matrice simplettica (11). Proposizione 1. La parentesi di Poisson (13) è caratterizzata dalle seguenti proprietà: • antisimmetria: {F, G} = −{G, F } ∀F, G ; • linearità: {F + G, H} = {F, H} + {G, H} ∀F, G, H ; • regola di Leibniz: {F G, H} = F {G, H} + {F, H}G ∀F, G, H ; (16) (17) (18) • identità di Jacobi: {F, {G, H}} + {G, {H, F }} + {H, {F, G}} = 0 ∀F, G, H ; (19) • non degenerazione: {F, G} = 0 ∀F ⇒ G ≡ costante . (20) C Dim. La proprietà (16) è conseguenza dell’antisimmetria di J; le proprietà (17) e (18) sono quelle del gradiente. La proprietà (20) è conseguenza della non degenerazione del prodotto scalare euclideo che definisce la parentesi: a · Jb = 0 per ogni a implica Jb = 0, da cui segue b = 0 essendo J non singolare. Dimostriamo esplicitamente l’identità di Jacobi (19). Si ha {F, {G, H}} = ∇F · J∇(∇G · J∇H) = (∂i F )Jij ∂j (∂k G)Jkl (∂l H) = 2 2 = (∂i F )Jij (∂jk G)Jkl (∂l H) + (∂i F )Jij (∂k G)Jkl (∂jl H) = = ∇F · J(∂ 2 G)J∇H − ∇F · J(∂ 2 H)J∇G . (21) Permutando ciclicamente F , G e H si scrivono immediatamente: {G, {H, F }} = ∇G · J(∂ 2 H)J∇F − ∇G · J(∂ 2 F )J∇H , (22) {H, {F, G}} = ∇H · J(∂ 2 F )J∇G − ∇H · J(∂ 2 G)J∇F . (23) 2 2 Ora, la matrice hessiana ∂ F è simmetrica, mentre J è antisimmetrica, per cui J∂ F J è simmetrica; idem per quanto riguarda G e H. Ne segue che la somma di (21), (22) e (23) è identicamente nulla (perché?) B Osservazione 1. Si noti che le proprietà (16) e (17) assieme implicano linearità anche rispetto al secondo argomento, cosı́ come (16) e (18) implicano la validità della regola di Leibniz anche rispetto al secondo argomento. Analogamente, le proprietà (16) e (20) assieme implicano non degenerazione rispetto al primo argomento: {F, G} = 0 per ogni G implica F identicamente costante. Dato un sistema Hamiltoniano definito dall’Hamiltoniana H, segue dall’equazione (6) che F è una costante del moto per il sistema se e solo se {F, H} = 0. Una conseguenza interessante dell’identità di Jacobi (19) è che se F1 e F2 sono due costanti del moto per il sistema definito da H, allora lo è anche F3 = {F1 , F2 } (dimostrarlo). Esempio 3. I moti ”centrali” sono definiti da Hamiltoniane della forma |p|2 + U (|q|) , 2m q, p ∈ R3 . Si verifica che `1 = q2 p3 − q3 p2 e `2 = q3 p1 − q1 p3 sono costanti del moto. Inoltre `3 = q1 p2 − q2 p1 = {`1 , `2 }, per cui anche `3 è una costante del moto (svolgere esplicitamente e spiegare il risultato). H= 8 1. MECCANICA HAMILTONIANA Ad ogni assegnata funzione H definita su Γ resta associato in modo naturale un operatore differenziale lineare del primo ordine def DH = { , H} = J∇H · ∇ , (24) in termini del quale le proprietà (16)-(20) si possono riesprimere, ad esempio, come segue (verificarlo): DG F = −DF G ; (25) DF +G = DF + DG ; (26) DF G = F DG + GDF ; (27) DF DG − DG DF = D{G,F } ; (28) DG = 0 ⇒ G ≡ costante . (29) La derivata di una qualsiasi funzione F definita su Γ si scrive Ḟ = DH F mentre le equazioni di Hamilton (14) diventano ẋ = DH x. Si è quindi portati ad introdurre l’applicazione esponenziale etDH per definire la soluzione delle equazioni di Hamilton al tempo t. Prima di farlo però, è bene chiarire alcuni concetti che riguardano le equazioni differenziali in generale. 3. Elementi di geometria delle EDO In questo paragrafo vengono esposte nozioni generali riguardanti le equazioni differenziali ordinarie (EDO), di cui le equazioni di Hamilton (10) sono un caso particolare. Si considerano di proposito EDO su varietà differenziabili, dal momento che i concetti introdotti, in questo modo, hanno una definizione naturale indipendente dal sistema di coordinate locali scelto. Inoltre la trattazione su varietà è necessaria per introdurre in modo sintetico i gruppi e le algebre di Lie, che usiamo nel seguito. Per un approccio alla geometria moderna con taglio orientato alla fisica teorica si consiglia [DNF-GC]. Varietà differenziabili – Una varietà differenziabile M di dimensione n immersa in Rd , d ≥ n, è definita (localmente) da una applicazione differenziabile che ad ogni x ∈ D ⊂ Rn associa biunivocamente un punto P (x) ∈ Rd . Lo jacobiano ∂P/∂x di tale applicazione ha rango n, che equivale alla condizione di indipendenza lineare degli n vettori tangenti τ i = ∂P/∂xi (i = 1, . . . , n), per ogni x ∈ D. Lo spazio tangente a M in un punto P è lo spazio vettoriale generato dagli n vettori τ i tangenti a M in P e si indica con TP M ≡ Tx M: def Tx M = {V ∈ Rd : V (x) = Vi (x)τ i } . (30) Si noti che il punto P (x) su M è normalmente identificato e indicato con x, tale identificazione essendo permessa dalla biunivocitaà dell’applicazione x 7→ P (x). Si scrive x ∈ M per indicare un punto sulla varietà, anche se, a stretto rigore, x varia in D, sottoinsieme di Rn , mentre è la sua immagine P (x) che sta su M. Le coordinate locali sulla varietà M sono le componenti x1 , . . . , xn del vettore x. Campi vettoriali ed EDO su varietà – Sia M una varietà differenziabile di dimensione n, e sia V (x) un campo vettoriale definito su M, cioè un’applicazione che ad ogni x ∈ M associa V (x) ∈ Tx M. Il modo standard di definire V (x) è quello di assegnare una curva regolare ϕ(t) ∈ M definita in un intorno I ⊂ R dello zero, tale che ϕ(0) = x. Allora il vettore tangente alla curva nel punto x, cioè V (x) = ϕ̇(0), è tangente a M in x per costruzione. Ragionando in coordinate locali, la curva ϕ(t) viene assegnata su D e si considera la composizione P (ϕ(t)). Allora risulta d V (x) = P (ϕ(t)) = ϕ̇i (0)τ i (x) . dt t=0 Si osservi quindi che la scrittura V (x) = ϕ̇(0) significa che le componenti di V (x) nella base dello spazio tangente Tx M sono gli n numeri ϕ̇i (0). 3. ELEMENTI DI GEOMETRIA DELLE EDO 9 Assegnato un campo vettoriale v(P ) ≡ V (x) su M, una equazione differenziale ordinaria (EDO) su M si scrive Ṗ = v(P ). Essendo P (t) ≡ P (x(t)), si può proiettare l’EDO sulla base di Tx(t) M e riscriverla quindi in coordinate locali come ẋ = V (x). Esempio 4. Una parametrizzazione della sfera S 2 è data da P (θ, φ) = (sin θ cos φ, sin θ sin φ, cos θ), con x = (θ, φ) ∈]0, π[×[0, 2π[. I due vettori tangenti a S 2 sono τ θ = (cos θ cos φ, cos θ sin φ, − sin θ) e τ φ = (− sin θ sin φ, sin θ cos φ, 0). Un campo vettoriale su S 2 è una combinazione lineare dei due vettori tangenti con coefficienti dipendenti da θ e φ: V (θ, φ) = Vθ (θ, φ)τ θ + Vφ (θ, φ)τ φ . Una EDO su S 2 è rappresentata (in coordinate locali) dal sistema di due equazioni differenziali θ̇ = Vθ (θ, φ), φ̇ = Vφ (θ, φ). Derivata di Lie – Data una qualsiasi funzione F (x) definita su M e data la curva ϕ(t) ∈ M il cui vettore tangente in ϕ(0) = x è ϕ̇(0) = V (x), si può considerare la composizione F (ϕ(t)), la cui derivata rispetto a t in t = 0 vale d F (ϕ(t)) = V (x) · ∇F (x) = (£V F )(x) . dt t=0 dove la quantità ∂ def (31) £V = V · ∇ = V i ∂xi prende il nome di derivata nella direzione del campo V , o derivata di Lie lungo V . Vale £V (x) x = V (x) , (32) identità alla base dell’identificazione che viene fatta spesso tra campi vettoriali e derivate di Lie ad essi associate. Serie di Lie – Dato un campo vettoriale V su M, con derivata di Lie associata £V , l’operatore esponenziale X tk def [£V ]k (33) et£V = k! k≥0 prende il nome di serie di Lie associata a V di parametro t, o ”al tempo t”. L’operatore et£V (x) agisce su funzioni di x definite su M. Si osservi che t£V e = idM ; (34) t=0 d t£V e = £V et£V = et£V £V . dt Queste ultime due relazioni motivano la seguente Proposizione 2. La soluzione formale del problema di Cauchy ẋ = V (x) = LV (x) x x(0) = ξ (35) (36) è data dalla serie di Lie x(t) = et£V (ξ) ξ (37) 10 1. MECCANICA HAMILTONIANA C Dim. Sia F una funzione definita su M; se si dimostra che F (et£V (ξ) ξ) = et£V (ξ) F (ξ) , (38) allora, facendo uso delle relazioni (32) e (35), si ottiene d t£V (ξ) e ξ = et£V (ξ) £V (ξ) ξ = et£V (ξ) V (ξ) = V (et£V (ξ) ξ) , dt cioè ẋ = V (x) (dove F è qualsiasi componente di V ), e quind la tesi della proposizione quando si osservi che la (34) garantisce la condizione x(0) = ξ. La dimostrazione della (38) si fa per passi. (1) Si osserva che £V (ξ) è un operatore di derivazione e quindi soddisfa la regola di Leibniz: £V (ξ) (ξi − ai )(ξj − aj ) = [£V (ξ) (ξi − ai )](ξj − aj ) + (ξi − ai )[£V (ξ) (ξj − aj )] , essendo ξi − ai e ξj − aj componenti qualsiasi di ξ − a, con a arbitrario. (2) Si dimostra (ad esempio per induzione, oppure iterando la relazione precedente) che N X N −s (ξ − a )(ξ − a ) = [£sV (ξ) (ξi − ai )][£N £N i j j V (ξ) i V (ξ) (ξj − aj )] . s s=0 (3) Moltiplicando per ottiene tN e dividendo per N ! la relazione precedente e sommando su N ≥ 0, si et£V (ξ) (ξi − ai )(ξj − aj ) = [et£V (ξ) (ξi − ai )][et£V (ξ) (ξj − aj )] . (4) La (38) segue dal fatto che qualsiasi funzione analitica F in un intorno di ξ = a si scrive X F (ξ) = cq (ξ1 − a1 )q1 · · · (ξn − an )qn . B q Osservazione 2. Espandendo l’esponenziale in (37) si ottiene lo sviluppo in serie di Taylor di x centrato in t = 0. Il problema della convergenza (in t) della serie di Lie (33) è quindi ricondotto a quello dell’esistenza di una soluzione analitica vicino all’origine (t = 0) del problema (36), o viceversa. Vedi [Gr-SL]. Flusso – Dato un campo vettoriale V su M, la famiglia a un parametro di applicazioni ΦtV da M in sé che per ogni t fissato (in un intorno dello zero) associa a ξ ∈ M la soluzione del problema (36) al tempo t, si chiama flusso del (o associato al) campo vettoriale V . Si ha: ΦtV (ξ) = et£V (ξ) ξ . (39) Valgono le ovvie proprietà ΦtV ◦ ΦsV = ΦVt+s , Φ0V = idM e [ΦtV ]−1 = Φ−t V , tutte ereditate dalla serie di Lie (33). Osserviamo che la relazione (39) è alla base della identificazione, spesso operata, tra flusso di un campo e serie di Lie associata. Osservazione 3. Se V (x) = Ax, cioè se il campo vettoriale V è lineare con matrice associata A (indipendente da x), allora si mostra facilmente che et£Aξ ξ = etA ξ , (40) cioè la serie di Lie associata e (quindi il flusso) sono dati dall’ordinario esponenziale di matrice. Commutazione di flussi e campi – Se su M sono assegnati due campi vettoriali U e V , ha senso chiedersi quale è il grado di commutatività dei due rispettivi flussi. Vale la Proposizione 3. ΦtU ◦ ΦsV − ΦsV ◦ ΦtU ≡ 0 ⇔ £U £V − £V £U ≡ 0 (41) 3. ELEMENTI DI GEOMETRIA DELLE EDO 11 C Dim. Definiamo ∆(t, s; ξ) = ΦtU (ΦsV (ξ)) − ΦsV (ΦtU (ξ)) = et£U (ξ) es£V (ξ) ξ − es£V (ξ) et£U (ξ) ξ . Se ∆ ≡ 0 allora anche tutte le sue derivate rispetto a t ed s, calcolate in t = s = 0, sono identicamente nulle. In particolare ∂2 ∆(t, s; ξ) = £U (ξ) £V (ξ) ξ − £V (ξ) £U (ξ) ξ . 0≡ ∂t∂s t=s=0 D’altra parte, se £U £V − £V £U ≡ 0, commutano anche le due serie di Lie associate (lo si prova immediatamente usando la definizione di esponenziale per serie) e quindi ∆ ≡ 0. B Dunque il grado di commutatività dei flussi associati ai campi vettoriali U e V dipende dalla differenza dei prodotti commutati, o commutatore, delle derivate di Lie corrispondenti. Calcolato in coordinate, tale commutatore si esprime come [£U , £V ] def = = = £U £V − £V £U = Ui ∂i (Vj ∂j ) − Vi ∂i (Uj ∂j ) = [Ui (∂i Vj ) − Vi (∂i Uj )]∂j = (U · ∇V − V · ∇U ) · ∇ = £U ·∇V −V ·∇U = £[U ,V ] , (42) dove il campo vettoriale def [U , V ] = U · ∇V − V · ∇U , (43) è detto (con abuso di nome e notazione) commutatore dei campi vettoriali U e V . Dunque il commutatore delle derivate di Lie associate ai campi U e V è la derivata di Lie associata al commutatore dei campi vettoriali U e V . Si faccia attenzione al fatto che qui e nel seguito, per adeguarsi alla letteratura esistente, lo stesso simbolo [ , ] viene usato per indicare oggetti completamente diversi, anche se viene sempre indicato come commutatore. Proprietà dei commutatori – Notiamo che il commutatore delle derivate di Lie definisce una applicazione prodotto sull’insieme delle derivate di Lie associate ai campi vettoriali su M. Tale prodotto è antisimmetrico, (bi-)lineare e soddisfa l’identità di Jacobi: [£U , £V ] = −[£V , £U ] [£U + £V , £W ] = [£U , £W ] + [£V , £W ] [£U , [£V , £W ]] + [£V , [£W , £U ]] + [£W , [£U , £V ]] = 0 . (44) (45) (46) Grazie alla (42), e alle due ovvie proprietà £U +V = £U + £V , £U = 0 ⇒ U = 0, le tre proprietà (44)-(46) si trasferiscono sui commutatori di campi vettoriali come segue (dimostrarlo): [U , V ] = −[V , U ] [U + V , W ] = [U , W ] + [V , W ] [U , [V , W ]] + [W , [U , V ]] + [V , [W , U ]] = 0 . (47) (48) (49) Quindi anche il commutatore di campi vettoriali è un prodotto antisimmetrico, (bi)-lineare e che soddisfa l’identità di Jacobi. Caso Hamiltoniano – M = Γ. Il membro destro delle equazioni del moto (10) o, equivalentemente, (14), prende il nome di campo vettoriale Hamiltoniano associato ad H, e si indica con X H (x): X H (x) = J∇H(x) = DH(x) x . (50) Essendo dato dal prodotto della matrice simplettica standard J per il gradiente di H, il campo vettoriale X H viene anche detto gradiente simplettico della funzione H. Segue immediatamente dalla definizione (24) di DH che DH = LX H = LJ∇H , (51) 12 1. MECCANICA HAMILTONIANA cioè l’operatore DH è la derivata di Lie lungo X H . Il flusso associato ad un campo vettoriale Hamiltoniano X H si indica, con leggero abuso di notazione, con ΦtH e vale ΦtH (x) = et£X H (x) (x) = etDH(x) x . (52) La relazione fondamentale che permette di caratterizzare i campi vettoriali Hamiltoniani è data dalla seguente Proposizione 4. Il commutatore di due campi vettoriali Hamiltoniani associati a due funzioni di Hamilton H e K è il campo vettoriale Hamiltoniano associato alla funzione di Hamilton {K, H}: [X H , X K ] = [J∇H, J∇K] = J∇{K, H} = X {K,H} . (53) C Dim. Sostituendo U = J∇H e V = J∇K nella definizione (43) di commutatore di due campi vettoriali, si ha [X H , X K ]j = (J∇H)i ∂i (J∇K)j − (J∇K)i ∂i (J∇H)j = 2 2 = Jis (∂s H)Jjq (∂iq K) − Jis (∂s K)Jjq (∂iq H) = 2 2 = Jis (∂s H)Jjq (∂iq K) − Jsi (∂i K)Jjq (∂sq H) = 2 2 = Jis (∂s H)Jjq (∂iq K) + Jis (∂i K)Jjq (∂sq H) = = Jjq ∂q [(∂i K)Jis (∂s H)] = (J∇{K, H})j = (X {K,H} )j .B (54) Una conseguenza immediata della proposizione precedente è che l’identità di Jacobi (19) soddisfatta dalla parentesi di Poisson è conseguenza dell’identità di Jacobi (49) soddisfatta dai campi vettoriali (dimostrarlo). Risulta dunque chiaro che se ci si restringe ai campi vettoriali Hamiltoniani, le proprietà del commutatore [ , ] tra campi vettoriali vengono trasferite sulla parentesi di Poisson { , } tra funzioni definite su Γ. Tali proprietà fondamentali sono l’antisimmetria, la bi-linearità e l’identità di Jacobi. Per capire a cosa sia dovuto tale fatto, come interpretarlo correttamente e quali generalizzazioni sono permesse, si deve entrare, anche solo parzialmente, nella teoria dei gruppi e delle algebre di Lie. 4. Trasformazioni canoniche Dato un sistema Hamiltoniano ẋ = J∇H(x) si pone il problema della sua trasformazione rispetto a cambiamenti di variabili x 7→ y = C(x), ovvero trasformazioni di coordinate C che siano diffeomorfismi (biiezioni differenziabili) di Γ in sé. Ci restringiamo a cambiamenti di variabili indipendenti dal tempo, anche se risultati generali possono essere formulati nel caso in cui C dipenda esplicitamente da t (vedi [Fa&Ma-MA]). La classe fondamentale di trasformazioni di coordinate della meccanica Hamiltoniana è quella delle trasformazioni canoniche. Definizione 1. Una trasformazione di coordinate y = C(x) si dice canonica se rispetto ad essa, qualunque sistema Hamiltoniano ẋ = J∇x H(x) si trasforma nel sistema Hamiltoniano ẏ = J∇y K(y), dove K(y) = H(C −1 (y)). Per caratterizzare le trasformazioni canoniche facciamo le considerazioni seguenti. Sia y = C(x) una trasformazione di coordinate qualsiasi. Se x(t) è soluzione di ẋ = J∇H(x), allora y(t) = C(x(t)) soddisfa " T # ∂C ∂C ∂C ẏ = J∇x H(x) = J ∇y H(C −1 (y)) . (55) ∂x ∂x ∂x −1 x=C (y) 4. TRASFORMAZIONI CANONICHE 13 Quindi l’effetto di una trasformazione di coordinate qualsiasi è quello di trasformare la matrice simplettica standard nella matrice (∂x C)J(∂x C)T (espressa in funzione della nuova variabile2). Osserviamo poi che " T # ∂C ∂C ∂yi ∂yl J = Jjk = ∇yi · J∇yl = {yi , yl } , ∂x ∂x ∂xj ∂xk il che in forma compatta si può scrivere come T ∂C ∂C J = {y, y}x . ∂x ∂x (56) Infine, poiché ∇x = (∂x C)T ∂y , la parentesi di Poisson di due funzioni qualsiasi F e G definite su Γ si trasforma come segue " T # ∂C ∂C {F, G}x (C −1 (y)) = ∇y F (C −1 (y)) · J ∇y G(C −1 (y)) . (57) ∂x ∂x −1 x=C (y) Proposizione 5. Le seguenti affermazioni sono equivalenti: (1) C : x 7→ y è canonica; (2) (∂x C)J(∂x C)T = J; (3) C conserva le parentesi di Poisson fondamentali, ovvero {y, y}x = J; (4) C conserva le parentesi di Poisson, nel senso che {F, G}x ◦ C −1 = {F ◦ C −1 , G ◦ C −1 }y per ogni F e G. C Dim. L’equivalenza 1)-2) si basa sulla relazione (55); l’equivalenza 2)-3) si basa sulla relazione (56); l’equivalenza 2)-4) si basa sulla relazione (57). B Un esempio particolarmente interessante e utile in pratica è quello delle trasformazioni canoniche lineari, definite da ∂C y = C(x) = Sx , =S, ∂x essendo S una matrice 2n × 2n invertibile. La condizione 2) della proposizione 5 diviene in questo caso SJST = J . (58) Vedremo nel prossimo capitolo che questa relazione definisce un gruppo di matrici che si chiama gruppo simplettico ed è un esempio di gruppo di Lie. Se la trasformazione lineare ”non mescola” le coordinate e gli impulsi allora la matrice di trasformazione S è a blocchi: A On S= , On B con A e B matrici n × n invertibili. Imponendo che S soddisfi la condizione di simpletticità (58) si ottiene la condizione ABT = In , ovvero B = (A−1 )T . Quindi le trasformazioni canoniche che non mescolano le coordinate e gli impulsi sono della forma Q = Aq , P = (A−1 )T p . 2Si noti che dalle proprietà degli jacobiani segue che " T # −1 −1 !T ∂C ∂C ∂ C −1 (y) ∂ C −1 (y) J = J . ∂x ∂x ∂y ∂y −1 x=C (y) (59) 14 1. MECCANICA HAMILTONIANA Esempio 5. Dato il sistema Hamiltoniano a n gradi di libertà definito da 1 1 H = |p|2 + q · Vq , 2 2 dove V è una matrice n × n simmetrica, esiste una trasformazione lineare che porta H nella somma di n+ Hamiltoniane di oscillatore armonico unidimensionale, n− Hamiltoniane di oscillatore iperbolico unidimensionale e n0 Hamiltoniane di particella libera unidimensionale. n+ , n− ed n0 sono rispettivamente il numero di autovalori positivi, negativi e nulli di V; n+ + n− + n0 = n (dimostrare tutto in dettaglio; in particolare si determini il ruolo degli autovalori di V). Un modo concreto di realizzare trasformazioni canoniche consiste nel realizzarle tramite flussi Hamiltoniani. Precisamente, data una funzione di Hamilton K, il flusso ΦsK ad essa associato, definito dalla (52), definisce una famiglia a un parametro di trasformazioni di Γ in sé. Definiamo la trasformazione C : x 7→ y come segue: −sDK y = C(x) = Φ−s x. K (x) = e (60) Proposizione 6. I flussi Hamiltoniani realizzano trasformazioni canoniche. C Dim. La proposizione si dimostra facendo vedere che per la trasformazione inversa della (60) vale la condizione 4) della proposizione 5. Si ha ovviamente x = C −1 (y) = Φs (y) = esDK y , e si vuole far vedere che {F, G} ◦ C −1 = esDK {F, G} = {esDK F, esDK G} = {F ◦ C −1 , G ◦ C −1 } . (61) L’identità di Jacobi (19), con H = K, si può facilmente riscrivere come DK {F, G} = {DK F, G} + {F, DK G} . Da questa relazione si dimostra, ad esempio per induzione, che n X n n−j j n G} ; F, DK DK {F, G} = {DK j j=0 moltiplicando per sn /n! e sommando su n ∈ N si ottiene la (61). B Quindi, muovendosi nello spazio delle fasi tramite flussi Hamiltoniani si lasciano le equazioni di Hamilton di un dato sistema invarianti in forma, dovendosi solamente ricalcolare l’Hamiltoniana nelle nuove coordinate. Questo fatto è di fondamentale importanza e permette di formulare in modo semplicissimo il legame tra simmetrie e costanti del moto per i sistemi Hamiltoniani. Vale il seguente Teorema 1 (Toerema di Noether). Se l’Hamiltoniana H(x) è invariante rispetto alla trasformazione canonica realizzata dal flusso di K, se cioè H(ΦsK (y)) = H(y), allora K è una costante del moto per il sistema ẋ = J∇H(x). C Dim. Si ha H(y) = H(ΦsK (y)) = H(esDK y) = esDK H(y) per ogni s. Derivando questa relazione rispetto a s e ponendo poi s = 0 si ottiene 0 = DK H = {H, K} .B Esempio 6. Nel caso dei moti centrali, definiti nell’esempio 3, H è funzione del modulo di p e del modulo di q, essendo pertanto invariante rispetto a rotazioni nello spazio delle coordinate e a rotazioni nello spazio dei momenti. Fissiamo un vettore ξ ∈ R3 e consideriamo l’Hamiltoniana K(q, p) = ξ · (q ∧ p) , 4. TRASFORMAZIONI CANONICHE 15 che rappresenta la proiezione lungo ξ del momento angolare. Le equazioni di Hamilton associate a K sono q̇ = ξ ∧ q , ṗ = ξ ∧ p , la cui soluzione al ”tempo s” si scrive Φs (Q, P ) = (esA Q, esA P ) , essendo A l’unica matrice 3 × 3 antisimmetrica tale che Ay = ξ ∧ y (vedere più avanti per dettagli su tale corrispondenza). La matrice esA descrive una rotazione attorno all’asse ξ. L’osservata invarianza per rotazioni di H implica che K è una costante del moto. Dall’arbitrarietà di ξ segue la conservazione del vettore momento angolare q ∧ p nei moti centrali. CAPITOLO 2 Cenni sui gruppi e sulle algebre di Lie 1. Gruppi: esempi Iniziamo dando la definizione astratta di gruppo (per una esposizione sintetica della teoria dei gruppi si consulti [Pro]). Definizione 2. Sia G un insieme e ◦ : G × G → G un’operazione su di esso; si dice che G è un gruppo rispetto all’operazione ◦ se i) g1 ◦ (g2 ◦ g3 ) = (g1 ◦ g2 ) ◦ g3 ∀g1 , g2 , g3 ∈ G; ii) ∃e ∈ G : g ◦ e = e ◦ g = g ∀g ∈ G; iii) ∀g ∈ G ∃g −1 ∈ G : g −1 ◦ g = g ◦ g −1 = e. A parole: G è un gruppo se è dotato di un’operazione associativa, con elemento neutro ed elemento inverso di ogni elemento. Cosı́ ad esempio Z, Q, R e C sono gruppi rispetto all’addizione (◦ = +), mentre non lo sono rispetto alla moltiplicazione, poiché lo zero non ammette inverso (lo zero è l’elemento neutro dell’addizione, l’inverso rispetto all’addizione è l’opposto). Piú in generale, tutti gli spazi vettoriali su campo reale o complesso sono gruppi rispetto all’addizione. Se l’operazione ◦ è commutativa, cioè se g1 ◦ g2 = g2 ◦ g1 per ogni coppia di elementi g1 , g2 , il gruppo G si dice abeliano, o commutativo. Gli spazi vettoriali sono gruppi abeliani. Un esempio di gruppo non abeliano è quello delle permutazioni di n elementi. L’insieme G in questo caso consiste delle n! permutazioni possibili, mentre l’operazione è la composizione tra permutazioni. Esempi fondamentali di gruppi non commutativi si ottengono considerando insiemi opportuni di matrici non singolari (invertibili). In tale caso l’operazione è l’ordinaria moltiplicazione tra matrici, l’elemento neutro è dunque la matrice identità, mentre l’inverso di un elemento, una matrice, è ovviamente la matrice inversa. Riportiamo alcuni esempi di classici gruppi di matrici (si verifichi in dettaglio per ognuno di essi che il prodotto di due matrici del gruppo è ancora una matrice del gruppo e che valgono le tre proprietà gruppali della definizione). • GL(n, R) – gruppo Generale Lineare (reale): il gruppo delle matrici reali n × n invertibili. Una matrice A ∈ GL(n, R) è individuata assegnando n2 numeri reali, cioè specificando tutti i suoi elementi. Dunque la dimensione del gruppo, ovvero il numero di parametri indipendenti che si deve fissare per determinare univocamente ciascun elemento, è n2 . Scriviamo: dim GL(n, R) = n2 . Se si impone il vincolo di determinante unitario sugli elementi di GL(n, R), si ottiene il sottogruppo SL(n, R), il gruppo Speciale Lineare (reale). Notare che la moltiplicazione matriciale conserva il vincolo. Una matrice A ∈ SL(n, R) è individuata da n2 − 1 numeri reali: dim SL(n, R) = n2 − 1. Si definiscono in modo analogo i gruppi GL(n, C) e SL(n, C) (dim = 2n2 e dim = 2n2 − 2 rispettivamente: spiegarlo). • O(n, R) ≡ O(n) – gruppo Ortogonale (reale): il gruppo delle matrici reali n × n che conservano il prodotto scalare euclideo in Rn e soddisfano pertanto la relazione RRT = In ⇔ RT R = In . 17 (62) 18 2. CENNI SUI GRUPPI E SULLE ALGEBRE DI LIE Dalla relazione precedente, che definisce il gruppo, segue che dim O(n) = n(n − 1)/2 (verificarlo calcolando il numero di relazoni indipendenti che devono soddisfare gli n vettori colonna di R e sottrarre tale numero da n2 ). Dalla (62) segue anche che det R = ±1. Nel caso in cui ci si restringa al segno positivo, si ottiene il gruppo SO(n, R) ≡ SO(n), il gruppo speciale ortogonale, o gruppo delle rotazioni in Rn (dim SO(n) = dim O(n) = n(n − 1)/2). In questo caso, oltre alla conservazione del prodotto scalare, la trasformazione associata a R conserva anche l’orientamento (riflettere sul fatto che O(3) contiene l’inversione degli assi, −I3 , che non può essere operata da alcuna rotazione della base canonica di R3 ). • U (n, C) ≡ U (n) – gruppo Unitario (complesso): il gruppo delle matrici complesse n × n che conservano il prodotto scalare hermitiano in Cn e soddisfano pertanto la relazione UU† = In ⇔ U† U = In . (63) Qui U† = (UT )∗ = (U∗ )T indica la coniugazione hermitiana (trasposizione e complessa coniugazione). Si ha dim U (n) = n2 che risulta dal seguente ragionamento. Una matrice complessa n × n è individuata da n2 numeri complessi, ovvero 2n2 numeri reali. Dalla (63) segue che le relazioni indipendenti che devono soddisfare i vettori colonna di U, sono n(n − 1)/2 (ortogonalizzazione a due a due) piú n (normalizzazione di ognuno). Il primo gruppo di relazioni consiste in equazioni complesse, dunque il numero di equazioni reali corrispondenti è doppio, cioè n(n − 1); il secondo gruppo consiste invece di equazioni reali (perché?). Dunque 2n2 −n(n−1)−n = n2 . Osserviamo che dalla (63) segue che | det U| = 1, cioè det U = eiφ . In questo caso, a differenza di quanto accade per O(n), fissando il valore del determinante il numero di parametri (reali) indipendenti diminuisce di una unità (perché non di due?): dim SU (n) = n2 − 1. • SP (2n, R) ≡ SP (2n) – gruppo Simplettico (reale): il gruppo delle matrici reali 2n × 2n che soddisfano SJST = J ⇔ ST JS = J , (64) dove J ∈ SP (2n) è la matrice simplettica standard (11). Questo è un gruppo di importanza fondamentale per la meccanica Hamiltoniana. Si ha dim SP (2n) = n(2n + 1), relazione che si ottiene con il seguente ragionamento. Se a b S= , c d ogni blocco essendo quadrato n × n, allora la condizione (64) che definisce il gruppo si traduce nelle tre condizioni (dimostrarlo) aT c = (aT c)T , bT d = (bT d)T e aT d − cT b = In . La condizione di simmetria delle due matrici aT c e bT d è espressa da n(n − 1)/2 equazioni per ognuna delle due, mentre la condizione che la matrice aT d − cT b sia uguale all’identità è espressa da n2 equazioni. In totale, la condizione (64) è espressa quindi da n(n − 1) + n2 = 2n2 − n equazioni. Sottraendo quest’ultimo numero da 4n2 (il numero degli elementi della matrice S) si ottiene dim SP (2n) = n(2n + 1). Osserviamo che la condizione (64) implica immediatamente det S = ±1. In realtà le matrici di SP (2n) hanno determinante uguale a uno. Infatti, det(S − λI2n ) = det(JT SJ − λI2n ) = det(JT SJST (ST )−1 − λI2n ) = λ2n = det((ST )−1 (I2n − λST ) = det(S − λ−1 I2n ) . (det S) Dalla relazione precedente si deduce che se λ0 è autovalore di S allora lo è anche 1/λ0 , con la stessa molteplicità algebrica (dimostrarlo). Il prodotto degli autovalori di S, cioè det S, 2. GRUPPI E ALGEBRE DI LIE 19 vale quindi uno. Per maggiori dettagli su SP (2n) e le sue connessioni con gli altri gruppi menzionati sopra consultare [Arn-MMMC] e [Ma&Ra-IMS]. Per quanto visto al capitolo precedente, Il gruppo simplettico SP (2n) gioca un ruolo fondamentale in meccanica Hamiltoniana perché è il gruppo delle trasformazioni canoniche lineari. Si è anche visto che in generale una trasformazione è canonica se e solo se ha per matrice jacobiana una matrice simplettica (dipendente da x). Dalla proprietà di chiusura di SP (2n) rispetto alla moltiplicazione tra matrici segue poi che la composizione di trasformazioni canoniche è ancora una trasformazione canonica (verificarlo). Di conseguenza anche le trasformazioni canoniche costituiscono un gruppo (perché?). Un altro esempio fondamentale di gruppo è quello delle biiezioni di un assegnato insieme S in sé, che indichiamo con B(S). L’operazione è la composizione di biiezioni, che è associativa; l’elemento neutro è la trasformazione identica idS ; dato poi un qualsiasi elemento di B(S), cioè una applicazione biiettiva di S in sé, questo ammette elemento inverso, precisamente l’applicazione inversa dell’applicazione data. Ovviamente, ci si può restringere a opportuni sottogruppi di B(S), ovvero sottoinsiemi di quest’ultimo che siano gruppi rispetto alla stessa operazione (la composizione). B(S) è l’esempio piú generale possibile di gruppo di trasformazioni, che include tutti gli esempi fatti sopra. Infatti, nel caso delle permutazioni si ha S = {1, 2, . . . , n}. D’altra parte, i gruppi di matrici possono essere visti come gruppi di trasformazioni lineari invertibili. In tale caso S = Rn oppure S = Cn . La composizione di trasformazioni lineari ha per matrice associata il prodotto delle matrici associate alle trasformazioni composte (nello stesso ordine), fatto che consente di trattare direttamente le matrici, a prescindere dal fatto che rappresentino biiezioni lineari, come abbiamo fatto sopra. Tutti i gruppi di matrici menzionati sopra sono sottogruppi di GL(n, R) o di GL(n, C). Il caso che maggiormente ci interesserà nel seguito è quello di gruppo di diffeomorfismi di una varietà differenziabile S = M in sé. Tale gruppo si indica con Diff(M) ed è ovviamente un sottogruppo di B(M). Notare che, se K = R oppure K = C, allora GL(n, K) ⊂ Diff(Kn ) (modulo l’identificazione del gruppo di matrici GL(n, K) con il gruppo di trasformazioni lineari invertibili di Kn in sé). 2. Gruppi e algebre di Lie Definizione 3. Un gruppo di Lie di dimensione dim G = n è un gruppo G che abbia struttura di varietà differenziabile n-dimensionale compatibile con la struttura di gruppo. In pratica ogni elemento g ∈ G è individuato assegnando n numeri reali, ovvero deve esistere una applicazione differenziabile µ 7→ g(µ) ∈ G, compatibile con l’operazione ◦ che definisce il gruppo, definita su G ⊆ Rn , detta varietà gruppale, o spazio dei parametri. Quindi, prima di tutto, deve essere soddisfatta la condizione di chiusura, ovvero per ogni coppia di parametri (n-uple di parametri) µ, ν deve esistere un solo parametro ω tale che g(µ) ◦ g(ν) = g(ω). Essendo poi ◦ associativa, la relazione g(µ) ◦ (g(ν) ◦ g(ω)) = (g(µ) ◦ g(ν)) ◦ g(ω) deve valere per ogni terna µ, ν, ω. L’esistenza dell’elemento neutro richiede che esista un particolare parametro µe , al quale corrisponda l’unità e = g(µe ): g(µ) ◦ g(µe ) = g(µe ) ◦ g(µ) = g(µ) deve valere per ogni µ. Infine, per ogni µ deve esistere un µ̃ tale che g(µ) ◦ g(µ̃) = g(µ̃) ◦ g(µ) = g(µe ). Senza perdita di generalità si può porre µe = 0. Facciamo notare che la condizione di chiusura equivale a postulare l’esistenza di una applicazione f : G × G → G, ω = f (µ, ν), sulla quale si trasferiscono le tre condizioni gruppali. Precisamente, si deve avere f (µ, f (ν, ω)) = f (f (µ, ν), ω) (per ogni µ, ν, ω) per l’associatività, f (µ, 0) = f (0, µ) = µ (per ogni µ) per l’esistenza del neutro e f (µ, µ̃) = f (µ̃, µ) = 0 (per ogni µ, µ̃) per l’esistenza dell’inverso di ogni elemento. Ovviamente queste condizioni impongono delle condizioni sulla f . Lo studio dei gruppi di Lie (e delle algebre associate, vedi sotto) viene in questo 20 2. CENNI SUI GRUPPI E SULLE ALGEBRE DI LIE modo ricondotto al problema della caratterizzazione dell’applicazione f . Per approfondimenti si rimanda a [Mor98] e [Gr-GAL]. Esempio 7. I gruppi di matrici (o trasformazioni lineari) menzionati al paragrafo precedente sono tutti gruppi di Lie di dimensione finita (che è stata calcolata determinando il numero di parametri indipendenti che definiscono il generico elemento del gruppo). Esempio 8. Il gruppo Diff(M) è un gruppo di Lie infinito-dimensionale. È tuttavia sempre possibile ridursi ad un sottogruppo D-dimensionale considerando famiglie a D parametri di diffeomorfismi. Per ogni famiglia e per ogni D devono essere soddisfatte le condizioni di compatibilità menzionate sopra. La definizione astratta di algebra di Lie, indipendente in linea di principio da quella di gruppo di Lie, è la seguente. Definizione 4. Un’algebra di Lie è uno spazio vettoriale L munito di prodotto [ , ] : L × L → L antisimmetrico, bi-lineare e che soddisfa l’identità di Jacobi: [u, [v, w]] + [w, [u, v]] + [v, [w, u]] ∀u, v, w ∈ L . Il prodotto [ , ] prende il nome di parentesi, o prodotto, di Lie, o anche di commutatore. Un riferimento completo sulle algebre di Lie è [Sam]. Esempio 9. Lo spazio vettoriale R3 munito del prodotto [x, y] = x ∧ y (l’ordinario prodotto vettoriale) è un’algebra di Lie (dimostrare l’identità di Jacobi). Esempio 10. Lo spazio Vec(M) dei campi vettoriali su una varietà M con prodotto di Lie definito dal commutatore tra campi vettoriali (43) è un’algebra di Lie (grazie alle proprietà (47)-(49)). Esempio 11. Un altro esempio di algebra di Lie è l’algebra di Lie VecH (Γ) dei campi vettoriali Hamiltoniani su Γ. Dalla relazione (53) risulta che VecH (Γ) è una sotto-algebra di Lie di Vec(Γ). In realtà, la relazione (53) trasferisce la struttura di algebra di Lie da VecH (Γ) a F(Γ), l’algebra delle funzioni definite su Γ con prodotto definito dalla parentesi di Poisson. Il legame profondo che esiste tra gruppi e algebre di Lie è messo in luce nella seguente proposizione di carattere generale. Proposizione 7. Sia G un gruppo di Lie. Lo spazio vettoriale g = Te G, cioè lo spazio tangente a G in e, ha struttura naturale di algebra di Lie e si chiama algebra di Lie associata al gruppo G. Si noti che g = Te G è ben definito grazie alla struttura di varietà di G. Non dimostriamo la proposizione, rimandando a [Mor98] e [Gr-GAL]. Ci soffermiamo invece sul seguente caso particolare. Proposizione 8. Te Diff(M) = Vec(M), cioè lo spazio tangente a Diff(M) in e = idM è Vec(M), l’algebra di Lie dei campi vettoriali su M. C Un vettore tangente a Diff(M) in e è definito dalla derivata in t = 0 di una curva Φt ∈ Diff(M) tale che Φ0 = idM . Fissato x ∈ M, ϕ(t) = Φt (x) descrive una curva su M e si ha d t Φ (x) = ϕ̇(0) ≡ V (x) ∈ Tx M . dt t=0 Al variare di x ∈ M si ottiene un campo vettoriale V su M, cioè un elemento di Vec(M). B Alternativamente, assegnando V si può definire Φt = et£V , da cui segue che £V ∈ Te Diff(M). Le derivate di Lie £V associate ai campi vettoriali su M formano un’algebra di Lie con prodotto dato dal commutatore ordinario tra derivate. La corrispondenza V → £V è un isomorfismo tra algebre di 2. GRUPPI E ALGEBRE DI LIE 21 Lie, cioè un’applicazione biunivoca che conserva sia la struttura di spazio vettoriale che l’operazione di prodotto con le sue proprietà (verificarlo). Il sotto caso delle trasformazioni lineari è particolarmente interessante. In tale caso si ha Φt (x) = T(t)x, per ogni fissato x ∈ Kn (K = R oppure K = C). In questo modo T(t) descrive una curva nel gruppo delle trasformazioni lineari di Kn in sé (che può essere GL o un suo sottogruppo). La condizione di passaggio per l’identità a t = 0 si scrive T(0) = In . Risulta d T(t)x = Ṫ(0)x . dt t=0 Quindi l’algebra di Lie associata al gruppo considerato di trasformazioni lineari è l’algebra dei campi vettoriali lineari su Kn con matrice associata A ≡ Ṫ(0). Proposizione 9. L’algebra di Lie associata ad un gruppo di matrici ha per prodotto l’ordinario commutatore tra matrici. C Dim. Nel caso particolare delle trasformazioni lineari invertibili di Kn in sé (K = R oppure K = C), il commutatore di due campi vettoriali U = Ax e V = Bx vale [Ax, Bx] = (BA − AB)x ≡ [B, A]x .B Da quanto visto, tutti i gruppi di matrici sono gruppi di Lie e il loro spazio tangente all’identità è un’algebra di Lie che ha per prodotto il commutatore. Dalla definizione geometrica, l’algebra e il gruppo hanno la stessa dimensione. Elenchiamo di seguito e descriviamo brevemente le classiche algebre di matrici. Osserviamo preventivamente che, per quanto visto sopra, una curva in gruppo di matrici è definita ad esempio dal flusso etA del campo vettoriale Ax. La derivata rispetto a t di tale flusso in t = 0 è A, un elemento dell’algebra. Per definizione etA è una matrice e vale det(etA ) = ettr(A) . Quindi ogni volta che si impone la condizione aggiuntiva di determinante unitario sul gruppo di matrici si impone di conseguenza la condizione di traccia nulla sulle matrici dell’algebra associata. • gl(n, R) = TIn GL(n, R) – algebra generale lineare (reale): l’algebra delle matrici reali n × n (senza alcuna restrizione, con determinante qualsiasi). Ovviamente dim gl(n, R) = n2 . Se ci si restringe al gruppo speciale SL(n, R), allora la sua algebra è sl(n, R), l’algebra speciale lineare delle matrici reali n × n a traccia nulla, di dimensione n2 − 1. Notare che il commutatore di due matrici ha sempre traccia nulla. • o(n) = TIn O(n) – algebra ortogonale reale: l’algebra delle matrici reali n × n antisimmetriche. Infatti, sia t 7→ R(t) una curva su O(n), tale che R(0) = In ; vale R(t)RT (t) = In per ogni t. Derivando rispetto a t quest’ultima relazione e ponendo poi t = 0 si ha che A ≡ Ṙ(0) soddisfa A = −AT , cioè A è antisimmetrica. Si osservi che le matrici antisimmetriche hanno traccia nulla, il che implica o(n) = TIn O(n) = TIn SO(n). La dimensione di o(n) è pari al numero di elementi indipendenti che determinano una matrice antisimmetrica, ovvero n(n − 1)/2. • u(n) = TIn U (n) – algebra unitaria complessa: l’algebra delle matrici complesse n × n antihermitiane. Infatti, sia t 7→ U(t) una curva su U (n), tale che U(0) = In ; vale U(t)U† (t) = In per ogni t. Derivando rispetto a t quest’ultima relazione e ponendo poi t = 0 si ha che A ≡ U̇(0) soddisfa A = −A† , cioè A è antihermitiana (gli elementi di matrice soddisfano Aij = −A∗ji e, in particolare, quelli sulla diagonale principale sono immaginari puri). Una matrice antihermitiana n × n è determinata da n2 numeri reali, quindi dim u(n) = n2 . Se ci si restringe al gruppo speciale unitario SU (n), imponendo la condizione di determinante unitario, si ottiene la sottoalgebra speciale unitaria su(n) = TIn SU (n), ovvero l’algebra delle matrici complesse n × n antihermitiane a traccia nulla, di dimensione n2 − 1. 22 2. CENNI SUI GRUPPI E SULLE ALGEBRE DI LIE • sp(2n) – algebra simplettica reale: l’algebra delle matrici reali A 2n × 2n della forma A = JB, essendo J la matrice simplettica standard e B una qualsiasi matrice 2n × 2n simmetrica (BT = B). Infatti, sia t 7→ S(t) una curva su SP (2n) tale che S(0) = I2n ; vale SJST = J per ogni t. Derivando quest’ultima relazione rispetto a t e ponendo poi t = 0 si ottiene che A ≡ Ṡ(0) deve soddisfare la relazione AJ + JAT = O2n ⇔ JA + AT J = O2n , (65) che caratterizza l’algebra simplettica. Definendo poi B ≡ −JA, si vede immediatamente che la (65) implica BT = B. Segue quindi che la dimensione di sp(2n) è data dal numero di elementi indipendenti che definiscono una matrice simmetrica 2n × 2n, che è n(2n + 1). Le matrici dell’algebra simplettica, che soddisfano la condizione (65), sono anche dette hamiltoniane. Si dimostra (vedi [Fa&Ma-MA]) che un campo vettoriale V è Hamiltoniano (cioè è un gradiente simplettico) se e solo se il suo jacobiano è Hamiltoniano (cioè è una matrice dell’algebra simplettica). In particolare, un campo vettoriale Hamiltoniano X H linearizzato attorno a una posizione di equilibrio x0 è un campo vettoriale lineare con matrice associata Hamiltoniana della forma J∂ 2 H(x0 ), essendo ∂ 2 H la matrice hessiana di H. 3. Coefficienti di struttura Poiché un’algebra di Lie L è uno spazio vettoriale, esiste in essa una base {u(i) }i tale che ogni elemento di u ∈ L si può scrivere in modo unico come combinazione lineare degli elementi di base: u = λi u(i) (somma su indici ripetuti). In particolare λi u(i) = 0 implica λi = 0 per ogni i. Ora, la condizione di chiusura di L rispetto al prodotto di Lie [ , ] implica che, per ogni coppia di elementi di base u(i) e u(j) , [u(i) , u(j) ] ∈ L. Ma quindi tale commutatore deve potersi esprimere in modo unico come combinazione lineare degli elementi di base, ovvero (k) [u(i) , u(j) ] = cij ku (66) I coefficienti cij k prendono il nome di coefficienti di struttura dell’algebra di Lie L. Segue subito dall’antisimmetria del commutatore che i coefficienti di struttura cambiano segno sotto scambio degli indici alti ij cji k = −ck . (67) L’identità di Jacobi implica invece la seguente identità fondamentale: kp ij jk jp ki cip q cp + cq cp + cq cp = 0 , (68) valida per ogni q = 1, . . . , D. Per dimostrarla basta osservare che (q) (p) jk (i) (p) ip jk [u(i) , [u(j) , u(k) ]] = [u(i) , cjk u , p u ] = cp [u , u ] = cq cp e la (68) segue permutando ciclicamente gli indici, sommando e imponendo che la somma valga zero (perché?). Osservazione 4. In generale L viene considerato spazio vettoriale su campo reale. In questo modo D è realmente la dimensione ereditata dal gruppo di cui L è spazio tangente all’unità e, di conseguenza, i coefficienti di struttura sono tutti reali. Vedi esempi sotto. Un’algebra di Lie L è quindi completamente specificata dai propri coefficienti di struttura. 3. COEFFICIENTI DI STRUTTURA 23 Esempio 12. Consideriamo o(3) = so(3), l’algebra di Lie delle matrici antisimmetriche reali. Se A ∈ o(3) allora 0 −a3 a2 0 −a1 = a1 L1 + a2 L2 + a3 L3 , A = a3 −a2 a1 0 dove le tre matrici di base Li ∈ o(3) (i = 1, 2, 3) sono definite come segue: 0 0 0 0 0 1 0 −1 0 L1 = 0 0 −1 , L2 = 0 0 0 , L3 = 1 0 0 . (69) 0 1 0 −1 0 0 0 0 0 Si verificano con calcolo diretto (farlo) le relazioni di commutazione [L1 , L2 ] = L3 , [L2 , L3 ] = L1 , [L3 , L1 ] = L2 , ovvero, in forma compatta [Li , Lj ] = εijk Lk , (70) dove il simbolo di Levi-Civita a tre indici εijk vale 1 per permutazioni di ordine pari (numero pari di scambi di coppia) degli indici, vale −1 per permutazioni di ordine dispari (numero dispari di scambi di coppia) e vale 0 se almeno due indici sono uguali. In particolare εijk non cambia segno sotto permutazioni cicliche di {i, j, k} e vale 1 se {i, j, k} è una permutazione ciclica di {1, 2, 3}. I coefficienti di struttura di o(3) sono quindi dati dai simboli di Levi-Civita: cij k = εijk . La verifica della proprietà di antisimmetria (67) è ovvia, mentre per l’identità di Jacobi (68) è necessario fare uso della contrazione εijk εilm = δjl δkm − δjm δkl , essendo δij il simbolo di Kronecker, che vale 1 se i = j e 0 se i 6= j. Usando tale identità si verifica (farlo) che jk jp ki kp ij cip q cp + cq cp + cq cp = εipq εjkp + εjpq εkip + εkpq εijp = 0 . Facciamo notare che, per come lo abbiamo scritto, un elemento A ∈ o(3) è bi-univocamente determinato da un vettore a = ai ei , ei essendo l’i-esimo vettore della base canonica di R3 . Date ora due matrici A = ai Li e B = bj Lj in o(3), risulta: [A, B] = ai bj [Li , Lj ] = εijk ai bj Lk = (a ∧ b)k Lk , essendo a ∧ b = ai bj ei ∧ ej = εijk ai bj ek . Quindi il commutatore di A e B ha per vettore associato il prodotto vettoriale dei corrispondenti vettori associati; di conseguenza la biiezione a 7→ A rappresenta un isomorfismo tra l’algebra di Lie o(3), che ha per prodotto il commutatore tra matrici, e l’algebra di Lie R3 che ha per prodotto l’ordinario vettoriale ∧. I coefficienti di struttura delle due algebre sono identici: cij k = εijk . Esempio 13. su(2) è l’algebra delle matrici complesse 2×2 antihermitiane a traccia nulla. Quindi A ∈ su(2) è della forma 1 ıa3 a1 + ıa2 A= = a1 s1 + a2 s2 + a3 s3 , −ıa3 2 −a1 + ıa2 dove ı è l’unità immaginaria e le tre matrici di base si ∈ su(2) sono definite come segue: 1 1 0 ı 1 0 1 ı 0 s1 = , s2 = , s3 = . ı 0 2 −1 0 2 2 0 −ı Si verifica facilmente che [si , sj ] = εijk sk ; quindi anche in questo caso i coefficienti di struttura sono 3 cij k = εijk , gli stessi di o(3) e di R . Come visto per o(3), anche qui si ha [A, B] = (a ∧ b)k sk per ogni coppia di matrici A, B ∈ su(2). Le algebre di Lie o(3), R3 e su(2) risultano isomorfe. 24 2. CENNI SUI GRUPPI E SULLE ALGEBRE DI LIE Esempio 14. sp(2) è l’algebra simplettica di dimensione 3, ovvero l’algebra delle matrici hamiltoniane 2 × 2 che si scrivono come prodotto della simplettica standard 2 × 2 per una matrice simmetrica 2 × 2. Se A ∈ sp(2) è della forma (lo so dimostri) a3 a1 A= = a1 h1 + a2 h2 + a3 h3 , a2 −a3 dove le matrici di base hi ∈ sp(2) sono definite come segue: 0 1 0 0 1 0 h1 = , h2 = , h3 = . 0 0 1 0 0 −1 Si verifica che [h1 , h2 ] = h3 , [h2 , h3 ] = 2h2 e [h3 , h1 ] = 2h1 . I coefficienti di struttura di sp(2) sono 21 23 32 31 13 pertanto i seguenti: c12 3 = −c3 = 1, c2 = −c2 = 2, c1 = −c1 = 2 e tutti gli altri nulli (dimostrare l’identità di Jacobi (68)). CAPITOLO 3 Sistemi Hamiltoniani generalizzati 1. Strutture di Poisson Si è visto che i sistemi Hamiltoniani sono quei sistemi di EDO su varietà di dimensione pari (lo spazio delle fasi Γ) i cui campi vettoriali sono gradienti simplettici di funzioni definite su Γ. I campi vettoriali Hamiltoniani sono una sottoalgebra di Lie dell’algebra di Lie dei campi vettoriali generali. La struttura di algebra di Lie viene trasferita dai campi vettoriali Hamiltoniani alle funzioni di Hamilton dalla relazione [X H , X K ] = X {K,H} , che definisce un ismorfismo tra algebre di Lie. Appaiono evidenti due cose. Prima di tutto ci si rende conto del fatto che in buona parte degli sviluppi formali svolti la dimensione dello spazio delle fasi e la condizione di non degenerazione della parentesi di Poisson non intervengono affatto. Inoltre, una volta compresa a fondo la definizione di sistema Hamiltoniano, risulta chiaro il modo in cui si può cercare di estenderla: si possono cercare sottoalgebre di Lie dell’algebra dei campi vettoriali che siano il piú ”estese” possibile. Questioni di eleganza matematica a parte, la necessità di una tale generalizzazione è motivata dall’esigenza di riuscire a trattare in un contesto ”Hamiltoniano” di qualche tipo alcuni sistemi fisici fondamentali quali il corpo rigido, il fluido ideale, l’equazione di Schrödinger, le equazioni di Maxwell, ecc.. Ovviamente, a tale scopo, il formalismo deve essere ulteriormente esteso al caso dei sistemi a infiniti gradi di libertà, cioè quei sistemi il cui stato è individuato ad ogni istante di tempo t da un ”campo”, cioè, in generale, da una n-upla di funzioni definite in qualche spazio finito-dimensionale. Come vedremo, i sistemi Hamiltoniani fanno parte di una classe piú ampia di sistemi dinamici: i sistemi di Poisson (o sistemi Hamiltoniani generalizzati). Allo scopo di motivare la definizione di questi ultimi, procediamo in modo non assiomatico. Consideriamo prima di tutto il caso dei sistemi finito-dimensionali. L’idea che sta alla base della definizione dei sistemi di Poisson come generalizzazione dei sistemi Hamiltoniani è la seguente. I sistemi dinamici di interesse fisico che vogliamo descrivere sono descritti da equazioni differenziali della forma u̇ = X H (u) , (71) dove u(t) appartiene a qualche varietà n-dimensionale M (e quindi localmente ad un sottoinsieme di Rn ). Abbiamo indicato con X H il campo vettoriale della (71) perché la prima richiesta che facciamo è che il sistema ammetta un integrale primo H(u) che giochi il ruolo di Hamiltoniana (e tipicamente ammetta interpretazione fisica di energia totale del sistema). La legge di conservazione di H in forma differenziale si legge (£X H H)(u) = ∇u H(u) · X H (u) = 0 , (72) cioè X H è ortogonale al gradiente di H, ovvero tangente alla varietà {u : H(u) = E} per ogni E fissato. Dunque il campo vettoriale X H , che definisce la dinamica del sistema, deve dipendere da H. Un’ipotesi semplice (e certamente non l’unica possibile) è che tale dipendenza sia locale e lineare nel gradiente di H, ovvero che esista una matrice J (u) tale che X H (u) = J (u)∇u H(u) . (73) I campi vettoriali Hamiltoniani sono di questa forma, con J = J (ed n pari). Ora, la condizione (72) è garantita se J (u) è una matrice antisimmetrica per ogni u fissato. Il passo successivo consiste nel 25 26 3. SISTEMI HAMILTONIANI GENERALIZZATI definire una ”parentesi” tra due funzioni qualsiasi F e G in analogia con quanto fatto per i sistemi Hamiltoniani; poniamo def {F, G} = ∇F · J ∇G . (74) Tale parentesi risulta antisimmetrica (perché lo è J ), bilineare e soddisfa la regola di Leibniz (le ultime due proprietà sono ereditate dal gradiente). Prendendo F = ui e G = uj si ottengono le parentesi fondamentali {ui , uj } = Jij (u), che scriviamo in forma compatta {u, u} = J (u) . (75) Affinché (74) possa essere considerata una parentesi di Poisson, si deve richiedere che soddisfi l’identità di Jacobi, cosa che ovviamente impone un vincolo sulla dipendenza di J da u. Vale il seguente risultato. Proposizione 10. Condizione necessaria e sufficiente affinché la parentesi (74) soddisfi l’identità di Jacobi è che la matrice J (u) soddisfi, per ogni i, j, k, la relazione Jil ∂l Jjk + Jjl ∂l Jki + Jkl ∂l Jij = 0 . (76) C Dim. La condizione è necessaria: se vale l’identitaà di Jacobi {F, {G, H}} + {G, {H, F }} + {H, {F, G}} = 0 per ogni terna di funzioni F, G, H, allora, prendendo F = ui , G = uj e H = uk e sfruttando la (75) si ottiene subito la (76). Viceversa, supponiamo valga la (76). Si ha (vedi dimostrazione della proposizione 1, capitolo 1): {F, {G, H}} = ∇F · J (∂ 2 G)J ∇H − ∇F · J (∂ 2 H)J ∇G + (Jij ∂j Jkl )(∂i F )(∂k G)(∂l H) ; {G, {H, F }} = ∇G · J (∂ 2 H)J ∇F − ∇G · J (∂ 2 F )J ∇H + (Jij ∂j Jkl )(∂i G)(∂k H)(∂l F ) ; {H, {F, G}} = ∇H · J (∂ 2 F )J ∇G − ∇H · J (∂ 2 G)J ∇F + (Jij ∂j Jkl )(∂i H)(∂k F )(∂l G) . Sommando i risultati, permutando ciclicamente gli indici i, k, l e usando la (76) si ottiene zero, indipendentemente da F, G, H, ovvero l’identità di Jacobi. B Il significato della relazione (76) è preciso: essa esprime la condizione che lo spazio dei campi vettoriali su M della forma X H = J ∇H sia una sottoalgebra di Lie dell’algebra di Lie di ” tutti” i campi vettoriali su M. Vale infatti la seguente Proposizione 11. Condizione necessaria e sufficiente affincé per ogni coppia di funzioni H e K si abbia [X H , X K ] = [J ∇H, J ∇K] = J ∇{K, H} = X {K,H} (77) è che valga la relazione (76). C Dim. Scrivendo esplicitamente la componente k del commutatore dei campi X H e X K , lavorando sugli indici e tenendo presente l’antisimmetria di J si ottiene: [X H , X K ]k = J ∇H · ∇(J ∇K)k − J ∇K · ∇(J ∇H)k = = (∂j H)(∂i K)(−Jjl ∂l Jki − Jil ∂l Jjk ) + + Jkl [(∂li2 K)Jij ∂j H + (∂i K)Jij ∂lj2 H] = = −(∂j H)(∂i K)(Jil ∂l Jjk + Jjl ∂l Jki + Jkl ∂l Jij ) + + Jkl ∂l [(∂i K)Jij ∂j H] . Si ottiene quindi [X H , X K ]k − (X {K,H} )k = −(∂j H)(∂i K)(Jil ∂l Jjk + Jjl ∂l Jki + Jkl ∂l Jij ) da cui segue la tesi immediatamente. B (78) 1. STRUTTURE DI POISSON 27 La condizione di sottoalgebra (77), equivalente alla condizione (76) e quindi equivalente alla condizione di validità dell’identità di Jacobi, stabilisce un isomorfismo tra algebre di Lie, precisamente tra l’algebra di Lie dei campi della forma J ∇F (il cui prodotto di Lie è il commutatore di campi) e l’algebra di Lie delle funzioni definite su M (il cui prodotto di Lie è la parentesi di Poisson (74)). Abbiamo dunque ottenuto una estensione dell’algebra di Lie dei campi vettoriali Hamiltoniani e, di conseguenza, dell’algebra di Lie delle funzioni di Hamilton. L’essenza del nostro ragionamento è stata quella di partire dai campi vettoriali, sostituire alla matrice simplettica standard una matrice antisimmetrica J dipendente dal punto u ∈ M. Abbiamo quindi definito in (74) una parentesi { , } in stretta analogia con la definizione standard di parentesi di Poisson, e abbiamo trovato che tale parentesi soddisfa l’identità di Jacobi se e solo se J soddisfa la relazione (76). Le condizioni di antisimmetria, di bilinearità e di Leibniz della parentesi introdotta sono garantite per definizione. Non abbiamo invece imposto alcuna condizione sulla dimensione di M e non abbiamo richiesto alcuna condizione di non degenerazione (torneremo dopo su questo punto). Viene ora spontaneo chiedersi se la parentesi (74), con J antisimmetrica e soddisfacente la (76), sia il più generale prodotto di Lie (antisimmetrico, bilineare e soddisfacente l’identità di Jacobi) di tipo Leibniz (che sia cioè una derivazione) definibile sullo spazio vettoriale F(M) delle funzioni definite su M. La risposta (affermativa) a tale domanda è contenuta nella proposizione che segue. Proposizione 12. Sia { , } una parentesi sullo spazio vettoriale F(M) delle funzioni definite su M. Se { , } è antisimmetrica, (bi-)lineare e soddisfa la regola di Leibniz allora è della forma (74), def con Jij (u) = {ui , uj }; se si richiede inoltre che la parentesi soddisfi anche l’identità di Jacobi, allora Jij deve soddisfare la relazione (76). C Dim. Osserviamo preliminarmente che, dalla regola di Leibniz e dalla linearità segue che, se F è una qualsiasi funzione e c una qualsiasi costante, allora {F, c} = 0. Infatti si ha {F, c} = c{F, 1}+{F, c}, da cui segue per linearità c{F, 1} = {F, c} = 0. Dall’antisimmetria segue poi che {c, F } = 0. Dimostriamo la proposizione spezzandola in passi successivi. (1) Per ogni a1 reale, per ogni k1 ≥ 0 intero e per ogni funzione F (u), vale {F, (u1 − a1 )k1 } = {F, u1 }k1 (u1 − a1 )k1 −1 = {F, u1 }∂1 (u1 − a1 )k1 , che si dimostra per induzione usando la regola di Leibniz e la premessa. (2) Dalla relazione precedente, sempre sfruttando la regola di Leibniz si dimostra la relazione {F, (u1 − a1 )k1 · · · (un − an )kn } = {F, uj }∂j [(u1 − a1 )k1 · · · (un − an )kn ] . (3) Una qualsiasi funzione G(u) sviluppata in serie di Taylor di centro a si esprime come segue X G(u) = gq (u1 − a1 )q1 · · · (un − an )qn . q di conseguenza, per linearità e dalla relazione del punto precedente segue {F, G} = {F, uj }∂j G . (4) Dalla antisimmetria della parentesi e dalla relazione precedente segue che {F, uj } = −{uj , F } = −{uj , ui }∂i F = (∂i F ){ui , uj } , e quindi {F, G} = (∂i F ){ui , uj }(∂j G) , che è della forma (74) se si definisce Jij (u) = {ui , uj }. Se la parentesi deve soddisfare l’identità di Jacobi (nel qual caso F(M) è un’algebra di Lie) allora, per la proposizione 10 (condizione necessaria) la matrice J deve soddisfare la relazione (76). B In conclusione, ogni parentesi di tipo Leibniz che renda F(M) un’algebra di Lie è necessariamente della forma (74), con matrice J che soddisfa la condizione (76), equivalente alla identità di Jacobi. Ciò motiva la seguente definizione. 28 3. SISTEMI HAMILTONIANI GENERALIZZATI Definizione 5. Sia P una varietà e F(P) lo spazio vettoriale delle funzioni definite su P. (1) Una parentesi { , } : F(P) × F(P) → F(P) antisimmetrica, bilineare, che soddisfi l’identità di Jacobi e la regola di Leibniz è detta parentesi di Poisson su P. (2) La coppia (P, { , }) ≡ P{,} è detta varietà di Poisson (o si dice che su P è assegnata una struttura di Poisson). (3) La coppia (F(P), { , }) ≡ F{,} (P) è detta algebra di Poisson (è un’algebra di Lie con prodotto che soddisfa la regola di Leibniz). (4) L’operatore (o tensore) J (u) = {u, u} che definisce la parentesi di Poisson è detto operatore (o tensore) di Poisson. (5) Ad ogni funzione Hamiltoniana H ∈ F(P) è associato un campo vettoriale Hamiltoniano X H (u) = {u, H} = J (u)∇H(u) ed un corrispondente sistema Hamiltoniano u̇ = X H (u). La derivata rispetto al tempo di ogni funzione F ∈ F(P) lungo le soluzioni del sistema Hamiltoniano u̇ = X H (u) è esprimibile come def Ḟ = {F, H} = £X H F = DH F , (79) in totale analogia con il caso Hamiltoniano standard. Facciamo notare che non si è fatta richiesta di non degenerazione della parentesi di Poisson. Dunque, in generale, possono esistere funzioni di un’algebra di Poisson non banali (cioè non identicamente costanti) che hanno parentesi di Poisson nulla o, come si dice, sono ”in involuzione”, o ”commutano” con ogni altra funzione dell’agebra. Definizione 6. Data un’algebra di Poisson F{,} (P), una funzione C dell’algebra in involuzione con ogni altra (tale cioè che {C, F } = 0 per ogni F ∈ F{,} (P)) è detta funzione, o invariante, di Casimir dell’algebra data. In generale, data un’algebra di Lie L, l’insieme degli elementi c ∈ L tali che [c, u] = 0 per ogni u ∈ L si dice centro dell’algebra di Lie L. Quindi il centro di un’algebra di Poisson (che è un’algebra di Lie di tipo Leibniz) è l’insieme dei suoi invarianti di Casimir. La denominazione ”invarianti” di Casimir è dovuta al fatto che essi sono integrali primi di qualunque sistema Hamiltoniano definito su F{,} (P): Ċ = {C, H} = 0 per ogni H ∈ F{,} (P). Data un’algebra di Poisson F{,} (P), con tensore di Poisson definito in (75), si ha {F, C} = 0 ∀F ∈ F{,} (P) ⇔ J (u)∇C(u) = 0 , che viene dalla non degenerazione del prodotto scalare. Quindi gli invarianti di Casimir di un’algebra di Poisson sono quelle funzioni C(u) tali che ∇C(u) ∈ ker J (u). 2. Trasformazioni di coordinate Un’algebra di Poisson F{,} (P) è data assegnando una parentesi di Poisson { , } su F(P), o equivalentemente assegnando un tensore di Poisson J che, fissato un sistema di coordinate, ha l’espressione (75) e soddisfa la relazione (76). Si intuisce che tutto il formalismo sviluppato deve risultare indipendente dal sistema di coordinate scelto, nel senso che, sotto trasformazioni di coordinate, una parentesi di Poisson { , } e il suo associato tensore J si trasformano in una parentesi {g , } ed in un associato e tensore J che sono ancora, rispettivamente, una parentesi di Poisson ed il suo associato tensore. e deve soddisfare la relazione (76). Verifichiamo In particolare, nel nuovo sistema di coordinate, J quanto detto in dettaglio. Sia v = Φ(u) una trasformazione (locale) di coordinate e sia u = Ψ(v) la sua inversa: Ψ = Φ−1 . e Indicheremo con un ”cappello”bla composizione con Ψ: Fb(v) = F (Ψ(v)), G(v) = G(Ψ(v)), ecc.. 2. TRASFORMAZIONI DI COORDINATE 29 Si ha b ∂F\∂G ∂ Fb ∂Φ\ ∂Φl ∂ G k Jij = Jij = ∂ui ∂uj ∂vk ∂ui ∂uj ∂vl !T −1 −1 b ∂ Fb ∂Ψ ∂Ψ b ∂G = = J ∂vk ∂v ∂v ∂vl \ {F, G} = kl b ∂ Fb # ∂ G b #, Jkl = {Fb, G} = ∂vk ∂vl (80) avendo definito def J # (v) = ∂Ψ ∂v −1 J (Ψ(v)) ∂Ψ ∂v −1 !T . (81) La (80) significa che la parentesi di Poisson di due funzioni F e G calcolata nelle nuove variabili si b trasforma nella parentesi delle stesse funzioni (calcolate nelle nuove variabili, indicate con Fb e G) # associata al tensore J (81). La nuova parentesi, indicata con { , }# , è antisimmetrica, bilineare e soddisfa la regola di Leibniz (perché?). Per quanto riguarda l’identità di Jacobi, sfruttando la (80) si ha 0 = {F,\ {G, H}} + {G,\ {H, F }} + {H,\ {F, G}} = \ \ \ b {H, b {F, = {Fb, {G, H}}# + {G, F }}# + {H, G}}# = b H} b # }# + {G, b {H, b Fb}# }# + {H, b {Fb, G} b # }# , = {Fb, {G, (82) che vale per ogni terna di funzioni F , G e H. Questo mostra che la parentesi { , }# soddisfa l’identità di Jacobi. La proposizione 10 assicura poi che il nuovo tensore di Poisson J # definito in (81) soddisfa la relazione (76). Abbiamo quindi mostrato esplicitamente che una varietà di Poisson P{,} è tale indipendentemente dal sistema di coordinate scelto. Osservazione 5. Si noti che se il tensore di Poisson J è una matrice antisimmetrica costante, cioè non dipende dalla ”posizione” u, la condizione (76) è automaticamente soddisfatta. Vale la seguente interessante proposizione, che è un caso particolare del teorema di Darboux. Proposizione 13. Sia J un tensore di Poisson n × n costante e sia r = dim ker J ; allora esiste una trasformazione lineare di coordinate che porta J nella forma standard J2k O2k,r st J = , (83) Or,2k Or dove n = 2k + r, J2k è la matrice simplettica standard 2k × 2k, mentre i rimanenti blocchi sono tutti nulli con ovvia notazione. C Dim. J è una matrice reale n × n antisimmetrica e quindi esiste una base ortonormale di Cn di autovettori di J . Gli autovalori di J sono immaginari puri e, tra questi, ce ne sono esattamente r nulli (ovvero 0 è autovalore di J con molteplicità algebrica e geometrica pari a r = dim ker J ). Essendo J reale, si può scegliere in ker J una base ortonormale reale di vettori c1 , . . . , cr . Vi sono poi 2k = n − r autovettori complessi ortonormali aj ± ıbj , tali che J aj = −λj bj J (aj ± ıbj ) = ±ıλj (aj ± ıbj ) ⇔ , J bj = λj aj con λj > 0, j = 1, . . . , k. I 2k vettori a1 , . . . , ak , b1 , . . . , bk possono essere scelti mutuamente ortonormali (lo sono di default se i numeri positivi λ1 , . . . , λk sono distinti); essi sono inoltre 30 3. SISTEMI HAMILTONIANI GENERALIZZATI normali a ker J . Si consideri ora la matrice (n × n) A tale che 1 1 1 1 T A = √ a1 , . . . , √ ak , √ b1 , . . . , √ bk , c1 , . . . , cr ; λk λk λ1 λ1 si verifica facilmente che vale la relazione AJ AT = J st . La tesi segue quindi definendo la trasformazione lineare di coordinate u 7→ v tramite la matrice A, precisamente v = Au. B Il teorema di Darboux menzionato sopra generalizza il risultato della proposizione precedente, affermando che nel caso non costante si può sempre effettuare una trasformazione di coordinate che porti localmente J (u) nella forma standard (83). Osservazione 6. Nel caso di tensore J costante, nel sistema di coordinate in cui esso assume la forma standard J st , il significato degli invarianti di Casimir diventa molto semplice: sono tutte le funzioni delle sole ultime r coordinate v2k+1 , . . . , vn , che giocano il ruolo di parametri costanti nella dinamica. Infatti, ponendo ξ = (v1 , . . . , v2k )T ed η = (v2k+1 , . . . , vn )T , le equazioni di Hamilton associate ad H(ξ; η) con tensore di Poisson J st diventano ξ̇ = J2k ∇ξ H(ξ; η) ; η̇ = 0 , cioè le equazioni di Hamilton standard per un sistema a k gradi di libertà con Hamiltoniana dipendente da r parametri. 3. Strutture di Lie-Poisson: il corpo rigido Un classe particolarmente interessante di strutture di Poisson è quello corrispondente a tensori J (u) lineari omogenei in u: Jij (u) = cij k uk . La relazione (76) impone ovviamente un vincolo sui coefficienti cij che definiscono J . Risulta immediata la dimostrazione della seguente k ij Proposizione 14. Jij (u) = cij k uk è un tensore di Poisson se e solo se i coefficienti ck sono le costanti di struttura di qualche algebra di Lie, cioè se e solo se soddisfano le relazioni (67) e (68). Le parentesi di Poisson con tensore associato lineare omogeneo definito dalle costanti di struttura di un’algebra di Lie sono dette parentesi di Lie-Poisson. Esaminiamo in dettaglio un esempio finito-dimensionale di sistema di Lie-Poisson, quello di un corpo rigido che ruota attorno ad un punto fisso sotto l’azione della gravità (il caso in assenza di gravità è trattato come caso particolare). In particolare, ci occupiamo della descrizione della dinamica del corpo nelle variabili di Eulero, cioè le componenti del momento angolare visto da un sistema mobile, solidale con il corpo. Ricordiamo come si ricavano le equazioni del moto. Sia R(t) la matrice di SO(3) che descrive l’orientamento del corpo al tempo t e che trasferisce i vettori dal riferimento mobile al riferimento fisso. Un punto qualsiasi P del corpo è individuato da un vettore solidale QP indipendente dal tempo, che nel sistema fisso si scrive q P (t) = R(t)QP . La velocità del punto P nel sistema fisso è v P = q̇ P = ṘQP = ṘRT RQP = ṘRT q P = ω ∧ q P , (84) essendo ω(t) il vettore velocità angolare che definisce la matrice antisimmetrica Ṙ(t)RT (t). La velocità di P nel sistema mobile diventa V P = RT v P = RT ṘQP = Ω ∧ QP , (85) 3. STRUTTURE DI LIE-POISSON: IL CORPO RIGIDO 31 dove Ω(t) = RT (t)ω(t) è il vettore velocità angolare nel sistema mobile, vettore che definisce la matrice antisimmetrica RT Ṙ. Sia µP la massa concentrata nel punto P . Il momento angolare del punto P nel sistema fisso è mP = µP q P ∧ q̇ P = µP q P ∧ (ω ∧ q P ) , (86) che nel sistema mobile diventa M P = µP QP ∧ (Ω ∧ QP ) = µP |QP |2 − QP QTP Ω = I P Ω , (87) dove def I P = µP |QP |2 − QP QTP (88) è il tensore di inerzia del punto P , quantità indipendente dal tempo. La derivata rispetto al tempo del momento angolare (86) vale ṁP = µP q P ∧ (−gez ) , (89) dove g è l’accelerazione di gravità ed ez è il versore dell’asse z del sistema fisso. La derivata rispetto al tempo del momento angolare M P = RT mP nel sistema mobile è legata a quella del sistema fisso dalla relazione cinematica (90) ṁP = ṘM P + RṀ P = R RT ṘM P + Ṁ P = R Ω ∧ M P + Ṁ P , che, messa assieme alla (89) fornisce l’equazione Ṁ P + Ω ∧ M P = −gµP QP ∧ (RT ez ) . (91) Si noti che, essendo ez fisso, il vettore unitario ξ = RT ez evolve nel tempo secondo l’equazione ξ̇ + Ω ∧ ξ = 0 . P (92) P Passando alleP quantità integrali M = P P M P (momento angolare totale), I = P I P (tensore di inerzia), µ = P µP (massa totale), Qc = P µP QP /µ (posizione del centro di massa) e sfruttando la relazione M = IΩ, si trovano le equazioni di Eulero del corpo rigido con punto fisso (o della ”trottola”) Ṁ = M ∧ I −1 M + ξ ∧ µgQc ; (93) ξ̇ = ξ ∧ I −1 M . (94) Notare che nel caso gQc = 0, cioè in assenza di gravità oppure in presenza di gravità ma con il punto fisso del corpo (l’origine comune dei sistemi fisso e mobile) coincidente con il centro di massa del corpo, le due equazioni si disaccoppiano e la dinamica del sistema è descritta dalla sola equazione (93) (senza il secondo termine a destra). Si noti che il tensore di inerzia I è simmetrico (come somma dei tensori simmetrici I P ) e, se i punti P del corpo non sono tutti allineati, definito positivo (mentre il singolo tensore I P è solo semi-definito positivo) . Infatti, dato un qualsiasi vettore a, vale l’identità (dimostrarla) X µP |a ∧ QP |2 = a · Ia , P da cui segue che la forma quadratica a secondo membro è nulla se e solo se a è parallelo a QP per ogni P . Di conseguenza, si può sempre scegliere un sistema di coordinate solidale con il corpo tale che in esso I risulti diagonale; gli elementi (autovalori) sulla diagonale sono i momenti principali di inerzia e sono tutti positivi se il corpo non è unidimensionale. 32 3. SISTEMI HAMILTONIANI GENERALIZZATI Al fine di dare una formulazione Hamiltoniana del sistema (93)-(94), scriviamo l’energia totale del punto P , somma dell’energia cinetica e dell’energia potenziale. Si ha 1 1 HP = |v P |2 + µP gq P · ez = |V P |2 + µP gQP · ξ = 2 2 1 1 2 = |Ω ∧ QP | + µP gQP · ξ = Ω · I P Ω + µP gQP · ξ . 2 2 Integrando su P e tenendo presente che M = IΩ, si ottiene l’energia totale del sistema in funzione delle variabili dinamiche M e ξ, cioè 1 H(M , ξ) = M · I −1 M + µgQc · ξ . 2 (95) Proposizione 15. Le equazioni di Eulero (93)- (94) sono le equazioni di Hamilton associate all’Hamiltoniana (95) con tensore di Lie-Poisson M X J (M , ξ) = (96) X O3 dove, Mij = −εijk Mk e Xij = −εijk ξk , ovvero Ma = M ∧ a e Xa = ξ ∧ a per ogni vettore a. Gli invarianti di Casimir del tensore J sono tutte e sole le funzioni della forma C(M , ξ) = Φ(ξ·M , |ξ|2 ). Nel caso particolare gQc = 0 il tensore J si riduce alla sola matrice M, i cui invarianti di Casimir sono tutte e sole le funzioni della forma C(M ) = Φ(|M |2 ). C Dim. Il gradiente dell’Hamiltoniana (95) preso rispetto al vettore (M , ξ)T è ∇H = (I −1 M , µgQc )T . Moltiplicandolo da sinistra per il tensore (96) si ottiene −1 M X M ∧ I −1 M + ξ ∧ µgQc I M J ∇H = = X O3 µgQc ξ ∧ I −1 M ovvero il campo vettoriale delle equazioni di Eulero (93)-(94). Per quanto riguarda gli invarianti di Casimir, si deve caratterizzare ker J risolvendo l’equazione M X a =0, X O3 b trovando poi C tale che a = ∂C/∂M e b = ∂C/∂ξ. Si trova a = αξ e b = αM + βξ, che sono le componenti del gradiente di C = Φ(M · ξ, |ξ|2 /2), Φ(x, y) funzione di due variabili reali, α = Φx e β = Φy . Nel caso gQc = 0 si ha J (M ) = M e quindi J a = 0 se a = αM ; risulta quindi C = Φ(|M |2 /2), con α = Φx . Resta ora da far vedere che il tensore (96) è realmente di tipo Lie-Poisson, mostrando che i coefficienti che lo definiscono sono le costanti di struttura di qualche algebra di Lie. Nel caso ”libero”, gQc = 0, si ha Jij (M ) = −εijk Mk e l’algebra di Lie sottostante è chiaramente so(3) (ovvero su(2) o anche R3 . Nel caso generale (96) l’algebra di Lie sottostante alla struttura di Lie-Poisson del corpo rigido è se(3) = so(3) × R3 , l’algebra di Lie associata al gruppo di Lie SE(3) = SO(3) × R3 , il gruppo euclideo delle roto-traslazioni in R3 . Questo fatto viene dimostrato a parte nella prossima sezione. B La proposizione precedente prova che, oltre all’Hamiltoniana (95), le equazioni del moto del corpo rigido (93)-(94) ammettono altri due integrali primi: la componente M · ξ del momento angolare lungo la direzione del campo di gravità e il modulo |ξ| del versore nella direzione della gravità. Tali integrali primi emergono in modo naturale come invarianti di Casimir della struttura di LiePoisson introdotta. Ora, il sistema di equazioni (93)-(94) ”vive” in R6 . Con due invarianti di Casimir ci si riduce localmente (via il citato teorema di Darboux) ad una dinamica Hamiltoniana in uno spazio delle fasi di dimensione 4. È dunque sufficiente che esista una quarta costante del moto (indipendente dall’Hamiltoniana e dai due invarianti di Casimir) in involuzione con H, per rendere il sistema integrabile. Tale costante esiste in quattro casi, che sono: il caso a simmetria 3. STRUTTURE DI LIE-POISSON: IL CORPO RIGIDO 33 sferica, con I = II3 , I > 0; il caso della trottola di Lagrange, con momenti principali di inerzia I1 = I2 6= I3 ; il caso ”libero”, in cui H e l’invariante di Casimir |M |2 bastano a rendere il sistema integrabile (perché?); il caso della trottola di Kovalevskaya, con I1 = I2 = 2I3 . Il quarto caso è di fondamentale importanza, perché è stato scoperto introducendo una tecnica di analisi delle singolarità delle soluzioni delle equazioni del moto nel piano del tempo complesso. In sostanza, le Kovalevskaya congetturò che le equazioni di Eulero sono integrabili se la soluzione delle equazioni del moto ammette soltanto singolarità di tipo polo nel piano del tempo complesso. La sua tecnica, oggi nota con il nome di test di Painlevé, o meglio di Kovalevskaya-Painlevé (KP), costituisce uno dei metodi piú potenti che ci siano per vedere a priori se un dato sistema è integrabile. Il campo di ricerca sull’analisi delle singolarità è ancora aperto, non esistendo ancora oggi un teorema generale che garantisca la validità della congettura della Kovalevskaya per una classe ampia di sistemi dinamici, incluse le equazioni a derivate parziali, per le quali l’applicazione del test KP ha fornito risultati importantissimi. Come ulteriore commento sulla dinamica del corpo rigido, accenniamo al lavoro di Nambu [Nam73], che prende spunto dalle equazioni di Eulero del caso ”libero”. Nambu ha osservato che tali equazioni si possono scrivere nella forma Ṁ = M ∧ I −1 M = ∇C ∧ ∇H (97) dove C(M ) = |M |2 /2 e H(M ) = M · I −1 M /2. La derivata rispetto al tempo di F (M (t)), con M (t) soluzione di (97) si scrive allora def Ḟ = ∇F · Ṁ = ∇F · (∇C ∧ ∇H) = [F, C, H] . Nambu considera la quantità [F, C, H], dipendente da F e dalle due ”Hamiltoniane” C e H, una possibile generalizzazione della parentesi di Poisson. Prosegue poi cercando di generalizzare la teoria a sistemi a n gradi di libertà (veri, cioè descritti da sistemi di n EDO del primo ordine) aventi n − 1 integrali primi, passando poi al caso quantistico. Si tratta di un interessante proposta di generalizzazione del concetto di sistema Hamiltoniano nel caso di sistemi di EDO integrabili. Chiudiamo questa sezione sul corpo rigido con un cenno alla teoria della stabilità degli equilibri dei sistemi Hamiltoniani. I punti di equilibrio di un sistema di questo tipo, descritto dall’equazione u̇ = J (u)∇H(u), sono gli zeri del campo vettoriale, ovvero quei punti ue tali che J (ue )∇H(ue ) = 0 . (98) Le soluzioni di tale equazione per le quali J (ue ) 6= 0 (caso che non consideriamo) sono tali che ∇[H(ue ) + C(ue )] = 0 , (99) essendo C un qualsiasi invariante di Casimir del sistema. Dunque gli equilibri di un sistema Hamiltoniano sono, in generale, punti critici della funzione F = H + C, che è una costante del moto. Dunque, per i sistemi finito dimensionali, se la matrice hessiana ∂ 2 F (ue ) di F in ue è definita (positiva o negativa), allora l’equilibrio ue è stabile (F è una funzione di Lyapunov costante del moto con minimo o massimo nel punto di equilibrio). Si osservi che in generale gli invarianti di Casimir sono infiniti (sono famiglie di funzioni - vedi corpo rigido). Pertanto c’e’ arbitrarietà nella scelta della funzione F = H + C. Piú in generale, in presenza di un ulterioriore integrale primo J indipendente da H e da C, si cerca una funzione F della forma F = H + C + φ(J), con φ funzione scelta in modo che ∇F (ue ) = 0 e che, possibilmente, ∂ 2 F (ue ) sia definita. Nel caso del corpo rigido si trovano con questo metodo i classici risultati di stabilità delle rotazioni attorno all’asse ”corto” e all’asse ”lungo” del corpo ”libero” e delle rotazioni veloci della trottola di Lagrange. La tecnica descritta, esportabile al caso infinito-dimensionale con la dovuta cautela, prende il nome di metodo di ”Energia-Casimir” di Arnol’d. Per approfondimenti e applicazioni si veda [HMRW85] e [Ma&Ra-IMS]. 34 3. SISTEMI HAMILTONIANI GENERALIZZATI 4. Il gruppo euclideo SE(3) e l’algebra se(3) In questo paragrafo esaminiamo la struttura del gruppo di Lie delle roto-traslazioni in SE(3) e della relativa algebra di Lie se(3) = Te SE(3), mostrando che quest’ultima è l’algebra di Lie le cui costanti di struttura definiscono (a meno del segno) il tensore di Lie-Poisson (96) del corpo rigido. Una roto-traslazione in R3 è una operazione che ad ogni x ∈ R3 associa x0 = Rx + r , (100) dove R ∈ SO(3) e r ∈ R3 . L’operazione (100) si può descrivere in modo equivalente in R4 , facendo agire sul vettore (x, 1)T la matrice R r ; (101) E= 0T 1 il risultato di tale operazione è il vettore (x0 , 1)T , con x0 dato in (100). L’insieme delle matrici 4 × 4 della forma (101) è un gruppo di Lie di dimensione 6, che si indica con SE(3), il gruppo Speciale Euclideo (si noti che det E = det R = 1). Ogni elemento (101) di tale gruppo è individuato da una coppia ordinata (R, r), cioè SE(3) = SO(3) × R3 . L’algebra di Lie di SE(3) si trova considerando le curve E(t) ∈ SE(3) tali che E(0) = I4 ; allora se(3) è l’algebra di Lie delle matrici A b ≡ Ė(0) = , (102) 0T 0 dove A ∈ so(3) e b ∈ R3 . Il commutatore di due matrici ed 0 vale [A, A0 ] Ab0 − A0 b [A, A0 ] a ∧ b0 − a0 ∧ b 0 [, ] = = , 0T 0 0T 0 (103) dove a e a0 sono i vettori di R3 che definiscono A e A0 , rispettivamente, tali che cioè Ax = a ∧ x e A0 x = a0 ∧ x per ogni x ∈ R3 . Chiaramente, ogni elemento di se(3) è individuato da una coppia ordinata (A, b), cioè se(3) = so(3) × R3 o anche, via l’isomorfismo R3 3 a 7→ A ∈ so(3), se(3) = R3 × R3 . Per determinare le costanti di struttura dell’algebra di Lie se(3) bisogna introdurre in essa una base. Il generico elemento (102) dell’algebra si scrive in modo unico come = 3 X aα α + α=1 6 X bα−3 α , (104) , α = 1, 2, 3 ; (105) α=4 con elementi di base α definiti da α = α = Lα 0 0T 0 O3 eα−3 0T 0 , α = 4, 5, 6 , (106) dove le matrici Lα (α = 1, 2, 3) sono le matrici di base (69) di so(3) mentre i vettori eα−3 (α = 4, 5, 6) sono i versori della base canonica di R3 . Tramite la formula (103), tenendo presente la regola di commutazione (70) tra le matrici di base di so(3) e sapendo che Lα x = eα ∧ x per ogni x, è possibile 4. IL GRUPPO EUCLIDEO SE(3) E L’ALGEBRA se(3) calcolare i commutatori tra gli elementi della base 1 , . . . , 6 . Si trova (verificare) P3 γ=1 εα,β,γ γ ; α, β ∈ {1, 2, 3} P6 γ=4 εα,β−3,γ−3 γ ; α ∈ {1, 2, 3} , β ∈ {4, 5, 6} [α , β ] = P 6γ=4 εα−3,β,γ−3 γ ; α ∈ {4, 5, 6} , β ∈ {1, 2, 3} 0 ; α, β ∈ {4, 5, 6} 35 (107) Dimostriamo che il tensore di Poisson (96) ha i coefficienti che sono le costanti di struttura di so(3) col segno meno. Sia u ≡ (M , ξ)T ∈ R6 , ovvero uα = Mα se α = 1, 2, 3, mentre uα = ξα−3 se α = 4, 5, 6. Allora il tensore (96) è della forma Jαβ = cαβ γ uγ , con α, β, γ ∈ {1, . . . , 6}. Precisamente, si ha P3 − γ=1 εα,β,γ uγ ; α, β ∈ {1, 2, 3} P6 − γ=4 εα,β−3,γ−3 uγ ; α ∈ {1, 2, 3} , β ∈ {4, 5, 6} Jαβ = , P6 − γ=4 εα−3,β,γ−3 uγ ; α ∈ {4, 5, 6} , β ∈ {1, 2, 3} 0 ; α, β ∈ {4, 5, 6} αβ da cui segue evidentemente la corrispondenza tra le relazioni [α , β ] = −cαβ γ γ e Jαβ = cγ uγ . Per maggiori dettagli sul gruppo euclideo e sul corpo rigido si consulti [Ma&Ra-IMS]. CAPITOLO 4 Sistemi infinito-dimensionali L’estensione del formalismo Hamiltoniano al caso dei sistemi di equazioni alle derivate parziali (EDP) e dei sistemi di equazioni integro-differenziali, che sono sistemi infinito-dimensionali, viene fatta per analogia con il caso finito-dimensionale. Come abbiamo visto, una parentesi di Poisson è definita da tre ingredienti essenziali: il prodotto scalare, il gradiente delle funzioni definite sullo spazio delle fasi del sistema, il tensore, o operatore, di Poisson. Ci si aspetta quindi che, in ogni problema specifico che si riesce a trattare nel contesto Hamiltoniano, la parentesi di Poisson tra due funzioni F e G sia della forma {F, G}(u) = h∇F (u), J (u)∇G(u)i , (108) essendo ∇ una opportuna operazione di derivazione, h , i un opportuno prodotto scalare e J un opportuno operatore antisimmetrico (rispetto a h , i) tale che { , } soddisfi l’identità di Jacobi. Non svilupperemo il formalismo generale in astratto, ma procederemo per esempi. Accenniamo soltanto che, quasi sempre, come prodotto scalare h , i si considera il prodotto L2 , cioè il prodotto ordinario di campi scalari o il prodotto euclideo di campi vettoriali integrato sulle variabili spaziali. Di conseguenza, il gradiente ∇ è l’associato gradiente L2 , o derivata funzionale. 1. Equazione delle onde Si consideri l’equazione delle onde utt = uxx (109) con campo scalare incognito u(t, x) definito su R × X, dove X può essere R con condizioni di decrescenza rapida all’infinito, R/Z (cioè [0, 1] con condizioni periodiche agli estremi) oppure [0, 1] con condizioni fisse agli estremi. Moltiplicando la (109) per ut e integrando su X otteniamo Z Z 1 1 2 2 0 = ut (utt − uxx ) dx = ∂t (ut ) + ∂t (ux ) − ∂x (ut ux ) dx = 2 X X 2 Z 2 2 d (ut ) + (ux ) = dx − ut ux |∂X . (110) dt X 2 L’ultimo termine vale zero in tutti e tre i casi menzionati, per cui la quantità Z (ut )2 + (ux )2 H(u, ut ) = dx (111) 2 X è una costante del moto dell’equazione delle onde, chiaramente interpretabile come energia totale del sistema. Una prima formulazione Hamiltoniana dell’equazione delle onde si ottiene riscrivendola come sistema di EDP del primo ordine (in t): ut = p . (112) pt = uxx L’integrale primo (111) riscritto nelle variabili u e p diventa Z 2 p + (ux )2 H(u, p) = dx . 2 X 37 (113) 38 4. SISTEMI INFINITO-DIMENSIONALI Si osservi che la variabile p(t, x) è definita come u(t, x) su R × X. A questo punto basta osservare che, se ξ(t, x) e η(t, x) sono due campi scalari definiti anch’essi su R × X, il differenziale di H in (q, p) nella direzione (ξ, η) vale Z d dH(u, p|ξ, η) = H(u + ξ, p + η) = (pη + ux ξx ) dx = d =0 Z Z X δH δH = (−ξuxx + ηp) dx = ξ+ η = δu δp X X = ∇H, (ξ, η)T . Qui T δH δH ∇H(u, p) = , = (−uxx , p)T , δu δp indica il gradiente L2 di H, cioè l’oggetto che, moltiplicato scalarmente per la direzione (ξ, η), con prodotto scalare L2 definito da Z T T (114) (a, b) , (c, d) = (ac + bd) dx , X fornisce il differenziale di H lungo (ξ, η). Le componenti di ∇H, indicate con δH/δu e δH/δp prendono il nome di derivate (parziali) funzionali di H. Il sistema (112) si può quindi riscrivere in forma Hamiltoniana: ut = δH u δp ⇔ = J2 ∇H , (115) δH p t pt = − δu dove J2 è la matrice simplettica standard 2 × 2. La derivata rispetto al tempo di una qualsiasi funzione F (u, p) calcolata lungo una soluzione del sistema (115) vale d d = F (u(t) + ut ), p(t) + pt ) = Ḟ (u(t), p(t)) = F (u(t + ), p(t + )) d d =0 =0 = dF (u(t), p(t)|ut , pt ) = h∇F, J2 ∇Hi (u(t), p(t)) . Si può quindi definire la seguente parentesi di Poisson tra coppie di funzioni F e G: Z δF δG δF δG def {F, G} = h∇F, J2 ∇Gi = − dx . δu δp δp δu X (116) Vediamo ora una formulazione Hamiltoniana dell’equazione delle onde nel caso specifico di X = [0, 1] con estremi fissi. √ In questo caso si possono espandere u e p sulla base di Fourier formata dalle funzioni ϕk (x) = 2 sin(πkx), k ≥ 1. Tale base è ortonormale rispetto al prodotto scalare L2 standard: Z 1 ϕk (x)ϕk0 (x) dx = δk,k0 . P P P Siano quindi u(t, x) = k≥1 uk (t)ϕk (x) e p(t, x) = k≥1 pk (t)ϕk (x); allora uxx = − k≥1 ωk2 uk ϕk , con ωk = πk. Si vede quindi facilmente che il sistema Hamiltoniano (115) si può riscrivere nella forma standard ∂H u̇k = pk = ∂p k (k ≥ 1) , (117) ∂H ṗk = −ωk2 uk = ∂u k 0 dove H(u, p) = X p2 + ω 2 u2 k k≥1 k k 2 . (118) 1. EQUAZIONE DELLE ONDE 39 Quindi la dinamica del campo u(t, x), soluzione dell’equazione delle onde con estremi fissi, è sovrapposizione di infiniti moti armonici indipendenti di frequenze ωk = πk. La struttura di Poisson in questo caso è quella standard ma in dimensione infinita. Consideriamo ora il caso in cui X = R/Z. Osserviamo prima di tutto che dalle equazioni del moto (112) si deducono le leggi di conservazione Z 1 def P (p(t)) = p(t, x) dx = P (p(0)) 0 e def Z 1 u(t, x) dx = U (u(0)) + t P (p(0)) , U (u(t)) = 0 che esprimono rispettivamente la conservazione della quantità di moto e l’uniformità del moto del centro di massa. Scegliamo quindi, senza perdita di generalità, dati iniziali tali che U (u(0)) = P (p(0)) = 0. Osserviamo poi che nell’Hamiltoniana (113), cosı́ come nella seconda delle equazioni del moto (112) entra solo la variabile ux . È naturale chiedersi allora se non sia possibile dare una formulazione Hamiltoniana dell’equazione delle onde che coinvolga le variabili ux e p. A tale scopo definiamo due nuove variabili def ux (t, x) ± p(t, x) √ w± (t, x) = . (119) 2 R1 Osserviamo che tale formula definisce, assieme alla condizione di media nulla 0 u dx = 0, una trasformazione di variabili invertibile (u, p) 7→ (w+ , w− ). Infatti, assegnati i campi u e p, questi, via la (119), determinano univocamente w± . Viceversa, assegnati w± , p e ux si ricavano per semidifferenza e semi-somma, rispettivamente. Ora, grazie alla condizione di media nulla, ux determina univocamente u. Infatti, le espansioni di Fourier di u e ux in R/Z sono i seguenti X u(t, x) = uk eı2πkx , k∈Z\{0} ux (t, x) = X (ı2πkuk )eı2πkx , k∈Z\{0} con l’esclusione del termine k = 0 che equivale alla condizione di media nulla. Quindi il k-esimo coefficiente di Fourier di u si ricava dal k-esimo coefficiente di ux dividendo per ı2πk. Ora, si verifica facilmente che la funzione di Hamilton (113), nelle nuove variabili, si scrive Z 1 + 2 (w ) + (w− )2 + − H(w , w ) = dx , (120) 2 0 mentre le equazioni del moto (112) si scrivono + + wt = wx+ w 1 0 ⇔ = ∂x ∇H , wt− = −wx− w− t 0 −1 (121) dove le componenti di ∇H sono δH/δw± = w± . Il tensore di Poisson in questo caso è l’operatore lineare 1 0 J = ∂x , (122) 0 −1 che è antisimmetrico rispetto al prodotto scalare (114). La parentesi di Poisson di due funzioni F (w+ , w− ) e G(w+ , w− ) è data allora da Z 1 δF δG δF δG {F, G} = h∇F, J ∇Gi = − dx . (123) δw+ δw+ x δw− δw− x 0 40 4. SISTEMI INFINITO-DIMENSIONALI La riformulazione (121) dell’equazione delle onde è molto utile sia dal punto di vista concettuale che da quello pratico. Infatti, la dinamica dell’equazione delle onde risulta in questo modo in due dinamiche indipendenti di onda semplice: quella per w+ , che descrive la traslazione a sinistra del profilo iniziale e quella per w− , che descrive la traslazione a destra del profilo iniziale: w± (t, x) = w± (0, x ± t). Si può dimostrare che il tenosre di Poisson (122) è il trasformato del tensore standard J2 tramite il cambio di variabili (119), e che la parentesi di Poisson (123) è la trasformata della parentesi (116). Facciamo notare che il tensore di Poisson (122) ha per nucleo i campi a due componenti costanti, cioè indipendenti da x (verificarlo), che sono i gradienti di funzioni lineari in w+ e w− . In realtà la condizione di media nulla su u e p si trasferisce su w± e con tale scelta ker J consiste nel solo vettore nullo. Quanto esposto per l’equazione delle onde (109) si applica senza variazioni a famiglie di equazioni piú generali, ad esempio della forma utt = uxx − V 0 (u) , (124) essendo µ un parametro e V (u) una assegnata funzione di u (per V (u) = µu e V (u) = µu + λu3 si hanno rispettivamente i modelli unidimensionali di Klein-Gordon e Klein-Gordon cubico, o ”modello ϕ4 ”). L’equazione (124) è Hamiltoniana con struttura standard e funzione di Hamilton Z 2 p + (ux )2 + V (u) dx . H(u, p) = 2 X Si consideri il problema ad estremi fissi in X = [0, 1] con V (u) = µu + λu3 e si scrivano le equazioni di Hamilton per i coefficienti di Fourier nella base dei seni. 2. Equazione di Korteweg-de Vries Consideriamo l’equazione di Korteweg-de Vries (KdV) ut = −uxxx + 6uux . (125) Questa equazione alle derivate parziali nell’incognita u(t, x) descrive la dinamica di sistemi fisici continui debolmente dispersivi e debolmente non lineari ed è stata ricavata per la prima volta nel 1895 in un lavoro sulla propagazione di onde di superficie in acqua poco profonda (l’equazione fornisce una buona descrizione sia della propagazione di onde in un ”naviglio” sia della propagazione di Tsunami in oceano aperto). Supporremo il campo incognito u(t, x) definito su R×X, con X = R oppure X = R/Z. Si dimostra facilmente che la KdV ammette i due integrali primi Z u C(u) = dx , (126) X 2 Z 2 u S(u) = dx . (127) X 2 In realtà, è noto che la KdV ammette infinite costanti del moto. ed è integrabile. Un altro integrale primo, meno banale da intuire a vista, è (dimostrarlo) Z (ux )2 3 H(u) = + u dx . (128) 2 X il cui differenziale in u nella direzione h(t, x) risulta Z dH(u|h) = (−uxx + 3u2 )h dx . X (129) 2. EQUAZIONE DI KORTEWEG-DE VRIES 41 Si vede allora facilmente che la KdV (125) si può riscrivere come δH ut = ∂x . (130) δu R Poiché l’operatore lineare ∂x è antisimmetrico rispetto al prodotto scalare L2 hf, gi = X f g dx e non dipende da u, esso è un tensore di Poisson e l’equazione (130) è Hamiltoniana. La parentesi di Poisson di due funzioni F (u) e G(u) è allora data da Z δF δG dx . (131) {F, G} = h∇F, ∂x ∇Gi = δu x X δu Osserviamo che gli invarianti di Casimir di tale struttura di Poisson sono dati da quelle funzioni C con gradiente in ker ∂x , ovvero dalle funzioni con gradiente costante, indipendente cioè da x. Queste sono le funzioni lineari di u della forma (126). La KdV ammette una seconda formulazione Hamiltoniana. Precisamente, definito l’operatore def D = −∂x3 + 2(2u∂x + ux ) , (132) la KdV si può scrivere come δS , (133) δu con S(u) definita in (127). In questa seconda formulazione l’Hamiltoniana è, a parte un fattore, la norma L2 di u, mentre il tensore di Poisson è l’operatore D definito in (132). Tale operatore è antisimmetrico (rispetto al prodotto scalare L2 ) ed è lineare in u, ma non omogeneo (contiene il termine costante antisimmetrico −∂x3 ). Non dimostriamo che si tratta realmente di un tensore di Poisson. L’esistenza di due strutture di Poisson indipendenti è alla base dell’esistenza di infinite costanti del moto per la KdV. Infatti, le due identità δS δC δH δS ∂x =D , ∂x =D , (134) δu δu δu δu suggeriscono la relazione ricorsiva δIj δIj+1 =D , I0 = C (j ∈ N) , (135) ∂x δu δu che genera infinite costanti del moto della KdV. I primi quattro integrali primi sono I0 = C, I1 = S, I2 = H (vedi le identità (134)), e Z (uxx )2 5u4 2 I3 (u) = + 5(ux ) u + dx . 2 2 X ut = D Si può dimostrare che le costanti del moto Ij generate dalla relazione ricorsiva (135) sono in involuzione rispetto ad entrambe le strutture di Poisson, cioè {Ij , Ik }∂x = 0 = {Ij , Ik }D per ogni j, k ≥ 0. Sfruttando questo fatto, nel caso spazialmente periodico X = R/Z, si possono costruire soluzioni quasi-periodiche della KdV con un numero qualsiasi di frequenze. Per ulteriori dettagli si veda [Arn-MMMC] (ultima appendice) e soprattutto [Lax76]. Si consulti anche [Magri78], un lavoro generale sulle costanti del moto e sulle simmetrie dei sistemi Hamiltoniani a infiniti gradi di libertà. In conclusione alla presente sezione dedicata alla KdV, osserviamo che tale equazione è parte di una famiglia di EDP integrabili molto perticolari, che si ottengono come condizione di compatibilità di due equazioni ausiliarie, che prendono il nome di ”coppia di Lax” dell’equazione data. L’esistenza di una coppia di Lax per una data equazione implica (quasi sempre) la sua integrabilità via una 42 4. SISTEMI INFINITO-DIMENSIONALI tecnica detta ”Inverse Scattering”, molto simile a quella che si usa per ricostruire un potenziale di interazione a partire dall’analisi delle perticelle da esso ”diffuse”. La coppia di Lax della KdV è def Lψ = (−∂x2 + u)ψ = λψ , def ψt = Mψ = [−4∂x3 + 3(2u∂x + ux )] , (136) (137) con ψ(t, x) campo scalare ausiliario complesso. La condizione di compatibilità è ut = −uxxx + 6uux ⇔ ∂t L = [M, L] . Si osservi che l’operatore M è anti-hermitiano, pertanto il campo ausiliario ψ evolve unitariamente nel tempo (dimostrarlo a partire dalla (137)) e l’operatore L, hermitiano, ha spettro reale indipendente dal tempo. Tale spettro, ovvero l’insieme dei λ nella (136), può essere quindi calcolato al tempo t = 0. L’equazione (136) al tempo t = 0 è l’equazione di Schrödinger unidimensionale indipendente dal tempo, con u(0, x), il dato iniziale della KdV, che gioca il ruolo di potenziale. La teoria dell’Inverse Scattering per la KdV sulla retta è stata proposta per la prima volta in [GGKM67]. Una rassegna generale abbastanza completa sulla KdV è [Miura76]. Per la derivazione della KdV e sue generalizzazioni a partire delle equazioni dell’idrodinamica si veda [Jo-WW]. 3. Fluido ideale Un altro esempio di sistema fisico per il quale si pone il problema di una descrizione Hamiltoniana è il fluido ideale incomprimibile, descritto dall’equazione di Eulero v t = −v · ∇v − ∇p , (138) dove v(t, x) è il campo di velocità del fluido in x ∈ D ⊂ Rd (d = 2, 3) al tempo t, mentre p(t, x) è il campo di pressione diviso per la densità (costante). Il campo di velocità soddisfa due condizioni: ha divergenza nulla in tutto il dominio D occupato dal fluido e componente normale nulla sul bordo ∂D del dominio stesso: ∇ · v(t, x) = 0 ∀x ∈ D ; n(x) · v(t, x) = 0 ∀x ∈ ∂D , (139) (140) essendo n(x) il versore normale ”uscente” al bordo ∂D nel punto x. Si noti che la condizione di incomprimibilità (139) equivale all’ipotesi di densità costante. Infatti, se nell’equazione di continuità ρt + ∇ · (ρv) = 0 per la densità di massa del fluido si pone ρ = costante, si ottiene la (139). La condizione al contorno (140), che esprime la condizione di tangenza al bordo del dominio del campo di velocità, ha una semplice interpretazione fisica: l’assenza di perdite o entrate di fluido al bordo. Dal punto di vista matematico la condizione di campo tengente al bordo assicura invece l’unicità della soluzione (se esiste) dell’equazione di Eulero (138) (vedi ad es. [Ma&Be-VIF]). La condizione di incomprimibilità (139) è anche quella che permette di risolvere il problema apparente della mancanza dell’equazione di evoluzione per la pressione. Infatti, prendendo la divergenza dell’equazione di Eulero e sfruttando la (139), si ottiene l’equazione di Poisson per p ∆p = −∇ · (v · ∇v) . (141) Inoltre, moltiplicando la (138) per n(x su ∂D e sfruttando la (140) si ottiene la condizione al bordo n · ∇p = −n · (v · ∇v) ∀x ∈ ∂D . (142) Il problema (141)-(142) ammette soluzione definita a meno di una costante arbitraria, che indichiamo simbolicamente come segue: p(t, x) = −∆−1 ∇ · (v · ∇v)(t, x) . (143) 3. FLUIDO IDEALE 43 Inserendo tale espressione formale nell’equazione di Eulero (138) si ottiene v t = −v · ∇v + ∇∆−1 ∇ · (v · ∇v) che, definendo l’operatore def P = I − ∇∆−1 ∇· , (144) può essere riscritta nella forma compatta v t = −P(v · ∇v) . (145) L’operatore P definito in (144) agisce sui campi di vettori definiti su D ed è un operatore di proiezione sul sottospazio dei campi su D a divergenza nulla e tangenti a ∂D. Infatti, si ha ∇ · P ≡ 0. Inoltre, inserendo la (143) nella condizione (142) si ottiene n · P ≡ 0. Si capisce quindi che la soluzione dell’equazione di Eulero (145) corrispondente ad un dato iniziale v(0, x) a divergenza nulla e tangente al bordo è a divergenza nulla e tangente al bordo per ogni t per cui esiste. Sfruttando l’identità vettoriale v · ∇v = ∇(|v|2 /2) − v ∧ ω, essendo ω = ∇ ∧ v il campo di vorticità, l’equazione di Eulero del fluido ideale si può scrivere come v t = v ∧ ω − ∇h (146) con h = p + |v|2 /2. Da questa equazione si vede subito, moltiplicando scalarmente per v e integrando su D, che la quantità Z |v(t, x)|2 dd x H(v) = (147) D è una costante del moto per l’equazione di Eulero. Si osservi che grazie alle condizioni (139)-(140), per ogni funzione f definita su D si ha Z Z Z Z d d d v · ∇f d x = ∇ · (f v) d x − f∇ · v d x = f n · v dσ = 0 . D D D ∂D Osserviamo ancora che il differenziale di H in v nella direzione w è dato da Z δH d def v · w d x = hv, wi = dH(v|w) = ,w , δv D (148) dove h , i è il prodotto L2 ottenuto integrando su D il prodotto scalare euclideo degli argomenti. Dunque δH/δv = v. Dalla forma (146) dell’equazione di Eulero e da quanto detto sopra si vede subito che il campo scalare h può essere eliminato (farlo in dettaglio)introducendo il proiettore P, ottenendo δH δH v t = P(v ∧ ω) = −P ω ∧ = J (v) , (149) δv δv dove abbiamo definito l’operatore def J (v)· = −P (ω ∧ ·) (150) lineare ed omogeneo nel campo di velocità v. Quindi la forma (149) dell’equazione di Eulero è Hamiltoniana se l’operatore (150) è di tipo di Lie-Poisson. Al fine di dimostrare quest’ultimo fatto e di dare quindi una formulazione Hamiltoniana della meccanica del fluido ideale, introduciamo lo spazio dei campi vettoriali su D a divergenza nulla e tangenti al bordo: def SVec(D) = {v : R × D → Rd : ∇ · v = 0 ; n · v|∂D = 0} . (151) Vale la seguente Proposizione 16. SVec(D) è un’algebra di Lie (infinito-dimensionale) con prodotto dato dall’ordinario commutatore tra campi vettoriali. 44 4. SISTEMI INFINITO-DIMENSIONALI C Dim. La struttura di spazio vettoriale è ovvia. Siano v, w ∈ SVec(D) e sia [v, w] = v · ∇w − w · ∇v il loro commutatore. Dobbiamo dimostrare che [v, w] ∈ SVec(D). La condizione di divergenza nulla è immediata: ∇ · [v, w] = ∂i (vj ∂j wi − wj ∂j vi ) = (∂i vj )(∂j wi ) − (∂i wj )(∂j vi ) ≡ 0 . Un modo alternativo di dimostrarla si basa sulla seguente identità vettoriale, valida per campi a divergenza nulla: ∇ ∧ (v ∧ w) = −v · ∇w + w · v = −[v, w] ; (152) la divergenza del rotore è identicamente nulla. La condizione di tangenza al bordo si dimostra come segue. Si fissi ad arbitrio un insieme B ⊂ ∂D, cioè una ”porzione” di frontiera del dominio D; allora, sfruttando la (152) e il teorema di Stokes, si ha I Z (v ∧ w) · d` = 0 . n · [v, w] dσ = − B ∂B L’ultima uguaglianza segue dal fatto che d` è tangente a ∂B e quindi a ∂D, mentre v ∧w è normale a ∂D e quindi a d`. Dall’arbitrarietà di B segue che n · [v, w] = 0 in ogni punto di ∂D. B Mostreremo che l’equazione di Eulero del fluido ideale ha una struttura di Lie-Poisson, con tensore di Poisson lineare e omogeneo in v definito dalle costanti di struttura di SVec(D). Sia F definita su SVec(D) tale che δF/δv ∈ SVec(D) e sia v(t, ·) soluzione dell’equazione di Eulero (149); la derivata rispetto al tempo di F (v(t, ·)) vale δF δF δH Ḟ = dF (v|v t ) = , vt = , J (v) . (153) δv δv δv Questo suggerisce ovviamente di definire la parentesi di Poisson tra due funzioni F e G definite su SVec(D) e a gradienti in SVec(D) come {F, G} = h∇F, J ∇Gi . (154) Riscriviamo ora tale parentesi in una forma equivalente piú comoda al fine di dimostrare che si tratta effettivamente di una parentesi di Poisson. A tale scopo sfruttiamo prima di tutto il fatto che, se v ∈ SVec(D), allora hv, Pwi = hv, wi per ogni w (la parte di gradiente di P ha contributo nullo per il teorema della divergenza). Usando la definizione (150) di J , la (154) diviene allora Z δF δG ω· {F, G} = − h∇F, P(ω ∧ ∇G)i = hω, ∇F ∧ ∇Gi = ∧ dd x . (155) δv δv D Ora, se u e w sono campi a divergenza nulla e ω = ∇ ∧ v, vale l’identità vettoriale ω · (u ∧ w) = ∇ · (uv · w − wu · v) − v · [u, w] . Sfruttando tale relazione si può riscrivere la (155) come segue: Z δF δG {F, G} = − hv, [∇F, ∇G]i = − v· , dd x . δv δv D (156) Dobbiamo ora dimostrare che la parentesi (156) soddisfa l’identità di Jacobi o, equivalentemente, che l’operatore (150) è di tipo Lie-Poisson. Supponiamo che in SVec(D) esista una base di campi vettoriali {v α }α ortonormali rispetto al prodotto h , i (supponiamo cioè che SVec(D) sia uno spazio di Hilbert): hv α , v β i δα,β . Allora, per ogni v ∈ SVec(D) si ha (somma sugli ”indici” ripetuti) v = uα v α ; uα = hv α , vi . 3. FLUIDO IDEALE 45 Moltiplicando da sinistra per v α l’equazione di Eulero (149) si ottiene u̇α = − hv α , P(ω ∧ v)i = hω, v α ∧ vi = = − hv, [v α , v]i = − hv γ , [v α , v β ]i uβ uγ = αβ = − v γ , λαβ µ v µ uβ uγ = −λγ uγ uβ , dove i coefficienti λαβ γ sono le costanti di struttura di SVec(D). Dunque l’equazione di Eulero, scritta come sistema di EDO per i coefficienti di Fourier uα , ha la forma u̇α = Jαβ uβ , (157) dove Jαβ = hv α , J v β i = −λαβ γ uγ , essendo J l’operatore (150) (verificarlo). Se ora si osserva che 1 1 H(v) = hv, vi = uα uα , 2 2 si vede che l’equazione di Eulero (157) è Hamiltoniana: ∂H , u̇α = Jαβ ∂uβ (158) (159) con tensore di Lie-Poisson (158), i cui coefficienti sono (meno) le costanti di struttura dell’algebra di Lie SVec(D). La parentesi di Poisson di due funzioni F e G con gradiente in SVec(D) si scrive (dimostrarlo) ∂F ∂G ∂F ∂G {F, G} = Jα,β = −λαβ . γ uγ ∂uα ∂uβ ∂uα ∂uβ Resta ovviamente da dimostrare che effettivamente una base ortonormale in SVec(D) esiste. Tale risultato è dovuto a Yoshida e non lo riportiamo. Accenniamo solo al fatto che i campi vettoriali v α sono gli autovettori del rotore, vedi [YoGi90] e [Yo92]. La struttura Hamiltoniana del fluido ideale appare per la prima volta nel lavoro (molto astratto) [Arn66], sintetizzato in appendice al testo [Arn-MMMC]; vedi anche la monografia [Arn&Khe-TMH]. Bibliografia [Arn-MMMC] V.I. Arnol’d, Metodi matematici della meccanica classica, Editori Riuniti, 1979. [Arn-EDO] V.I. Arnol’d, Equazioni differenziali ordinarie, Edizioni Mir, 1979. [Arn66] V.I. Arnol’d, ”Sur la géométrie différentielle des groupes de Lie de dimension infinie et ses applications à l’hydrodynamique des fluides parfaits”, Annales de l’Institut Fourier, 16 (1966), 319-361. [Arn&Khe-TMH] V.I. Arnol’d, B.A. Khesin, Topological Methods in Hydrodynamics, Springer, 1998. [DNF-GC] B.A. Dubrovin, S.P. Novikov, A.T. Fomenko, Geometria contemporanea - Vol. primo: Geometria delle superfici, dei gruppi di trasformazioni e dei campi, Editori Riuniti, 1987. [Fa&Ma-MA] A. Fasano, S. Marmi, Meccanica Analitica, Bollati Boringhieri, 1994. [GGKM67] C.S. Gardner, J.M. Greene, M.D. Kruskal, R.M. Miura, ”Method for solving the Korteweg-de Vries equation”, Physical Review Letters 19 (1967), 1095-1097. [Gr-SL] W. Gröbner, Serie di Lie e loro applicazioni, Cremonese, 1972. [Gr-GAL] W. Gröbner, Gruppi, anelli e algebre di Lie, Cremonese, 1975. [HMRW85] D.D. Holm, J.E. Marsden, T. Ratiu, A. Weinstein, ”Nonlinear Stability of Fluid and Plasma Equilibria”, Physics Reports 123 (1985), 1-116. [Jo-WW] R.S. Johnson, A Modern Introduction to the Mathematical Theory of Water Waves, Cambridge University Press, 1997. [Lax76] P.D. Lax, ”Almost Periodic Solutions of the KdV equation”, SIAM Review 18 (1976), 351-375. [Magri78] F. Magri, ”A simple model of the integrable Hamiltonian equation”, Journal of Mathematical Physics 19 (1978), 1156-1162. [Ma&Be-VIF] A.J. Majda, A.L. Bertozzi, Vorticity and Incompressible Flow, Cambridge University Press, 2002. [Ma&Ra-IMS] J.E. Marsden, T. Ratiu, Introduction to Mechanics and Symmetry, Springer, 1999. [Miura76] R.M. Miura, ”The Korteweg-de Vries Equation: a Survey of Results”, SIAM Review 18 (1976), 412-459. [Mor98] P.J. Morrison, ”Hamiltonian description of the ideal fluid”, Reviews of Modern Physics 70 (1998), 467-521. [Nam73] Y. Nambu, ”Generalized Hamiltonian Dynamics”, Physical Review D 7 (1973), 2405-2412. [Pro] C. Procesi, Elementi di teoria dei gruppi, Decibel, 1984. [Sam] H. Samelson, Notes on Lie Algebras, Springer, 1990. [YoGi90] Z. Yoshida, Y. Giga, ”Remarks on Spectra of Operator Rot”, Mathematische Zeitschrift 204 (1990), 235-245. [Yo92] Z. Yoshida, ”Eigenfunction expansions associated with the curl derivatives in cylindrical geometries: Completeness of Chandrasekhar-Kendall eigenfunctions”, Journal of Mathematical Physics 33 (1992), 1252-1256. 47