Prof. Francesco Becattini Meccanica Statistica I Appunti del corso raccolti da M.Gori,P.Liuzzo Scorpo,M. Straka Università degli studi di Firenze Indice Parte I Meccanica statistica all’equilibrio 1 L’operatore densità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 L’operatore densità: definizione e proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Appendice: Il processo di misura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 4 6 2 Entropia e secondo principio della termodinamica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 L’entropia di Shannon nella teoria dell’informazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 L’entropia di Von Neumann in meccanica statistica quantistica . . . . . . . . . . . . . 2.2 Alcune proprietà dell’entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Il principio fondamentale della meccanica statistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Costruzione dell’operatore densità per insiemi statistici . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Funzione densità per un sistema isolato: l’insieme microcanonico . . . . . . . . . . . 2.4.2 Funzione densità per l’insieme grancanonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.3 L’opeartore densità per l’insieme canonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Alcune proprietà della funzione di partizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.1 Appendice: l’interpretazione fisica dei moltiplicatori di lagrange per una %̂ nell’insieme grancanonico e canonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.2 Appendice: il sistema rotazionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 9 10 10 12 13 14 14 16 16 18 18 3 Equivalenza degli insiemi statistici nel limite termodinamico . . . . . . . . . . . . . . . . . . 21 3.1 Equivalenza dell’insieme canonico e grancanonico nel limite termodinamico . . . . . . . . 21 4 Il limite classico: funzione di Wigner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 4.1 Trasformata di Wigner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 4.2 Recupero delle equazioni del moto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 Parte II Meccanica statistica relativistica: introduzione 5 Insieme microcanonico di un gas ideale relativistico . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 5.1 Corpo nero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 5.2 Limite termodinamico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 6 Meccanica statistica relativistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 6.1 Fluidodinamica relativistica ideale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 VI 7 Indice Termodinamica di non equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 Parte I Meccanica statistica all’equilibrio 1 L’operatore densità 1.1 Introduzione Nella meccanica statistica quantistica si rende necessario introdurre un nuovo formalismo atto a descrivere lo stato di un sistema fisico, rispetto alla consueta notazione di Dirac. La notazione con i bra-ket risulta inadatta a descrivere lo stato stato di sistemi fisici complessi correlati fra loro. Ad esempio, si consideri un sistema fisico composto da due sottosistemi A,B lo stato dei quali è rappresentato dai vettori negli spazi di Hilbert HA e HB rispettivamente. Lo spazio di Hilbert che descrive il sistema A + B è HA ⊗ HB ed i vettori di questo spazio hanno la forma: X |ψiA+B = cij |ψi iA ⊗ |ψj iB . (1.1) ij Supponiamo a questo punto di voler operare una misura su A; sarà quindi necessario introdurre un operatore ÔA che agisca sui vettori dello spazio HA . Nel caso si voglia operare sul sistema A + B misurando un’osservabile sull’insieme A devo agire attraverso l’operatore ÔA ⊗ 1̂A . Il valore d’aspettazione dell’osservabile è dato dall’espressione1 : X c∗ij ckl B hψj |A hi ψ|(ÔA ⊗ 1̂B )|ψl iA |ψk iB (1.2) A+B hψ|ÔA ⊗ 1̂B |ψiA+B = i,j,k,l Ricordando che A+B hψ|ÔA B hψ|A hψ|(ÔA ⊗ 1̂B |ψiA+B ⊗ ÔB )|ψiA |ψiB = hψA |ÔA |ψiA hψB |ÔB |ψiB si ottiene X X = clk c∗ij A hψi |ÔA |ψk iA δjk = clj c∗ij A hψi |ÔA |ψk iA i,j,k,l (1.3) i,j,l Ci si può chiedere a questo punto se sia possibile riprodurre questo risultato considerando l’azione del solo ÔA su un opportuno vettore stato di A, ovvero se ∃|ϕiA tale che: A+B hψ|ÔA ⊗ 1̂B |ψiA+B =A hϕ|ÔA |ϕiA (1.4) Si può facilmente constatare che ciò non è vero in generale, si pensi ad esempio al caso in cui A e B rappresentino due particelle di spin 1/2 e A + B rappresenti lo stato di singoletto di spin per cui si (A) (A) verifica h0, 0|Ŝn |0, 0i = 0 mentre h1/2, ±|Ŝn |1/2, ±i = 6 0 ∀n. Cerchiamo quindi un metodo che ci permetta di descrivere in modo più semplice il calcolo del valore di aspettazione di un’osservabile solo su una parte del sistema. Consideriamo il caso di un sistema isolato il cui stato è rappresentato in uno spazio di Hilbert HA 1 Si è sottointeso per compattezza di notazione ⊗ fra i vettori |ψiA e|ψiB 4 1 L’operatore densità e scorrelato da qualsiasi altro sistema; il valore di aspettazione di ÔA su uno stato del sistema |ψiA attraverso una base {e1 , ...en } su HA può essere calcolato con: X X hÔA i = hψ|ÔA |ψi = c∗i cj hei |ÔA |ej i = tr ( c∗i cj |ej ihei |)ÔA = tr(%̂ÔA ) (1.5) ij ij Dove abbiamo introdotto l’operatore densità %̂A che descrive lo stato del sistema A e la cui espressione è data da: X %̂A = c∗i cj |ej ihei | (1.6) ij Poichè in questo caso l’operatore densità è stato costruito a partire da una base ortonormale di stati del sistema A, che abbiamo considerato isolato, lo stato del sistema è detto puro. Perciò si dimostra che l’operatore è un proiettore, ovvero soddisfa alla condizione: %̂2 = %̂ (1.7) Volendo estendere il concetto di operatore densità al sistema A + B, procediamo in modo analogo al caso precedente: X hÔA ⊗ ÔB i = ckl c∗ijB hej |A hei |(ÔA ⊗ ÔB )|ek iA | el iB (1.8) i,j,k,l = tr ( X ckl c∗ij |ek iA |el iBB hej |A hei |)ÔA ⊗ ÔB tr %̂(ÔA ⊗ ÔB ) = trA trB %̂(ÔA ⊗ ÔB ) i,j,k,l Dove abbiamo definito,anche in questo caso, un’operatore densità : X %̂ = ckl c∗ij |ek iA |el iBB hej |A hei | (1.9) i,j,k,l che rappresenta uno stato puro del sistema A + B. In questo modo, volendo considerare il valore di aspettazione di un’osservabile ÔA solo sulla parte A del sistema, potremo operare nel modo seguente: hÔA ⊗ 1̂B i = trA trB %̂(ÔA ⊗ 1̂B ) = trA trB (%̂ÔA ⊗ 1̂B ) = trA (%̃ˆA ÔA ) (1.10) Dunque, lo stato di un sistema A correlato con un’altro sistema, è descritto da un operatore densità %̃ˆA = trB (%̂) del sistema A. Da ciò segue che, in generale, %̃ˆA 6= %̂A ; in tal caso si dice che l’operatore rappresenta uno stato misto del sistema e si verifica che %̃ˆ2A 6= %̃ˆA . Possiamo a questo punto dimenticare la descrizione di uno stato fisico determinata dal formalismo bra-ket, e definire assiomaticamente le proprietà che richiediamo ad un operatore densità affinchè questo descriva lo stato di un sistema fisico, compatibili con le definizioni che abbiamo adottato in . 1.2 L’operatore densità: definizione e proprietà Definizione Si dice operatore densità un operatore che agisce nello spazio di Hilbert H degli stati del sistema, tale che: 1. 2. 3. 4. 5. %̂† = %̂ (operatore hermitiano) hAi = tr(%̂Â) tr(%̂) = 1 hψ|%̂|ψi ≥ 0 ∀|ψi ∈ H Nel caso descriva uno stato puro %̂2 = %̂ Nel caso descriva uno stato misto si avrà in generale %̂2 6= %̂ 1.2 L’operatore densità: definizione e proprietà 5 Verifichiamo che effettivamente l’operatore densità %̂ cosı̀ definito descrive lo stato fisico di un sistema rappresentato da uno spazio di Hilbert H : per uno stato puro poichè valgono le proprietà 1. e 5.; quindi ha autovalori λ = 0, 1 (poichè λ2 = λ) da cui dato che tr(%̂) = 1, esiste una base ortonormale {|ei i} di H sulla quale l’operatore è della forma %̂puro = |e1 ihe1 | per uno stato misto l’operatore densità può P essere rappresentato, su un’opportuna P base di H l’operatore densità è della forma %̂misto = i pi |ei ihei | dove p1 , ..., pn ≥ 0 e poichè i pi = 1 ne segue che p2i ≤ pi . Osservazione È da notare che lo stato puro può essere descritto come uno stato misto in cui pi = δi,1 . Come possiamo interpretare i coefficienti pi ? Consideriamo il valore di aspettazione di ÔA sullo stato A correlato con B: X X pi |ei ihei |ÔA ) = pi hei |ÔA |ei i (1.11) hÔA i = trA trB %̂(ÔA ⊗ 1̂B ) = trA ( i i Il calcolo del valore di aspettazione di un’osservabile su una parte A del sistema A + B si può interpretare una doppia media sugli stati puri del sistema A: hei |ÔA |ei i è una media quantistica sugli stati puri del sistema A la somma sui termini pi si può considerare una media statistica dei valori di aspettazione di ÔA sugli stati puri di A. Da questo esempio possiamo concludere che lo stato misto di un sistema entangled equivale ad una media degli stati puri dello stesso sistema, pesata attraverso i coefficienti pi . Di ciò possiamo dare una duplice interpretazione sulla natura dell’operatore %̂: interpretazione “probabilistica”: la descrizione di A attraverso uno stato misto deriva dall’impossibilità dello sperimentatore di conoscere lo stato puro in cui si trova il sistema; per tenere conto di ciò, nel calcolo del valore di aspettazione si somma su tutti gli stati possibili pesati con la loro probabilità. interpretazione “statistica”: l’operatore %̂ rappresenta in modo oggettivo lo stato di un sistema entangled con l’universo; uno stato misto è oggettivamente una sovrapposizione di stati puri del sistema. L’evoluzione temporale di %̂ Consideriamo, infine, l’evoluzione nel tempo dell’operatore densità, nell’interpretazione di Heisenberg. Per questo ricordiamo come evolve nel tempo uno stato puro di un sistema fisico caratterizzato da una hamiltoniana H.L’evoluzione di uno stato fisico quantistico è descritto dall’equazione di Schröedinger: ∂|ψi i = Ĥ|ψi (1.12) ∂t Nella rappresentazione classica ∃Û operatore unitario tale che |ψ(t)i = Û (t)|ψ0 i. In particolare: Û (t) = e−iĤt nel caso in cui Ĥ non dipenda esplicitamente dal tempo; R −i 0t Ĥ(τ )dτ Û (t) = e per cui [Ĥ(τ1 ), Ĥ(τ2 )] 6 1 L’operatore densità Dunque avremo che: X X %̂(t) = pi |ψi (t)ihψi (t)| = pi Û (t)|ψi (0)ihψi (0)|Û −1 (t) = Û (t)%̂(0)Û −1 (t) i (1.13) i Nel caso dell’operatore densità vale dunque la relazione se la hamiltoniana è indipendente dal tempo: i ∂ %̂ = [Ĥ, %̂] ∂t (1.14) 1.3 Appendice: Il processo di misura Allo stato attuale delle conoscenze non è ancora stata formulata una definizione del processo di misura di un’osservabile, poichè non è definito esattamente cosa sia un rilevatore. Tuttavia, nel contesto da noi elaborato sin qui possiamo cercare dove risiedano le principali difficoltà nel definire cosa avviene nel processo di misura di un sistema quantistico. Per l’analisi di un processo di misura è conveniente separare il sistema considerato in due sottosistemi: il rivelatore e l’oggetto. Nessuno di questi due si troverà in uno stato puro dopo la misura. Per comprendere meglio i postulati delle misure quantistiche è utile decomporre l’esperimento in due stadi: uno durante il quale l’apparato e l’oggetto interagiscono e vengono separati, ed un altro che corrisponde all’osservazione del risultato. Prima del primo stadio l’oggetto e l’apparato non sono correlati, l’operatore densità del sistema è il prodotto tensoriale degli operatori densità delle due parti. L’interazione cambia l’operatore densità del sistema creando correlazioni tra l’oggetto e l’apparato, questa modifica è specifica dell’osservabile che l’apparato deve misurare. Si consideri uno stato puro |ψS i di un sistema che interagisca con un rilevatore (ovvero “un oggetto capace di fare una misura”, rigorosamente...). Si può supporre che il rivelatore si trovi in uno stato puro |ψR i, anche se questa condizione è praticamente impossibile da riprodurre e persino definire in modo rigoroso. Tale stato è descitto da un numero quantico ra che identifica gli stati puntatori, ovvero quelli che caratterizzano la risposta del rilevatore sulla misura di a, e un set di numeri quantici η che risolvono la degenerazione. Nel momento in cui i due sistemi interagiscono il sistema sarà descritto da uno spazio di Hilbert HS ⊗ HR ; su un sistema entangled vogliamo misurare un’osservabile ÂS i cui autostati puri su S sono rappresentati da |a, δi, dove a sono gli autovalori di ÂS e δ sono numeri quantici ulteriori che risolvono la degenerazione. Dunque nell’istante in cui il rivelatore ed il sistema interagiscono lo stato del sistema è rappresentato da: X |ψi = |ψS i ⊗ |ψR i = ha, δ|ψS i|a, δi ⊗ |ra , ηi (1.15) a,δ,η Volendo descrivere il sistema in funzione dell’ operatorie densità del sistema S avremo che, prima dell’interazione con il rilevatore, lo stato del sistema S è descritto da: X %̂Spuro = |ψS ihψS | = ca,δ c∗a0 ,δ0 |a, δiha0 , δ 0 | (1.16) a,δ,a0 ,δ 0 Sia ora, ha, δ|ψS i = ca,δ , allora dopo l’interazione: X %̂int = (%̂) ca,δ c∗a0 ,δ0 |a0 , δi|ra , ηihra0 , η 0 |ha0 , δ 0 | (1.17) a,δ,η,a0 ,δ 0 ,η 0 Per quanto riguarda il sistema S si ha %̂S |prima = |ψS ihψS | −→ %̂S |dopo = trR %̂ = X rb ,η 00 hrb , η 00 |%̂|rb , η 00 i (1.18) 1.3 Appendice: Il processo di misura La tracciatura su R seleziona a = a0 e η = η 0 , per cui X ca,δ c∗a,δ0 |a, δiha, δ 0 | %̂Sint = 7 (1.19) a,δ,δ 0 Dunque, dal punto di vista dell’operatore densità, l’interazione con il rivelatore diagonalizza l’operatore rispetto agli autostati a, X X %̂Sint = P̂a (%̂Spuro )P̂a dove Pa = |a, δ 0 iha, δ| (1.20) δ,δ 0 a cioè il rivelatore risponde alla rivelazione selezionando casualmente a. Per cui, l’operatore densità che descrive tutto il sistema diventa X %̂int = ca,δ c∗a,δ0 |a, δi|ra , ηihra , η 0 |ha, δ 0 | a,δ,δ 0 ,η,η 0 Si verifica che tr%̂int = 1: tr(%̂int ) = tr( X Pa %̂puro Pa ) = a = X X tr(Pa %̂puro Pa ) = a tr(%̂puro Pa ) = tr(%̂puro a X tr(%̂puro Pa2 ) = a X Pa ) = tr(%̂puro ) = 1 a Si verifica ora che gli autovalori di %̂int siano non negativi: X X hψ|%̂int |ψi = hψ| Pa %̂puro Pa |ψi = hPa ψ ∗ |%̂puro |Pa ψi ≥ 0 a a (1.21) 2 Entropia e secondo principio della termodinamica Come accennato in precedenza è possibile decrivere lo stato di un sistema, anche entangled, attraverso una sovrapposizione di stati puri pesati con coefficenti pi dei quali abbiamo dato un’interpretazione probabilistica. Da questo tipo di descrizione, nell’ottica dell’interpretazione “probabilistica” dell’operatore densità, siamo interessati a conoscere la quantità di informazione sui microstati di un sistema nel momento in cui ne studiamo le proprietà macroscopiche. Intuitivamente, potremmo dire che il disordine di un sistema è maggiore allorchè ad una stessa descrizione macroscopica del sistema corrispondano un numero maggiore di stati microscopici con essa compatibili. Questo si traduce, da un certo punto di vista, in una perdita di informazione maggiore sui microstati del sistema al crescere del disordine del sistema stesso. 2.1 L’entropia di Shannon nella teoria dell’informazione In teoria dell’informazione l’autoinformazione è il contenuto di informazione legato all’uscita di una variabile casuale. L’autoinformazione di un evento è legata alla probabilità dell’evento stesso: maggiore è la probabilità che l’evento si realizzi, minore è l’autoinformazione contenuta nell’evento. Ad esempio il contenuto di autoinformazione legato all’evento “uscita del numero quattro” nel lancio di un dado (p = 1/6) è molto minore del contenuto di autoinformazione legato all’evento “realizzazare un sei al superenalotto”(p w 1.3 · 10−8 )... Richiedendo che l’autoinformazione sia una quantità non negativa un evento certo abbia autoinformazione nulla T l’autoinformazione IC di un evento C = A B, con A e B eventi mutuamente indipendenti sia data da IC = IA + IB si ottiene per l’autoinformazione di un evento A con probabilita pA l’espressione: IA = −log(pA ) (2.1) Dunque, se X è una variabile casuale a valori x1 , ...., xN e pi = p(xi ) è la funzione di probabilità associatasi definisce entropia di Shannon il valore di aspettazione dell’autoinformazione di X ovvero: SShannon = − N X i=1 pi log(pi ) (2.2) 10 2 Entropia e secondo principio della termodinamica Osservazione La funzione di probabilità che massimizza l’entropia è quella che associa una uguale probabilità ai valori che può assume la variabile aleatoria X (si può verificare massimizzando PN l’entropia con vincolo sui coefficienti cpi usando l’equazione, ovvero ∂p∂ j S + (λ j=1 pj − 1) = 0 In tal caso l’entropia assume il valore S = logN Osservazione Nel caso la variabile X sia una variabile casuale continua si sostituisce alla sommatoria un integrazione ed alla funzione di probabilità la densità di probabilità. Vediamo come questa formulazione possa essere applicata alla meccanica statistica. 2.1.1 L’entropia di Von Neumann in meccanica statistica quantistica Il concetto di “disordine” di un sistema statistico, in un’interpretazione “soggettivistica” dell’operatore densità, è legato alla possibilità di conoscere in quale stato fisico si trovi il sistema: un sistema macroscopico è tanto più “disordinato” quanto maggiore è il numero di microstati nei quali esso può trovarsi. Dunque più un sistema è disordinato maggiore è la quantità di informazione che riceviamo (o meglio dovremmo ricevere) nel conscere lo stato quantistico che lo descrive. Ricordando l’espressione per l’operatore densità di uno stato misto può essere scritta come %̂ = N X pi |ei i hei | (2.3) i=1 dove il coefficientie pi rappresentano la probabilità che lo stato si trovi nello stato |ei i, in analogia con quanto visto per la teoria dell’informazione, definiamo l’entropia(di von Neumann) come: S = −tr(%̂log%̂) (2.4) Osservazione Nel caso lo stato descritto dall’operatore densità rappresenti uno stato puro del sistema dall’idempotenza dell’operatore segue S = −tr(%̂log%̂) = −tr(%̂log%̂2 ) = −2tr(%̂log%̂) = 0 (2.5) L’entropia è un’invariante per trasformazioni unitarie U , pooichè la traccia dipende solo dagli autovalori invarianti per trasformazioni unitarie. Infatti, in modo più formale, avremo che, sotto trasformazioni unitarie: %̂ 7−→ U %̂U −1 (2.6) e, nel caso in cui l’operatore densità abbia autovalori positivi: log(%̂) 7−→ log(U %̂U −1 ) = U log(%̂)U −1 (2.7) S = −tr(%̂log%̂) 7−→ −tr(Û %U −1 U log%̂U 1 ) = −tr(%̂log%̂) (2.8) Da cui segue che 2.2 Alcune proprietà dell’entropia Nel dimostrare alcune proprietà dell’entropia è utile definire il seguente lemma Lemma Dati una coppia di operatori non negativi (ovvero con autovalori non negativi) X̂, Ŷ allora vale la seguente disugualglianza: tr(X̂logŶ ) − tr(X̂logX̂) ≤ tr(Ŷ − X̂) (2.9) con l’uguaglianza che vale se e solo se X̂ = Ŷ . Dimostrazione Consideriamo gli autostati di X̂ ed Ŷ tali che X̂ |mi = xm |mi e Ŷ |qi = yq |qi, trascurando dunque la degenerazione. Avremo, quindi: 2.2 Alcune proprietà dell’entropia X m Poichè P q hm| X̂logŶ |mi − X xm logxm = m X xm | hq|mi |2 logyq − m,q X xm logxm 11 (2.10) m | hq|mi |2 = 1 l’espressione (2.10) diventa y X yq X X q xm log | hq|mi |2 ≤ xm − 1 | hq|mi |2 = yq − xm = tr(Ŷ − X̂) xm xm m,q m,q q m X (2.11) c.v.d. Da questo lemma possiamo dimostrare tutta una serie di proprietà dell’entropia: L’entropia massima in uno spazio di Hilbert N-dimensionale è pari a SM AX = logN ; per dimostrare tale risultato è sufficiente applicare il lemma che abbiamo dimostrato con X̂ = %̂ e ˆ ; Ŷ = I/N ˆ − %̂) ≥ tr %̂log(I/N ˆ ) − tr %̂log%̂ = −(tr%̂)logN + S ⇒ S ≤ logN 0 = −tr(I/N (2.12) Nel caso di sistemi non entangled l’entropia è una quantità additiva; in particolare se nel lemma poniamo X̂ = %A+B e Ŷ = %̂A ⊗ %̂B e sfruttando il fatto che tr %̂A+B log(%̂A ⊗ %̂B ) = trA trB %̂(log%̂A ⊗ IˆB ) + trA trB %̂(logIˆA ⊗ %̂B ) (2.13) troviamo che S(%A+B ) ≤ S(%ˆA ) + S(%ˆB ) (2.14) con l’uguaglianza che vale solo se %̂A+B = %̂A ⊗ %̂B ovvero se e solo se A e B non sono entangled. Dunque, l’interazione (introducendo una correlazione) riduce l’informazione necessaria a conoscere il sistema. L’entropia è una funzione concava di %̂, ovvero ovvero, considerati due operatori densità %̂1 e %̂2 e un parametro 0 < λ < 1 allora: S(λ%̂1 + (1 − λ)%̂2 ) ≥ λS(%̂1 + (1 − λ)S(%̂2 ) (2.15) tale disuguaglianza si dimostra sostituendo nel solito lemma X̂ = %̂1 Ŷ = %̂ = λ%̂1 + (1 − λ)%̂2 e successivamente Ŷ = %̂1 e X̂ = %̂2 . Se consideriamo due stati puri del sistema %̂1 , %̂2 avremo che S(λ%̂1 + (1 − λ)%̂2 ) ≥ 0 L’entropia aumenta, dunque in seguito all’introduzione di un ulteriore elemento casuale legato al parametro λ. Osservazione Il processo di misura aumenta l’entropia del sistema, poichè il collasso della funzione d’onda avviene in modo casuale introducendo un’ulteriore indeterminazione ed aumentando quindi l’entropia del sistema. PInfatti, se consideriamo il processo di misura di un’osservabile con autovalori a avremo che %̂ 7−→ a P̂a %̂P̂a = %̂0 . Si avrà quindi: X S(%̂0 ) = − Tr(%̂0 log %̂0 ) = − Tr P̂a %̂P̂a log %̂0 . (2.16) a Usando le proprietà di ciclicità della traccia si ottiene X S(%̂0 ) = − Tr %̂ P̂a log %̂0 P̂a = − Tr(%̂ log %̂0 ) (2.17) a Poichè log %̂0 è diagonale sulla base degli autovalori a. Per cui, posto X̂ = %̂ e Ŷ = %̂0 ed usando il solito lemma, si ottiene S(%̂) ≤ S(%̂0 ) 12 2 Entropia e secondo principio della termodinamica 2.3 Il principio fondamentale della meccanica statistica La definizione nei termini che abbiamo dato dell’entropia, permette di descrivere lo stato fisico di un sistema attraverso l’operatore densità, a partire dalla descrizione macroscopica del sistema. Principio fondamentale della meccanica statistica Fra tutti gli operatori densità atti a descrivere lo stato di un sistema, compatibilmente con i dati noti dal punto di vista macroscopico, si sceglie quello che massimizza l’entropia. E’ importante notare che ogni stato macroscopico del sistema è caratterizzato da una distribuzione dell’energia tra i diversi sottosistemi. Il principio sopra enunciato dice che un sistema per raggiungere l’equilibrio statistico passa una serie di stati consecutivi caratterizzati da una distribuzione di energia sempre più probabile. Per cui, ricordando la definizione di entropia statistica di Shannon per cui la probabilità va come eS dove S è l’entropia del sistema, si può dire che i processi che avvengono in un sistema isolato in uno stato di non-equilibrio sono tali che il sistema evolva in maniera continua attraverso stati ad entropia sempre maggiore fino a raggiungere il massimo possibile corrispondente all’equilibrio statistico completo. Si osservi che in forza della natura esponenziale della probabilità la diminuzione dell’entropia del sistema (comunque possibile) non può praticamente essere osservata in natura. Per cui, trascurando le diminuzioni dell’entropia legate a fluttuazioni infinitesime si può asserire quanto segue: se ad un dato istante l’entropia di un sistema isolato è diversa dal suo valore massimo, negli istanti successivi l’entropia non decresce, ma aumenta o, nel caso limite, rimane costante. Benchè queste osservazioni siano confermate dalle esperienze comuni che si possono fare nella quotidianità, ad un’indagine più approfondita delle leggi fisiche possono venire alla luce delle contraddizioni che non sono state finora superate. Infatti, secondo i risultati della statistica, l’Universo dovrebbe trovarsi in uno stato di equilibrio statistico completo, con questo si intende che dovrebbe essere in equilibrio una qualsiasi sua parte di grandezza arbitraria (finita) il cui tempo di rilassamento è in ogni caso finito, ma l’esperienza di tutti i giorni ci convince che le proprietà della natura non hanno niente a che vedere con le proprietà di un sistema all’equilibrio, inoltre i dati astronomici mostrano che lo stesso si ha anche per gran parte dell’Universo osservabile. Si può risolvere questa contraddizione solo ricorrendo alla relatività generale: i campi di gravitazione che permeano l’Universo infatti sono causa di una variazione della metrica dello spazio-tempo; ora, nello studio delle proprietà statistiche dei corpi, queste proprietà metriche possono essere considerate come condizioni al contorno del sistema che si vuole descrivere, e queste condizioni al contorno non sono stazionarie. E’ evidente che l’affermazione secondo la quale un sistema isolato deve passare ad uno stato di equilibrio dopo un intervallo di tempo sufficientemente lungo è valida nel caso di condizioni al contorno stazionarie, mentre è noto che l’espansione cosmologica sottintende che la metrica è funzione del tempo. Perciò, considerato che in relatività generale il mondo intero non può essere considerato come un sistema isolato nel senso sopra inteso ma come un sistema collocato in un campo gravitazionale variabile, l’applicazione della legge dell’aumento dell’entropia non conduce necessariamente all’equilibrio statistico. Inoltre, costruendo l’insieme statistico attraverso le leggi della meccanica classica (nel caso di un gas si considera che le leggi che governano il moto delle singole particelle costituenti il gas siano le leggi della dinamica: le equazioni di Hamilton), si dovrebbe avere invarianza per inversioni temporali t → −t. Pertanto, se le equazioni sopra citate ammettono un moto, ammetteranno anche un moto inverso in cui il sistema passa per le stesse configurazioni ma in senso opposto. E’ ovvio che questa simmetria debba riscontrarsi anche in una statistica basata sulla meccanica classica. Quindi, se è possibile un processo accompagnato dall’aumento dell’entropia del sistema macroscopico isolato, deve essere possibile anche il processo inverso in cui l’entropia decresce. Formulando la legge dell’aumento dell’entropia si è parlato della conseguenza più probabile dell’evoluzione di uno stato macroscopico dato ad un certo istante, ma questo stesso stato deve derivare a sua volta da altri stati 2.4 Costruzione dell’operatore densità per insiemi statistici 13 in seguito a processi che seguono le leggi fisiche; per cui, assumendo la simmetria per inversione temporale di queste leggi, dato uno stato del sistema al tempo t0 si può affermare, non solo che la conseguenza più probabile per gli istanti t > t0 sia l’aumento dell’entropia, ma anche che lo stato in questione derivi da stati ad entropia maggiore. In altre parole: l’entropia come funzione del tempo, all’istanto t0 in cui si è scelto arbitrariamente lo stato macroscopico, deve trovarsi in un minimo. E’ evidente che questa formulazione non è equivalente alla formulazione dell’aumento dell’entropia enunciata in precedenza. Per passare da una formulazione all’altra c’è bisogno di introdurre il concetto di “osservatore“ che ad un dato istante abbia costruito il sistema in esame facendo perdere di significato il suo comportamento precedente; è chiaramente innammissibile legare in questo modo le leggi fisiche alle proprietà dell’osservatore. Dal punto di vista quantistico la situazione è sostanzialmente diversa. Infatti, nonostante l’equazione di Schrödinger sia simmetrica per l’inversione t → −t (a condizione di sostituire ψ → ψ ∗ ), la meccanica quantistica contiene una non equivalenza dei due sensi del tempo derivante dal postulato del collasso del vettore di stato. Precisamente, se un oggetto quantistico è soggetto a due processi di interazione A e B, l’affermazione secondo la quale la probabilità di uno o un altro risultato possibile del processo B è determinata da un risultato del processo A può essere vera solo nel caso in cui il processo A si sia verificato prima del processo B. Quindi la legge dell’aumento dell’entropia potrebbe essere l’espressione macroscopica di questa non equivalenza tra i due sensi del tempo. Allora dovrebbe esistere una disuguaglianza contenente la costante quantistica }, che soddisfacesse le leggi fisiche, giustificando l’esattezza di questa legge. Tuttavia, nessuno è riuscito finora a scoprire in modo convincente un tale legame ed a dimostrarne l’esistenza. 2.4 Costruzione dell’operatore densità per insiemi statistici Rispetto a quanto stabilito dal principio fondamentale della meccanica statistica, diviene necessario stabilire una procedura che permetta di calcolare la variazione dell’entropia in funzione delle variazioni degli operatori di cui è funzione. ˆ 0 (Â) (si pensi ad esempio Tale operazione non è banale poichè, in generale f ( + δ Â) 6= f (Â) + δAf Â+B̂ A B 6= e e ). Poichè %̂ ha tutti autovalori positivi con pi ∈ [0, 1], possiamo scegliere un X̂ tale ae P che %̂ = Iˆ − X̂ per cui log(1 − X̂) = − n X̂ n /n In tal caso, si avrà che S(X̂) = Tr (Iˆ − X̂) X X̂ n n (2.18) e quindi ˆ = Tr (Iˆ − X̂) S(X̂ + δX) X X̂ X (X̂ + δX) ˆ n ˆ − Tr δX n n n n (2.19) ˆ 6= 0 al prim’ordine in δX ˆ si avrà Poichè, in generale, [X̂, δX] h X n−1 X X̂ n−k−1 δX X Xn ˆ X̂ k i ˆ = Tr (Iˆ − X̂) ˆ S(Iˆ − X̂ − δX) − Tr δX + S(Iˆ − X̂) n n n n (2.20) k=0 A causa della P presenza di un’operazione di traccia (si sfrutta la ciclicità), tutti i termini nella sommatori k danno lo stesso contributo n−1 +∞ i X h X X Xn ˆ = 1 ˆ X̂ n−1 − Tr δX ˆ S(Iˆ − X̂ − δX) + S(Iˆ − X̂) Tr (Iˆ − X̂) δX n n n n=1 k=0 Poichè la somma su n nel primo termine può essere risommata come serie geometrica si avrà (2.21) 14 2 Entropia e secondo principio della termodinamica i h X Xn ˆ ˆ log(I− ˆ ˆ = Tr (I− ˆ I− ˆ X̂) = Tr(δX)+Tr ˆ X̂) +S(I− ˆ X̂) ˆ X̂−δX) ˆ X̂)δX( ˆ X̂)−1 −Tr δX +S(I− δX S(I− n n (2.22) Risostituendo l’espressione per %̂ troviamo ˆ = − Tr(δ%) ˆ − Tr(δ% ˆ log %̂) − S(%̂) S(%̂ + δ%) (2.23) δS = − Tr(δ %̂) − Tr(%̂ log %̂) (2.24) e quindi 2.4.1 Funzione densità per un sistema isolato: l’insieme microcanonico Consideriamo un sistema isolato (ad energia fissata) il cui stato fisico sia descritto da un vettore di stato del tipo |ψk i = |a1 , ...., an , ∆k i dove a1 , ..., an sono autovalori fissati di n grandezze osservabili compatibili tra loro e conservate dalla dinamica del sistema tali che [Ai , Aj ] = 0 e [H, A] = 0 mentre ∆ rappresenta la degenerazione sugli altri numeri quantici del sistema. Questi vincoli equivalgono a richiedere che che l’energia si conservi (ad es. Â1 = H) e che gli autovalori non a1 , ..., an non fluttuino nel tempo in virtù della conservazione dell’energia. Lo stato |ψk i è dunque uno stato puro del sistema. Lo stato con entropia massima è quello che realizza la condizione S = log N dove N è il numero di stati microscopici compatibili con lo stato in cui sono fissati gli n autovalori ai . %̂microcanonico = P̂a1 ,...,an Tr(P̂a1 ,...,an ) = 1 N X Tr(P̂a1 ,...,an ) i=1 |a1 , ..., an , ∆i i ha1 , ..., an , ∆i i (2.25) Questa è l’espressione dell’operatore densità in un sistema isolato in cui siano fissati gli autovalori di un certo numero di osservabili compatibili, ovvero l’insieme statistico cosidetto microcanonico. 2.4.2 Funzione densità per l’insieme grancanonico Consideriamo adesso un sistema non isolato, ma in connessione con un reservoir esterno. L’hamiltoniana che agisce sugli stati del sistema sarà, quindi della forma H = H0 + V dove H0 è la hamiltoniana che descrive le interazioni interne al sistema, mentre V è la parte che descrive il potenziale di interazione fra il sistema ed il reservoir esterno. Vogliamo sottolineare che il reservoir esterno non risponde alle fluttuazioni di S ovvero le condizioni imposte dal reservoir sono fissate e costanti nel tempo. La richiesta di avere un insieme grancanonico equivale a considerare un set di operatori Â1 , ...Ân compatibili tra loro e con la hamiltoniana H0 e imponendo che il loro valore d’aspettazione sullo stato del sistema sia costante nel tempo, ovvero: ∀i, j = 1, ..n [Âi , Âj ] = 0 (2.26) [Ĥ0 , Âi ] = 0 ∀i = 1, ..n d d dt hÂi i = dt Tr(%̂Â) = 0 ∀i = 1, .., n Osservazione Se si considera Â1 = H allora dalla condizione hÂ1 i = cost si traduce, nella rappresentazione di Heisenberg: ∂ Â1 ∂ Â1 Tr %̂[Ĥ, Â1 ] + = Tr %̂ =0 (2.27) ∂t ∂t Ĥ0 Dunque, per avere equilibrio, supposto che ∂∂t = 0, abbiamo che ∂∂tV̂ = 0. In caso contrario possiamo pensare di studiare l’andamento dell’entropia istante per istante. In particolare, nel caso il reservoir risponda alle variazioni del sistema S, dovremo considerare un operatore densità della forma: 2.4 Costruzione dell’operatore densità per insiemi statistici %̂S = TrR %̂R+S i ∂ %̂ = [Ĥ, %̂] ∂t 15 (2.28) In un tal caso l’operatore Ĥ è come se non fosse più hermitiano perchè l’evoluzione non è unitario Osservazione Da notare che poichè in genere si considerano osservabili che non dipendono esplicitamente dal tempo, l’evoluzione temporale degli operatori Ai è data, in accordo con il teorema di Erhenfest, dall’espressione: d (2.29) i Âi = [Âi , V̂ ]. dt Osservazione L’entropia è stazionaria all’equilibrio stazionario, infatti: dS d%̂ d%̂ = − Tr( log %̂) − Tr dt dt dt (2.30) Assumendo un’evoluzione del tipo i ddt%̂ = [Ĥ, %̂] avremo: dS = − Tr([Ĥ, %̂] log %̂) − Tr([Ĥ, %̂]) dt (2.31) Sfruttando le proprietà di ciclicità della traccia abbiamo che Tr([., .]) = 0; quindi dS = − Tr(Ĥ %̂ log %̂) + Tr(%̂Ĥ log %̂) = 0 dt (2.32) come segue sfruttando le proprietà di ciclicità della traccia. ∂ %̂ Affinchè l’entropia vari è necessario che i dS dt = [Ĥ, %̂] + ∂t per cui: ∂ %̂ dS = − Tr log %̂ dt ∂t (2.33) Determiniamo la forma dell’operatore densità %̂ nel sistema macrocanonico, sfruttando il principio fondamentale della meccanica statistica ricordando di massimizzare l’entropia con i vincoli hÂi i = Ai . Usando il metodo dei moltiplicatori di Lagrange, dobbiamo dunque estremare la funzione: X S + vincoli = − Tr(%̂ log %̂) − λi (Tr(%̂Âi ) − Ai ) + λ0 Tr(%̂ − 1) (2.34) i ˆ Abbiamo quindi attraverso la sostituzione %̂ 7−→ %̂ + δ% X ˆ − Tr(δ% ˆ log %̂) − ˆ Âi ) + λ0 Tr(δ%) ˆ =0 δ(S + vincoli) = − Tr(δ%) λi Tr(δ% (2.35) i Sfruttando le proprietà di linearità della traccia: X ˆ =0 Tr[(−1̂ − log %̂ − λi Âi + λ0 )δ%] (2.36) i ˆ avremo che: Dovendo essere valida per un generico δ% X %̂0 = exp − λi Âi + (λ0 − 1)Iˆ (2.37) i Che possiamo riscrivere come: %̂0 = e− P i Z λi Âi Z = Tr(e− P i λi Âi ) (2.38) 16 2 Entropia e secondo principio della termodinamica La funzione Z, media pesata degli stati del sistema, si dice funzione di partizione. Verifichiamo che tale espressione massimizzare effettivamente l’entropia; X S(%̂0 ) = − Tr(%̂0 log %̂0 ) = λi Tr(%̂0 Âi + log Z) (2.39) i Sostituendo in Tr(X̂ log Y ) − Tr(X̂ log X̂) ≥ 0 l’espressione X̂ = %̂ 6= %̂0 e Ŷ = %̂0 si dimostra che la distribuzione %̂0 in effetti massimizza S(%̂). Nell’operatore densità compaiono i moltiplicatori di Lagrange che abbiamo introdotto per massimizzare l’entropia con gli opportuni vincoli. Dobbiamo adesso trovare il modo di ricavare il significato fisico di questi moltiplicatori in analogia con il caso degli insiemi statistici classici. 2.4.3 L’opeartore densità per l’insieme canonico Nel caso dell’insieme microcanonico, ovvero per uno sistema in cui siano fissati gli autovalori di un set completo di osservabili, la forma dell’operatore densità è data: %̂ = P̂a1 ,...,an Tr Pa1 ,...,aN (2.40) Per un sistema grancanonico, in cui tutte le osservabili son accoppiate con l’esterno, per cui è possibile fissarne solo il valor medio, l’operatore densità sarà della forma: %̂ = 1 − PN i=0 λi Âi . e Z (2.41) Possiamo dunque immaginare un sistema in cui alcune osservabili sono accoppiati con l’esterno mentre altre sono fissate: %̂ = 1 − Pm i=0 λi Âi P̂ e am+1 ,...,aN Z Z = Tr(e− P i λi Âi P̂am +1,..,aN ) (2.42) un’esempio è l’insieme canonico in cui è fissato il numero di particelle mentre l’energia può essere scambiata con l’esterno e fluttua attorno ad un valor medio costante. 2.5 Alcune proprietà della funzione di partizione Notiamo anzitutto la seguente ugualianza, nella quale sfruttiamo [Âi , Âj ] = 0 ∀i, j e− P Âj P P 1 1 ∂ Tr(Âi e− j λj Âj ) = − Tr(e− λj Âj ) = Z Z Z ∂λi 1 ∂Z ∂ log Z =− =− = hÂi i Z ∂λi ∂λi Tr(%̂Âi ) = Tr(Âi j )= (2.43) Tale uguaglianza è valida all’equilibrio statistico ed offre un metodo attraverso il quale, assegnati i paramentri λi , è possible ricavare i momenti primi hÂi i. Invertendo questa relazione, in modo opportuno, è possibile ricavare i coefficienti λi una volta assegnati i hÂi i. Osservazione Analogamente a quanto si è visto, è possibile trovare un’espressione per i momenti secondi delle osservabili Ai , Aj . Infatti, P P ∂2Z ∂2 = Tr(e− k λk Âk ) = Tr(Âj Âi e− k λk Âk ) ∂λi λj ∂λi ∂λj (2.44) 2.5 Alcune proprietà della funzione di partizione Mentre, per il logaritmo della funzione di partizione si ha: ∂ 2 ln Z ∂ 1 ∂Z 1 ∂Z ∂Z 1 ∂2Z = =− 2 + = ∂λi ∂λj ∂λi Z ∂λj Z ∂λi ∂λj Z ∂λi ∂λj 17 (2.45) = −hÂi ihÂj i + hÂi Âj i Nel caso in cui i = j avremo che ∂ 2 log Z = hÂi i − hÂi i2 ∂λ2i (2.46) Vediamo quindi trovare un metodo per dare un’interpretazione fisica dei λi ; consideriamo l’entropia S = S(hÂ1 i, ..., hÂN i) come funzione di hÂi i: S = − Tr(%̂ log %̂) = − Tr %̂(− X i X ∂ log Z X λi Âi −log Z) = λi hÂi i+log Z = log Z − λi (2.47) ∂λi i i Passando ai differenziali: dS = d log Z − d X λi i = X ∂ log Z i = X ∂λi dλi − ∂ log Z = ∂λi X ∂ log Z ∂λi i dλi − X i λi ∂ log Z ∂λi = (2.48) λi dhÂi i i Dunque, all’equilibrio: ∂S ∂hÂi i = λi (2.49) Identificando l’entropia S con l’entropia termodinamica calcolata classicamente ed identificando le hÂi i con le grandezze macroscopiche di cui è fissato il valor medio nell’insieme statistico considerato è possibile ricavare il significato dei moltiplicatori λi . Osserviamo, infine la relazione che intercorre fra l’entropia ed il logaritmo della funzione di partizione: X ∂ log Z S = log Z − λi (2.50) ∂λi i d’altraparte avremo che: log Z = S + X i =S− λi X ∂ log Z =S− λi hÂi i = ∂λi i X ∂S i ∂hÂi i (2.51) hÂi i Dunque, fra log Z e S c’è una trasformata di Legendre. Quanto visto sinora, a rigore, riguarda un insieme statistico per cui l’operatore densità è una funzione delle osservabili Âi attraverso una funzione del tipo e−λi Âi ; dobbiamo dunque per esprimere gli operatori di proiezione in una forma analoga a questa. Sfruttando il fatto che il gruppo delle trasformazioni unitarie unidimensionali è associato alle osservabili con spettro discreto o con grandezze addittive, possiamo scrivere 18 2 Entropia e secondo principio della termodinamica P̂ai = 1 2π Z π dϕe−iai ϕ eiϕ (2.52) −π dove ai è un autovalore dell’operatore Âi . Per dimostrare questa espressione è sufficiente ricordare che, per un operator con spettro discreto vale: X eiϕÂi = eiϕai |ai i hai | (2.53) ai e, usando la relazione ei2πÂi si conclude che P̂a2i = P̂ai . In questo modo è possibile determinare la funzione di partizione anche per un insieme che abbia fissate alcuni autovalori delle osservabili, mentre di altre osservabili è fissato solo il valor medio( insieme canonico): Z π P P 1 − i λi Âi ϕe−ia0 ϕ Tr e− i λi Âi eiϕÂ0 Zc = Tr(e P̂a0 ) = 2π −π | {z } Zgrancanonica con λ0 =iϕ (2.54) Z π 1 = dϕe−ia0 ϕ ZGC (λ1 , ..., λN , λ0 = iϕ) 2π −π Osservazione Le funzioni di partizione sono funzioni di variabile complessa, in generale; dallo studio delle proprità di analiticità si ricavano informazioni sulle transizioni di fase. 2.5.1 Appendice: l’interpretazione fisica dei moltiplicatori di lagrange per una %̂ nell’insieme grancanonico e canonico Il punto chiave che permette di rendere veramente efficace la prescrizione sin qui descritta per determinare l’operatore densità che rappresenta un sistema, assume un senso nel momento in cui si interpretino dal punto di vista fisico i moltiplicatori di Lagrange associati a ciascun operatore. Per fare ciò è necessario procedere in analogia con il caso termodinamico, costruendo le varie grandezze termodinamiche a partire dalle derivate dell’entropia rispetto ai valori medi delle osservabili. Procedendo in questo modo possiamo identificare i seguenti moltiplicatori: il moltiplicatore accoppiato alla hamiltoniana H è λĤ7−→ 1 dove T è la temperatura del sistema T il moltiplicatore accoppiato al numero di particelle1 N è legato al potenziale chimico µ dalla relazione λN̂ 7−→ Tµ ; nel limite non relativistico, il moltiplicatore associato alla i-esima componente dell’impulso P̂i è proporzionale alla i-esima coordinata della velocità del centro di massa del sistema vi secondo la relazione λP̂i 7−→ vTi ; nei sistemi rotanti, il moltiplicatore legato al momento angolare lungo un asse Jˆz è legato alla velocità angolare dalla relazione λJˆz 7−→ Tω dove ω è la velocità angolare del sistema Approfondiremo in seguito l’interpretazione classica delle grandezze che abbiamo trovato attraverso il formalismo dell’operatore densità. 2.5.2 Appendice: il sistema rotazionale Consideriamo il caso particolare di un sistema rotante dal punto di vista della meccanica statistica. In riferimento a quanto abbiamo visto possiamo imporre ad un sistema canonico nell’energia (ovvero termalizzato ad una temperatura T ): 1 In meccanica statistica quantistica relativistica il numero di particelle non è un’operatore locale; al suo posto si trova una qualche carica associata alle simmetrie del sistema come ad esempio la carica elettrica Q̂. 2.5 Alcune proprietà della funzione di partizione 19 un valore costante nel momento angolare (sistema microcanonico angolare) che possa avere un momento angolare lungo un asse fluttuante attorno ad un valor medio (sistema grancanonico con momento angolare); massimizzando l’entropia del sistema si otterrà l’operatore densità che rappresenta il sistema. Limitandoci a considerare il caso grancanonico, avremo che: ˆ %̂ = e−β Ĥ+βωJz Z (2.55) ∂S . Vediamo dunque come sia possibile interpretare classicamente il significato di ∂J z Sia dato un fluido (sistema continuo) isolato all’equilibrio com momento angolare J lungo un asse fissato. Posso studiare tale sistema suddividendolo idealmente in ”cellette“ ciascuna delle quali è un sistema statistico grancanonico: alla ”celletta“ i-esima attribuisco una certa velocità di insieme delle particelle che la compongono vi . Si è assegnato in questo modo un campo di velocità; ciò che si vuole determinare è la forma del campo di velocità, di energia e di momento angolare che rende massima l’entropia2 (condizione di equilibrio). Assumendo che le ”cellette“ siano independenti tra loro (ovvero trascurando gli effetti di eventuali interazioni a lungo raggio), possiamo scrivere: X S= Si (2.56) i dove Si rappresenta l’entropia della ”celletta“ i-esima. Tenuto conto di ciò, possiamo imporre i vincoli fissando l’energia, l’impulso ed il momento totale del sistema considerando la funzione: X X X S + vincoli = S − β Ei − E0 + βv· Pi − P0 + βω· Ji − J 0 (2.57) i i i Dunque uguagliando a zero la derivata di tale funzione rispetto all’energia Ej della j-esima celletta e considerando che l’entropia, all’equilibrio, è una funzione di stato dell’energia interna, ovvero: Sj (Uj ) = Sj (Ej − Pi2 ) 2mi (2.58) avremo quindi: ∂ ∂S ∂S (S + vincoli) = −β = −β =0 ∂Ej ∂Ej ∂Uj (2.59) da cui: 1 ∂S =β= ∀j; ∂Uj T rispetto all’impulso Pj e ricordando che Ji = xi × Pi avremo: ∂ ∂S Uj 1 Pj 1 1 ω (S + vincoli) = + βv0 + βω × xj = − + + =0 ∂Pj ∂Uj Pj T M T T xj (2.60) (2.61) per cui otteniamo che il campo di velocità ha la forma: v j = v + ω × xj (2.62) per cui, se assumiamo che v sia la velocità del centro di massa del sistema e che ω rappresenti il vettore velocità angolare del sistema, vediamo cheall’equilibrio il fluido si comporta come un corpo rigido 3 ; 2 3 Nel caso quantistico la prescrizione è di massimazzare l’entropia rispetto all’operatore densità Se imponiamo un vincolo sul volume, il fluido inizierà a ruotare su un asse principale di inerzia 20 2 Entropia e secondo principio della termodinamica rispetto a Ji avremo, infine: ∂ ω = . ∂Ji T (2.63) Torniamo quindi al caso quantistico, trascurando l’impulso totale del sistema4 P = 0. In questo contesto non è possibile fissare il valore delle tre componenti del momento angolare (sistema microcanonico nel momento angolare lungo ciascuno dei tre assi) in modo indipendente poichè Jˆx , Jˆy , Jˆz non sono operatori tra loro compatibili. Tuttavia è possibile fissare il valor medio del vettore momento angolare se la hamiltoniana è invariante per rotazione(insieme macrocanonico rispetto ai momenti angolari) : Tr(%̂Ĵ) = J0 . (2.64) In tal caso, possiamo scrivere l’operatore densità nella forma: %̂ = e−β ĥ e−β Ĥ+βω·Ĵ 6= Z Q3 i=1 eβ ωi Jˆi Z (2.65) la disuguaglianza è proprio dovuta al fatto che gli operatori Jˆi non commutano fra loro5 La forma ∂ Tr(%̂Â) = 0. Tuttavia, in assenza di polarizzazioni, sarà dell’operatore densità è tale per cui ∂t sempre possibile scegliere il sistema di riferimento in modo tale che il momento angolare sia sempre diretto lungo un asse (ad es. l’asse z); valgono comunque le solite relazioni: ∂S ∂hĴi =− ω 1 ∂ log Z = hĴi. T β ∂ω (2.66) Una riflessione deve essere però fatta a proposito dell’arbitrarietà della scelta del sistema di riferimento e della relazione fra questa e le proprietà geometriche del sistema. In particolare si consideri la funzione di partizione del sistema rotazionale grancanonico: Z = Tr e−β Ĥ+βω·Ĵ (2.67) Osservazione Nel momento in cui si calcola la traccia di un sistema, si somma sugli stati quantici del sistema e questi dipendono dalla geometria del sistema. Per dimostrare il contributo decisivo della geometria del sistema vogliamo dimostrare che: ∂ hĴi = =0 (2.68) log Z ∂ω ω=0 Per dimostrare tale risultato è sufficiente dimostrare che la funzione Z = Z(ω) è pari, infatti: Z(−ω) = Tr(e−β Ĥ−βωJz ) = Tr(e−β Ĥ Rz (π)eβωJz Rz−1 (π) = = Tr Rz (π)e−β Ĥ eβωJz Rz−1 (π) = Tr(e−β Ĥ+βωJz ) = Z(ω) (2.69) dove Rz (π) rappresenta una rotazione di un angolo piatto attorno ad un asse ortogonale all’asse z. Vogliamo sottolineare che: usando le proprietà di ciclicità della traccia, come si è già visto, abbiamo assunto che l’operatore di proiezione PV sugli stati compatibili con la geometria di un certo volume V commuti con gli operatori O su cui si valuta la traccia, ovvero [PV , O] = 0. Quindi il risultato che abbiamo ricavato , ovvero che se la velocità angolare di un sistema è nulla allora anche il valor medio del momento angolare è nullo, è valido solo sotto certe ipotesi di simmetria. 4 5 Ciò può essere sempre realizzato in un SDR a riposo rispetto al fluido Benchè [%̂, Jˆz ] 6= 0, la stazionarietà è garantita da [Ĥ, Jˆz ] = 0 3 Equivalenza degli insiemi statistici nel limite termodinamico Nel capitolo precedente abbiamo visto che è possibile trovare una prescrizione per ricavare l’operatore densità che descriva lo stato di un insieme statistico. Tuttavia in analoga con la termodinamica classica dimostreremo che nel limite termodinamico, per cui limV →∞ N V = cost le descrizioni di uno stesso sistema attraverso insiemi statistici diversi, coincidono. Per dimostrare ciò è tuttavia necessario introdurre il concetto di estensività di una grandezza fisica. Diremo che una grandezza è estensiva se dipende linearmente dal volume del sistema ed un sistema estensivo è tale se l’entropia è una funzione di grado zero nel volume, ovvero S(xV, xE, xN ) = xS(V, E, N ) ∀x ∈ R (3.1) OssevazioneSe un sistema è estensivo allora anche la funzione log Z deve essere estensiva e può essere scritta nella forma log Z = V f (λ1 , ...λn ) condizione di estensività (3.2) poichè vale la (2.51) Osservazione Benchè l’estensività possa sembrare una proprietà ovvia per i sistemi che usualmente si incontrano, vi sono esempi di sistemi non estensivi: si pensi, ad esempio, ai sistemi con interazioni a lungo raggio. 3.1 Equivalenza dell’insieme canonico e grancanonico nel limite termodinamico 4 Il limite classico: funzione di Wigner Il questo capitolo si vuole verificare che la meccanica statistica quantistica nel limite } → 0 conduce ai noti risultati classici. Per fare ciò si introduce il concetto trasformata di Wigner. 4.1 Trasformata di Wigner Si consideri una particella in uno stato descritto dalla funzione d’onda ψ(x), si definisce per questa la funzione nelle variabili canoniche Z +∞ y y W (x, p, t) ≡ d3 yeip·y ψ ∗ (x + , t)ψ(x − , t) (4.1) 2 2 −∞ questa prende il nome di funzione di Wigner. Si noti che questa funzione è simile ad una densità di probabilità; infatti: Z Z +∞ y y 3 d pW (x, p, t) = d3 yδ 3 (y)ψ ∗ (x + , t)ψ(x − , t) = |ψ(x, t)|2 (2π)3 2 2 −∞ e analogamente Z d3 xW (x, p, t) = |ψ(p, t)|2 (2π)3 E’ importante notare che nonostante le proiezioni della funzione di Wigner siano distribuzioni marginali di probabilità, la funzione di Wigner non è una densità di probabilità nello spazio delle fasi, infatti 2 2 − ≤ W (x, p, t) ≤ } } non è cioè definita positiva. Si consideri ora uno stato |ψi che descrive uno stato puro, la funzione di Wiegner si può scrivere: Z +∞ y y W (x, p, t) = d3 yeip·y hx + |ψ(t)ihψ(t)|x − i 2 2 −∞ Si ricorda che %̂ = |ψihψ| quindi la formula sopra può essere generalizzata anche per gli stati misti. Inserendo due completezze nella base degli impulsi |ki si ottiene Z +∞ Z y y W (x, p, t) = d3 yeip·y d3 kd3 k 0 hx + |kihk|%̂|k’ihk’|x − i 2 2 −∞ 24 4 Il limite classico: funzione di Wigner Le autofunzioni dell’impulso nella base delle coordinate si esprimono y y ei(x+ 2 )·k |ki = 3 2 (2π) 2 hx + per cui si ottiene Z +∞ Z k k’ 1 eiy·(p− 2 − 2 ) eik·x e−ik’·x hk|%̂|k’i = 3 (2π) −∞ Z k k’ ik·x 3 3 0 3 = 8 d kd k δ p − − e hk|%̂|k’ie−ik’·x = 2 2 Z = 8 d3 keik·x hk|%̂|2p − ki = d3 y W (x, p, t) = d3 kd3 k 0 ed operando infine la sostituzione k −→ p − Z k 2 si ottiene +∞ d3 khp − W (x, p, t) = −∞ k k |%̂|p + ieik·x 2 2 (4.2) Questo tipo di trasformazione W : H∗ −→ C∞ (<2l+1 ) si dice trasformata di Wigner. Come si è detto la trasformazione di Wigner associa ad un operatore  che agisce su uno spazio di Hilbert una funzione A(x, p, t) continua nello spazio delle fasi classico: Z s x (4.3) A(x, p, t)W = d3 seip·s hp − |Â|x + i 2 2 La trasformata di Wigner è invertibile: ad una funzione nello spazio delle fasi si associa un operatore che agisce su uno spazio di Hilbert: Z d3 p ip·(x−y) x + y hx|Â|yi = e A( , p, t)W (4.4) (2π)3 2 è facile la verifica: d3 p ip·(x−y) e (2π)3 Z Z = Z d3 seip·s h d3 sδ 3 (x − y + s)h x+y−s x+y+s |Â| i= 2 2 x+y+s x+y−s |Â| i = hx|Â|yi 2 2 Si vuole ora mettere in evidenza la corrispondenza tra lo spazio degli operatori che operano sullo spazio di Hilbert e lo spazio delle fasi classico. Per fare ciò si calcola il valore medio dell’osservabile Â: Z Z 3 tr(%̂Â) = d xhx|%̂Â|xi = d3 xd3 x0 hx|%̂|x’ihx’|Â|xi = Z = d3 xd3 x0 d3 p ip·(x−x’) x + x’ e W( , p, t) (2π)3 2 Z si operano le sostituzioni a jacobiano 1: x − x’ = y, Z = 3 3 d yd X Z Z x+x’ 2 d3 p ip·y e W (X, p, t) (2π)3 Z d3 s is·(x−x’) x + x’ e A( , s, t)W = (2π)3 2 =X d3 s −is·y e A(X, s, t)W = (2π)3 4.1 Trasformata di Wigner Z = 25 d3 X 3 d pW (X, p, t)A(X, p, t)W (2π)3 che è proprio il valore di aspettazione della grandezza A(X, p, t) avente una distribuzione di probabilità W (x, p, t). La trasformata di Wigner di  si può anche esprimere nella forma alternativa: A(x, p)W = tr(ÂÊ(x, p)) con 1 Ê(x, p) = (2π)3 Z (4.5) d3 αd3 βeiα·(x̂−x)+iβ·(p̂−p) Ora, essendo x̂ e p̂ due osservabili non commutanti, l’esponenziale integrando non può essere fattorizzato, si deve perciò ricorrere alla formula di Zassenhaus: 1 1 eÂ+B̂ = e eB̂ e− 2 [Â,B̂] e 3! (2[B̂,[Â,B̂]]+[Â,[Â,B̂]]) ... (4.6) Ora, [x̂, p̂] = i}, è cioè costante, quindi i termini aventi all’esponente un commutatore tra un operatore ed il commutatore tra x̂ e p̂ sono pari a uno, per cui si ottiene: Z β 1 d3 αd3 βeiα·(x̂−x’) eiβ·(p̂−p) eiα· 2 (4.7) Ê(x, p) = 3 (2π) Si verifica che questa formulazione della trasformata di Wigner coincide con quella data in precedenza: Z β 1 d3 αd3 βeiα· 2 tr(Âeiα·(x̂−x’) eiβ·(p̂−p) ) = tr(ÂÊ(x, p)) = (2π)3 si fa la traccia sulla base degli impulsi e si inserisce una completezza nella base delle coordinate Z Z iq·y 1 3 3 iα· β 3 3 iα·(y−x) iβ·(q−p) e 2 d αd βe d qd yhq| Â|yie e = 3 = (2π)3 (2π) 2 Z = Z β eiq·y + y − x) d3 qd3 yhq|Â|yieiβ·(q−p) 3 = 2 (2π) 2 β Z Z β iβ·(q−p) eiq·(x− 2 ) 3 3 = d β d qhq|Â|x − ie 3 2 (2π) 2 d3 βδ 3 ( Ora, si ha che: e iβ·(q−p) e iq·(x− β 2 (2π) 3 2 ) = 1 (2π) β 3 2 eiq·(x+ 2 ) e−iβ·p ed inserendo una completezza nelle coordinate si ottiene Z Z Z e−iq·z β iq·(x+ β ) −iβ·p 3 3 2 e tr(ÂÊ(x, p)) = d β d z d3 q ie 3 hz|Â|x − 2 (2π) 2 Z Z β β 3 = d β d3 zδ 3 (x + − z)hz|Â|x − ie−iβ·p = 2 2 Z β β = d3 βhx + |Â|x − ie−iβ·p 2 2 e sostituendo β −→ −β si ottiene la definizione data in precedenza per la trasformata di Wigner. Esiste anche la formula di inversione: 26 4 Il limite classico: funzione di Wigner Z  = d3 xd3 p A(x, p)W Ê(x, p) (2π)3 (4.8) Si noti che nel caso si volesse calcolare la traccia di un operatore nello spazio delle fasi basta sostituire %̂ −→ 1, infatti Z y y W (x, p)1 = d3 yeip·y hx − |x + i = 1 2 2 in quanto hx − y2 |x + y2 i = δ 3 (y), per cui Z tr = d3 xd3 p A(x, p)W (2π)3 Si può verificare la formula di inversione dimostrando che trÊ(x, p) = 1. 4.2 Recupero delle equazioni del moto Si vuole ora calcolare la variazione nel tempo della funzione di Wigner, quindi, partendo da: i} ∂ %̂ = [Ĥ, %̂] ∂t si applica la trasformazione di Wigner ad entrambi i membri, per cui si ha: i} ∂W = ([Ĥ, %̂])W = (Ĥ %̂ − %̂Ĥ)W ∂t (4.9) Si vuole trovare la trasformata di Wigner del prodotto di due operatori: Z 3 3 Z 3 0 3 0 d xd p d xd p = (ÂB̂)W = A(x, p) Ê(x, p) B(x’, p’) Ê(x’, p’) W W (2π)3 (2π)3 W Z 3 3 3 0 3 0 d xd pd x d p A(x, p)B(x’, p’) Ê(x, p) Ê(x’, p’) = (2π)6 W Si può dimostrare che il prodotto di due operatori Ê calcolati in due punti distinti del piano delle fasi è: Z x + x’ + }β p + p’ − }α iα·(x−x’) iβ·(p−p’) Ê(x, p)Ê(x’, p’) = d3 αd3 β Ê , e e 2 2 Per cui si ha per il prodotto di due operatori: Z 1 1 ÂB̂ = d3 xd3 pd3 x0 d3 p0 A(x, p)W B(x, p)W · (2π)6 (2π)3 Z x + x’ + }β p + p’ − }α iα·(x−x’) iβ·(p−p’) · d3 αd3 β Ê , e e = 2 2 Effettuanto le sostituzioni: x − x’ = y p − p’ = q entrambe a jacobiano uno si ottiene: x + x’ =X 2 p + p’ =P 2 4.2 Recupero delle equazioni del moto = 1 (2π)6 27 Z y y q q B X − ,P − · d3 yd3 Xd3 qd3 P A X + , P + 2 2 W 2 2 W Z 1 β} α} iα·y iβ·q 3 3 · d αd β Ê X + , P − e e = (2π)3 2 2 sostituendo e = X + β} X 2 α} Pe = P − 2 si ottiene 1 = (2π)6 Z y β} e q α} e d αd βA X + − ,P + + · 2 2 2 2 e − y − β} , Pe − q + α} Ê(X, e Pe)eiβ·q eiα·y ·B X 2 2 2 2 3 3 e 3 qd3 Pe d yd Xd 1 (2π)3 Z 3 3 Ora, si ricorda che per quanto visto nella 4.8 si può dire che la trasformata di Wigner del prodotto di due operatori è: Z y β} e q α} 1 3 3 3 3 e e e (ÂB̂)W (X, P ) = d yd qd αd βA X + − ,P + + · (2π)6 2 2 2 2 W e − y − β} , Pe − q + α} eiβ·q eiα·y (4.10) ·B X 2 2 2 2 W Ora, fare il limite classico vuol dire fare il limite per } −→ 0 nell’equazione 4.9. Quindi, affinchè non si abbiano divergenze, il commutatore non deve avere termini di ordine zero in }. Si nota che nell’espressione trovata per la trasformata di Wigner del prodotto se ci si ferma all’ordine zero, i termini in α e β sono solo quelli esponenziali, integrando in queste variabili si ottengono quindi due delta di Dirac in q e y ed integrando quindi si devono valutare le funzioni in q = 0 e y = 0. Questo vuol dire che all’ordine zero la trasformata di Wigner di un prodotto è uguale al prodotto delle trasformate }−→0 (ÂB̂)W (x, p) −−−−→ (Â)W (x, p)W (B̂)W (x, p)W essendo queste funzioni nello spazio delle fasi che quindi commutano tra loro, il commutatore all’ordine zero risulta nullo. Andando all’ordine uno invece, le funzioni integrande diventano: β} α} β} α} }−→0 −−−−→ A + ∇x A · + ∇p A · B − ∇x B · + ∇p B · 2 2 2 2 Si nota che i termini all’ordine uno sono del tipo: Z 1 d3 ηeiη·k η = (2π)3 ∇k δ 3 (k) i nel senso delle distribuzioni, quindi: Z Z 1 d3 αeiα·y α d3 βeiβ·q = (2π)3 ∇y δ 3 (y)δ 3 (q) i Alla fine si ottiene: (ÂB̂)W = (Â)W (B̂)W " # 3 i} X ∂(Â)W ∂(B̂)W ∂(Â)W ∂(B̂)W + − 2 i=1 ∂xi ∂pi ∂pi ∂xi 28 4 Il limite classico: funzione di Wigner che scritto con le parentesi di Poisson risulta: (ÂB̂)W = (Â)W (B̂)W + o i} n (Â)W , (B̂)W 2 (4.11) Quindi, si ha che [Ĥ, %̂] W n o = (Ĥ)W , W + o(}) Si è perciò riottenuto il teorema di Liouville: n o ∂W = (Ĥ)W , W ∂t (4.12) Parte II Meccanica statistica relativistica: introduzione 5 Insieme microcanonico di un gas ideale relativistico La funzione di partizione di un gas ideale relativistico per cui si conservano il quadri-impulso e la carica è X Ω= δ 4 (P̂ − P0 )δQ,Q0 (5.1) states dove la somma sugli stati non è altro che l’operazione di traccia. Si notino due cose: innanzitutto questo è un oggetto dimensionato avente le dimensioni dell’inverso di una massa alla quarta ([M −4 ]); il termine δ 4 (P̂ − P0 ) non è un proiettore sugli stati di quadriimpulso fissato P0 in quanto non è idempotente e non c’è modo di rinormalizzarlo, questo problema è correlato al fatto che il gruppo delle traslazioni in quattro dimensioni non è compatto. D’ora in poi si trascureranno le cariche esattamente conservate. 5.1 Corpo nero Si riscrive la funzione di partizione esplicitando δ 4 (P̂ − P0 ), quindi: Z X 1 Ω= d4 xeiP0 ·x e−iP ·x 4 (2π) states sommare sugli stati equivale a sommare su tutti i possibili numeri di occupazione dei modi all’interno della scatola. Trascurando l’energia di vuoto ed esprimendo con nk il numero di fotoni presenti nel modo k si ottiene: Z X P 1 Ω= d4 xeiP0 ·x e−i k nk pk ·x (5.2) 4 (2π) {nk } Nel caso considerato, cioé quello di fotoni in una cavità, è necessario, affinchè la somma sui numeri di occupazione converga, dare ad x0 una piccola componente immaginaria negativa. Ricordando che X P XY XX Y YX e k −→ −→ ... = {nk } n1 {nk } k n2 k k nk e sfruttando la convergenza della serie geometrica 1 Ω= (2π)4 Z Riesprimendo la produttoria come +∞−iε Z dx0 −∞−iε d3 xeiP0 ·x Y (1 − e−ipk ·x )−1 k (5.3) 32 5 Insieme microcanonico di un gas ideale relativistico Y Y X (1 − e−ipk ·x )−1 = exp{log (1 − e−ipk ·x )−1 } = exp{ log (1 − e−ipk ·x )−1 } k k e, ricordando che nonostante la somma sui modi dipenda dalla geometria del sistema ma nel limite di volume grande si può passare al limite continuo Z X V d3 p −→ (2π)3 k si ottiene 1 Ω= (2π)4 Z 4 d xe iP0 ·x exp 2V (2π)3 Z 3 d p log (1 − e −ipk ·x −1 ) (5.4) (il fattore 2 davanti a V è dovuto alla degenerazione di polarizzazione dei fotoni). → − Ci si pone nel sistema di riferimento a riposo ( P = 0), Z Z 1 2V 4 iM x0 3 −ipk ·x −1 Ω= d xe d p log (1 − e ) exp (2π)4 (2π)3 ma, Z d3 p log (1 − e−ipk ·x )−1 = − Per cui si ottiene: 1 Ω= (2π)4 X1Z X 1 8πi x0 8πi π 4 d3 pe−ip·xn = − = n n n3 x4 x4 90 n=1 n=1 Z 4 d xe iM x0 exp V π 2 i x0 45 x4 (5.5) Sviluppando in serie l’esponenziale ed integrando termine per termine in d3 x si ottiene la seguente espressione: 1 Ω= (2π)4 Z +∞−iε dx0 eiM x0 −∞−iε n ∞ 4π 2 X V π 2 i 1 (4n − 4)! 3n−3 4n−3 i n=0 45 n!(2n − 1)!(2n − 2)! x0 2 (5.6) Si procede quindi con l’integrazione sul piano complesso. Si noti che nel caso in cui M < 0 si dovrebbe chiudere il cammino di integrazione con una semicirconferenza nel piano immaginario negativo in cui non sono presenti poli (l’unico polo presente è nell’origine) e quindi l’integrale sarebbe nullo. M può infatti essere interpretata come l’energia del corpo nero. La densità di stati per cella di quadri-impulso risulta quindi n ∞ 2 X π2 (4n − 4)! Ω= (V M 3 )n 4 πM n=2 720 n!(2n − 1)!(2n − 2)!(3n − 4)! (5.7) Si noti che (V M 3 ) è l’oggetto adimensionale che si può ”costruire“ con le grandezze fisiche in gioco, e che, come detto in precedenza Ω ha le dimensioni dell’inverso di una massa alla quarta. E’ importante notare che la somma sui modi parte da n = 2. Si può infatti interpretare ciascun termine della serie come la funzione di partizione a numero di fotoni fissato ! ! ∞ ∞ X X X X X 4 4 4 Ω= δ (P − P0 ) = δ (P − P0 )δN,N0 = δ (P − P0 )δN,N0 states states N0 =0 Per cui: Ω= N0 =0 ∞ X N0 =0 ΩN0 (P0 ) states (5.8) 5.2 Limite termodinamico 33 dove in questo caso Ω rappresenta la funzione di partizione canonica a numero di fotoni libero. Ora, la somma su N0 non può partire da 0 perché se non ci sono fotoni non si può imporre il vincolo sull’energia, né il primo termine può essere quello con N0 = 1 in quanto si devono fissare energia ed impulso ((M, o) nel SDR a riposo) ed il modulo del quadri-impulso coincide proprio con l’energia. Infatti nel caso di un fotone si deve avere: pµ pµ = E 2 − k2 = m2 = 0, perciò, fissata l’energia in un determinato SDR, si è fissato anche l’impulso spaziale, mentre quello che si vuole fissare è tutto il quadriimpulso. Si noti che in questo caso non è possibile trovare un SDR in cui l’impulso spaziale è nullo. La sommatoria deve perciò partire da N0 = 2. La serie 5.7 è convergente qualsiasi valore finito di V M 3 , infatti i termini sono minori o uguali P per xn della serie esponenziale n n! . Come già detto in precedenza, si ribadisce il fatto che la densità di stati Ω trovata è una grandezza dimensionata, non ha perciò senso parlare del logaritmo della densità di stati. Essendo però l’entropia definita a meno di una costante additiva si può riscalare la funzione di partizione tramite una costante moltiplicativa in modo che nel limite M → 0 si abbia S → 0. Si definisce in questo modo l’entropia: (∞ ) X π n (4n − 4)! π4 3 3 − 2 ln(V M ) + ln (V M ) (5.9) S ≡ − ln 103680 720 n!(2n − 1)!(2n − 2)!(3n − 4)! n=2 5.2 Limite termodinamico Nel limite V → ∞ e M → ∞ non si possono trascurare termini della serie. Per semplicità di calcolo si riprenderà dalla forma integrale della funzione di partizione 5.5 e si fa uno sviluppo asintotico (sviluppo nel punto di sella) nell’intorno del punto xµ tale che valga la seguente: M π2 4 = T V 15 (5.10) Questa è la formula nota della densità di energia del corpo nero. Asintoticamente si ha: 3 M 2T +Vπ Ω ∝ exp = exp {Scan } T 45 (5.11) Si vuole ora calcolare lo spettro di energia: in questo caso per spettro si intende il numero medio di fotoni per unità di quadri-impulso. Ricordando che: Z X P 1 Ω= d4 xeiP0 x e−i k nk pk x 4 (2π) {nk } ed eseguendo la sostituzione −ink pk x −→ (−ipk + α(p))nk si ha che ( ) X X ∂ exp (−ipk + α(p))nk ∂α(p) {nk } k = α(p)=0 X nk e −i P nk pk x {nk } che coincide proprio con il numero medio di fotoni a meno della normalizzazione. Per cui: dnj δ ∂ ln Ω 3 → − h 3 i= ln Ω[α] = δ (− p −→ p0 ) con p0 t.c. α(p) = 0 d p δα(p) ∂α(p) α(p) δ Dove con δα(p) si intende la derivata funzionale rispetto a α(p). Si ha perciò: (5.12) 34 5 Insieme microcanonico di un gas ideale relativistico h dnj 1 (2J + 1)V i= d3 p Ω (2π)3 Z +∞−iε d4 xeiP0 x −∞−iε 1 exp eipx − 1 Z d3 p (2J + 1)V −ipx ln(1 − e ) (2π)3 e sfruttando la convergenza della serie geometrica ∞ X 1 = e−ilpx eipx − 1 l=1 si ottiene: ∞ h X (2J + 1)V Ω(P0 − lP ) dnj i = d3 p (2π)3 Ω(P0 ) l=1 Affinché il calcolo dell’integrale con i residui non dia risultato nullo si deve avere (P0 − lP )2 ≥ 0 ⇒ l ≤ M 2ε In questo caso la serie è una somma finita di termini. Si noti che nel limite termodinamico si riottiene la formula di Planck. (5.13) 6 Meccanica statistica relativistica [...] Si consideri un insieme statistico con momento angolare medio fissato. Nel caso non relativistico si deve estremare la funzione: i ωh i 1h f = −tr(%̂ ln(%̂) − tr(%̂Ĥ) − E0 + tr(%̂Ĵ) − J0 (6.1) T T Si noti che in questa espressione si è imposto impulso medio nullo per semplicità, in questo caso, il moltiplicatore di Lagrange del vincolo è nullo a sua volta. L’estremazione de f conduce alla seguente espressione: Ĥ %= e− T + Z ω·Ĵ T (6.2) ora, essendo ω una costante la si può scegliere diretta lungo l’asse z. Nel caso relativistico, le deduzione dell’espressione per % è analoga. Sia T la temperatura misurata dall’osservatore. Si suddivide il corpo in tante cellette, la i-esima sarà caratterizzata da quadriimpulso (Ei , Pi ). Trascurando le interazioni tra le cellette (ognuna rappresenta un sistema isolato) si ha che l’entropia (funzione della sola energia interna U ∼ m) è: q X X S= Si = Si ( Ei2 − Pi2 ) (6.3) i i Imponendo i vincoli: Φ= X i q 1 X ω X Si ( Ei2 − Pi2 ) − ( Ei − E0 ) + ( Ji − J0 ) T i T i (6.4) dove Ji rappresenta il momento angolare totale della i-esima celletta (orbitale più spin) ma in questo caso si trascurerà lo spin per cui sarà: Ji = xi ∧ Pi L’estremazione con vincoli porta ai seguenti risultati: ∂Φ ∂Sj 1 =0⇒ − =0 ∂Ej ∂Ej T ∂Sj ∂Mj 1 = ∂Mj ∂Ej T ricordando che la derivata dell’entropia rispetto all’energia interna è l’inverso della temperatura invariante si ha: 1 Ej 1 γj = = T0j Mj T T0j 36 6 Meccanica statistica relativistica Si è quindi trovata la relazione che lega la temperatura comovente con la temperatura misurata nel sistema di riferimento fisso. Per le regole del prodotto misto si ha: ω · (xi ∧ Pi ) = Pi · (ω ∧ xi ) per cui: 1 (ω ∧ xj ) = 0 T Pj ∂Sj 1 ∇Pj Sj = ∇Pj Mj = ∂Mj T0j Mj ∇Pj Φ = 0 ⇒ ∇Pj Sj + da cui: Pj 1 = (ω ∧ xj ) T0j Mj T 1 1 1 γj vj = vj = (ω ∧ xj ) ⇒ vj = (ω ∧ xj ) T0j T T Il campo di velocità del sistema considerato è un campo di velocità tipico di un corpo rigido: il moto descritto dal fluido è un moto rigido di rotazione attorno ad un asse (in questo caso l’asse z). Si noti che rispetto al caso non relativistico la temperatura comovente è diversa da quella misurata nel sistema di riferimento esterno. Essendo infatti la temperatura misurata dall’osservatore esterno costante, la temperatura comovente deve variare con la distanza dall’asse, infatti: T0j = γT = √ T T =p 2 1−v 1 − (ω ∧ xj )2 perciò, diversamente da quanto suggerito dal senso comune, il gradiente di temperatura è diretto dall’asse di rotazione verso l’esterno. Sull’asse la temperatura comovente e la temperatura misurata dall’osservatore esterno coincidono (infatti l’asse è fermo rispetta all’osservatore esterno). Si vuole scrivere ora la matrice densità di questo sistema in forma covariante. Per fare ciò si farà uso della teoria dei campi: si scriveranno Ĥ e Ĵ in termini di quantità locali: Z Ĥ = d3 xT̂ 00 (x) (6.5) Z Ĵ = d3 x(x ∧ Π̂) (6.6) dove si ricorda che Π̂ i = T̂ 0i . Si scrive quindi %̂ in termini di queste quantità locali: ( Z ) Z 00 T̂ (x) ω 1 %̂ = exp − d3 x + d3 x(x ∧ Π̂) Z T T Z 1 1 ω∧x 3 0ν = exp − d xT̂ , Z T t si riconosce che il quadrivettore contratto con T̂ 0ν è proprio il quadrivettore temperatura βν (x) Z 1 3 0ν %̂ = exp − d xT̂ βν (x) Z Questa espressione però non è ancora covariante a vista in quanto si sta integrando su un volume visto da un osservatore solidale con il sistema di riferimento fisso. Ricordando che: 6 Meccanica statistica relativistica dΣµ = − 37 1 εµαβγ dxα ∧ dxβ ∧ dxγ 3! con ε0123 = −1 e ε0123 = 1; il volume fisico è la componente temporale di dΣµ infatti: 1 dΣ0 = − ε0ijk dxi ∧ dxj ∧ dxk = dxi dxj dxk 6 La formula trovata si può quindi rendere facilmente covariante a vista: Z 1 %̂ = exp − dΣµ T̂ µν βν (x) Z (6.7) Questa equazione descrive una situazione di equilibrio termodinamico. L’equilibrio termodinamico in relatività deve essere una situazione di stazionarietà indipendente dal sistema di riferimento. Si impone quindi l’indipendenza dall’ipersuperficie dello spazio tempo scelta: Z Z dΣµ T̂ µν βν = dΣµ T̂ µν βν Σ0 Σ prendendo quindi una superficie chiusa aventi come basi Σ e Σ 0 ed imponendo che il contributo del flusso di T̂ µν βν al bordo sia nullo, la condizione sopra è soddisfatta se vale: ∂µ (T̂ µν βν ) = 0 (6.8) ma ricordando che il tensore degli sforzi è a quadri-divergenza nulla si ha: T̂ µν (∂µ βν ) = 0 (6.9) Questa equazione è soddisfatta se βν = cost, per cui un campo di temperatura uniforme e costante è una condizione per l’equilibrio termodinamico. Questo significa che esiste un sistema di riferimento nel quale il fluido è fermo: β = T1 , 0, 0, 0 . Un altro caso possibile è che il vettore temperatura sia un vettore di Killing: βν t.c. ∂µ βν + ∂ν βµ = 0 Infatti, essendo il tensore degli sforzi simmetrico, l’equazione 6.9 è soddisfatta se il tensore ∂µ βν è antisimmetrico. Un vettore di Killing ha la seguente forma: βµ = bµ + ωµν xν dove bµ è un vettore costante e ωµν è un tensore antisimmetrico costante (per spazio-tempo piatto). Si noti che il caso da cui si è partiti è un sottocaso di questo in cui: 1 0 0 00 1 0 1 0 0 ω 0 b= ω= T 0 T 0 −ω 0 0 0 0 0 00 Il vettore temperatura trasforma secondo le trasformazioni di Lorentz. Si trova ora l’espressione per l’entropia: Z h R i µν µν S = −tr(%̂ ln %̂) = tr %̂ dΣµ T̂ βν + ln tr e− dΣµ T̂ βν = 38 6 Meccanica statistica relativistica Z = dΣµ hT̂ µν iβν + ln Z Per comodità di notazione d’ora in avanti si userà: hT̂ µν i = T µν . Si introduce ora l’ipotesi di estensività generalizzata: Z ln Z = dΣ µ Φµ (6.10) dove si può considerare Φµ come una sorta di densità di potenziale termodinamico. Per cui si ottiene: Z Z S = dΣµ (T µν βν + Φµ ) = dΣµ sµ (6.11) con sµ = T µν βν + Φµ corrente di entropia. Si assumerà d’ora in poi che il sistema si trovi in una situazione di equilibrio, per cui βν è costante oppure un vettore di Killing. All’equilibrio termodinamico si ha che l’entropia è costante per cui: ∂µ sµ = 0 Perciò si ha: ⇒ ∂µ Φµ = 0 R R µν µ tr e− dΣµ T βν = e dΣµ Φ Ora, βν è un vettore parallelo alla quadrivelocità, per cui si ha p % s = sµ uµ = Φ · u + uµ uν T µν β 2 = Φ · u + T0 dove uµ uν T µν è la densità propria di energia (densità di energia che vede l’osservatore solidale con il flusso). Da cui si ottiene T0 s = Φ · uT0 + % (6.12) Se si fosse considerata anche la conservazione della carica si avrebbe avuto: R √ 2 µ R R µν µ tr e− dΣµ T βν + dΣµ µ β j = e dΣµ Φ che avrebbe comportato un termine aggiuntivo del tipo j · u ovvero la densità di carica propria, e nella 6.12: T0 s = Φ · uT0 + % − µn (6.13) con n densità di carica locale. Si trascura ora la parte delle cariche conservate e si varia l’entropia considerandola come un funzionale della temperatura inversa e dell’ipersuperficie Σ: si studia la variazione di S separandola nella variazione rispetto all’ipersuperficie ed in quella rispetto a β Z δS[β, Σ] = (variazione diΣ) + dΣ(δΦµ + T µν δβν + δT µν βnu ) Σ µν si note che anche T è funzionale di β, infatti T µν = tr(%̂T̂ µν ) e %̂ dipende da β. Ora, si noti che δΦµ + T µν δβν = 0 infatti 1 µν − R dΣµ T µν βν hT µν i = tr T e Z e facendo la derivata funzionale 1 . 1 Questa derivata funzionale si fa operando la sostituzione βν −→ βν + δβν ed utilizzando quindi la formula di Zassenhaus per l’operatore eA+εB con ε piccolo tenendo i termini al primo ordine, sfruttando la ciclicità della traccia. 6 Meccanica statistica relativistica 39 R µν δ 1 δ ln Z = tr e− dΣµ T̂ βν = −nν hT̂ µν i δβν Z δβν R con nµ t.c. dΣµ = |dΣ|nµ . Ma si ha anche ln Z = dΣµ Φµ , anch’esso funzionale di β: µ Z δΦ δ ln Z = dΣµ δβ ν δβν da cui δ ln Z δβ ν µ = nµ δΦ δβν e quindi si ha per l’indipendenza di queste relazioni dalla scelta dell’ipersuperficie: δΦµ = −hT̂ µν i δβν (6.14) questa relazione dice che la densità di energia è legata alla derivata della pressione rispetto alla temperatura. La variazione di S si riduce quindi a: Z δS[β, Σ] = (variazione di Σ) + dΣµ δT µν βν Si deve ora studiare il termine dovuto alla variazione della superficie (espansione). La superificie tridimensionale nello spazio di Minkowski si parametrizza con tre variabili: x = x(w1 , w2 , w3 ) −→ x0 = x0 (w1 , w2 , w3 ) = x + v(x(w))ε In generale quindi: Z Σ0 dΣν0 f ν (x0 ) = Z dΣν | Σ 0 Z dΣν | = Σ ∂Σ 0 ν |f (x + v(x(w))ε) = ∂Σ ∂Σ |{f ν (x) + ∂µ f ν v µ (x(w))ε} ∂Σ Ora, 1 dΣµ = − εµαβγ dxα ∧ dxβ ∧ dxγ = 6 1 ∂xα i ∂xβ j ∂xγ = − εµαβγ dw dw dwk = 6 ∂wi ∂wj ∂wk 1 ∂xα ∂xβ ∂xγ ijk = − εµαβγ ε dw1 dw2 dw3 6 ∂wi ∂wj ∂wk Per cui: 1 ∂x0α ∂x0β ∂x0γ ijk dΣ = − εµαβγ ε dw1 dw2 dw3 6 ∂wi ∂wj ∂wk 0 ora, avendo si ha che ∂x0 ∂x ∂v ∂x = + ε ∂w ∂w ∂x ∂w 1 ∂x0α ∂x0β ∂x0γ ijk 1 ∂xα ∂xβ ∂xγ ijk − εµαβγ ε = − ε ε + µαβγ 6 ∂wi ∂wj ∂wk 6 ∂wi ∂wj ∂wk 1 ∂v α ∂xλ ∂xβ ∂xγ 1 ∂xα ∂v β ∂xλ ∂xγ − εµαβγ λ εijk − εµαβγ εijk − ... i j k 6 ∂x ∂w ∂w ∂w 6 ∂wi ∂xλ ∂wj ∂wk si noti che il secondo ed il terzo termine (e analogamente il quarto) sono uguali per α −→ β, i −→ j (e sostituzione analoga), sommando si ottiene infine: 40 6 Meccanica statistica relativistica 1 ∂xλ ∂xβ ∂xγ (∂λ v α )εijk ε = − 3εµαβγ 6 ∂wi ∂wj ∂wk Si consideri Aλβγ = εijk ∂xλ ∂xβ ∂xγ ∂wi ∂wj ∂wk (che è completamente antisimmetrico per la presenza del tensore εijk ) il cui duale è: 1 − εµλβγ Aλβγ = (A∗ )µ 6 e ricordando l’identità εi1 ,...,ik ,ik+1 ,...,in εi1 ,...,ik ,jk+1 ,...,jn = (−1)k! X j jk k+1 x(σ)δiσ(k+1) · ... · δiσ(k) σ si può invertire la formula del duale: A%στ = εµ%στ (A∗ )µ per cui si ha: 1 1 ∂x0α ∂x0β ∂x0γ ijk ε = − εµαβγ ενλβγ (A∗ )ν (∂λ v α )ε − εµαβγ 6 ∂wi ∂wj ∂wk 2 inoltre si ha che: (A∗ )ν dw1 dw2 dw3 = dΣ per cui alla fine si ottiene: Z Z Z Z 1 dΣν0 f ν = −ε εµαβγ ενλβγ dΣν ∂λ v α f µ + dΣν ∂µ f ν v µ ε + dΣν f ν 2 0 Σ Σ Σ Σ Ricordando che vale la seguente εµαβγ ενλβγ = −2(δµν δαλ − δαν δµλ ) si ottiene infine la variazione dovuta all’espansione della superficie: Z Z Z Z Z 0 ν ν µ λ ν λ dΣν f − dΣν f = ε dΣµ f (∂λ v ) − ε dΣν v f + ε dΣν ∂µ f ν v µ = Σ0 Σ integrando per parti il primo termine Z Z Z Z = ε dΣµ ∂λ (f µ v λ ) − ε dΣµ v λ ∂λ f µ − ε dΣµ (∂λ v µ )f λ + ε dΣν (∂µ f ν )v µ = ed integrando per parti il secondo termine Z Z Z = ε dΣµ ∂λ (f µ v λ ) − ε dΣµ ∂λ (f λ v µ ) + ε dΣµ v µ (∂λ f λ ) = Z =ε dΣµ ∂λ (f µ v λ − f λ v µ ) + ε Z dΣµ v µ (∂λ f λ ) Il primo termine si riscrive come Z Z 1 µ λ λ µ dSµλ (f µ v λ − f λ v µ ) dΣµ ∂λ (f v − f v ) = 2 6 Meccanica statistica relativistica 41 con 1 ∂xα ∂xβ ij ε dw1 dw2 dSµλ = − εµλαβ 2 ∂wi ∂wj Nel caso specifico in cui f ν ≡ sν si ottiene quindi: Z Z Z Z 0 ν ν µ λ µ ν dΣν s − dΣν s = ε dSµλ s v + dΣµ v ∂ν s Σ0 Σ in questo caso l’ultimo termine non contribuisce in quanto: ∂µ (Φµ + T µν βν ) = 0 In conclusione la variazione del funzionale entropia risulta Z Z λ µ µν δS = dSµλ (εv )(Φ + T βν ) + dΣµ δT µν βν ∂Σ ora, εv λ = δxλ , e quindi si ottiene: Z Z δS = dSµλ δxλ Φµ + ∂Σ dSµλ δxλ T µν βν + Z dΣµ δT µν βν (6.15) ∂Σ Caso particolare Si sceglie ora una superficie Σ a tempo costante: nµ è un vettore time-like. Si varia questa superficie espandendola nella direzione spaziale δxλ = (0, δx) (si considera un sistema a volume finito!). ∂xα ∂xβ ij 1 ε dSµλ = − εµλαβ 2 ∂wi ∂wj α β ∂x Ora, essendo λ indice spaziale, e notando che essendo ∂x ∂wi e ∂wj vettori tangenti alla superficie e di conseguenza vettori space-like (cioè α e β indici spaziali) si ha che dSµλ 6= 0 solo se µ = 0. Perciò si ha che dS0i δxi = δx · n̂dS dove dS è l’usuale misura di una superficie bidimensionale. Quindi in questo caso si ha: Z Z Z δS = dSδx · n̂Φ0 + dSδx · n̂T 0ν βν + dV δT 0ν βν = ma β = ( T1 , 0, 0, 0) Z = 0 dSδx · n̂Φ + Z dSδx · n̂T 00 1 + T Z dV δT 00 1 T ∂U 1 Il primo termine si può identificare con dV PT , il secondo con ∂V dV T1 ed il terzo con ∂U ∂T dT T . Si può dire che Φµ è un quadrivettore che dipende solo dal β µ in quanto β µ è costante e quindi le sue derivate sono nulle; si scrive allora: Φµ = p(β 2 )β µ (6.16) dove p è, ovviamente, uno scalare. Si vuole ora calcolare il tensore degli sforzi a partire da Φµ : T µν = − δΦµ ∂Φµ ∂p ∂β 2 ∂β µ ∂p =− = − 2 ν βµ − p = − 2 2β ν β µ − pg µν δβν ∂βν ∂β ∂β ∂βν ∂β dove 2β ν β µ = 2β 2 uµ uν . Ora, contraendo la corrente di entropia con uµ si ottiene 42 6 Meccanica statistica relativistica uµ sµ = uµ Φµ + uµ T µν uν p p p β2 = p β2 + % β2 dove uµ sµ è la densità di entropia vista da un osservatore solidale con il sistema comovente e uµ T µν uν è la densità propria di energia. Dalla 6.12 si ha p % s= + ⇒ T0 s = % + p T0 T0 nel caso si abbia una carica conservata diventa: T0 s = % + p − µ0 n che è un’equazione locale che generalizza T S = U + T ln Z − µQ Si vede ora che ∂p ∂β 2 è strettamente collegato a ln Z. ∂p ∂p = ∂T0 ∂ T12 ∂ T12 !−1 =− 0 ∂T0 T03 ∂p 2 ∂T0 0 Classicamente si hanno le seguenti relazioni: ln Z = pV T T2 ∂ ln Z =U ∂T dalle quali si ottiene T2 ∂ ln Z ∂p V 1 = T2 − T 2 2 pV ∂T ∂T T T da cui: ∂p U V = +p ∂T T T che generalizzando al caso relativistico diventa V ∂p % p = + ∂T0 T0 T0 perciò si ha %+p ∂p 1 = T ∂ T2 0 − T03 2 0 ed infine si può quindi ottenere l’espressione del tensore degli sforzi nel caso di un fluido ideale: T µν = (% + p)uµ uν − pg µν Si vuole ora trovare quanto vale ds nel passaggio da uno stato di equilibrio ad un altro dsµ = (dT µν )βν Ora, sµ = p p β 2 uµ + T µν βν = suµ = sν uν uµ per cui dsµ = dsuµ + sduµ = (dT µν )βν Si differenzia la 6.17 (6.17) 6.1 Fluidodinamica relativistica ideale 43 dT µν = d(% + p)uµ uν − dpg µν + (% + p)uµ duν + (% + p)duµ uν sostituendo nell’espressione sopra si ottiene p p p p dsµ = d(% + p)uµ β 2 − dp β 2 uµ + (% + p) β 2 uν duν + (% + p) β 2 duµ tenendo conto che uν duν = 21 d(uν uν ) = 0 si ottiene p p p dsuµ + sduµ = (d% + dp)uµ β 2 − dp β 2 uµ + β 2 duµ (% + p) semplificando e contraendo con uµ si ha ds = d% T0 (6.18) 6.1 Fluidodinamica relativistica ideale Si studia ora il moto del valore medio di T µν supponendo che l’espressione di questo valga anche quando il campo di velocità dipende da xµ (ossia si è fuori dall’equilibrio). Si parte perciò dall’espressione puntuale T µν = (% + p)uµ uν − pg µν i termini dissipativi che potrebbero essere presenti (come ad esempio la viscosità) si considerano piccoli da poter essere trascurati. Si assume sempre vera ∂µ T µν = 0: ∂µ [(% + p)uµ uν − pg µν ] = 0 uν uµ ∂µ (% + p) + (% + p)(∂µ uµ )uν + (% + p)uµ (∂µ uν ) − ∂ ν p = 0 Per comprendere meglio il significato fisico di questa equazione si proietta su uν uµ ∂µ (% + p) + (% + p)∂µ uµ + (% + p)uµ uν ∂µ uν − uν ∂ ν p = 0 e come già visto in precedenza uν duν = 12 d(uν uν ) = 0, ∂µ (%uµ ) + p(∂µ uµ ) = 0 (6.19) Questa è la generalizzazione al caso relativistico dell’equazione di continuità. Infatti %uµ nel limite non relativistico coincide con la densità di massa propria e p è un’energia per unità di volume divisa per c2 che nello stesso limite è trascurabile. Si noti che in relatività non c’è una densità conservata ma è T µν che si conserva! Proiettando invece nella direzione ortogonale a uν , cioè lungo ∆αν = g αν − uα uν (infatti ∆αν uν = g αν uν − uα = 0), si ha che i primi due termini non contribuiscono (% + p)uµ ∂µ uα − ∆αν ∂α p = 0 con ∆αν ∂α = ∇α che indica la derivata nella direzione ortogonale a uν il quale è un quadrivettore time-like, è perciò una derivata fatta su uno tri-spazio (derivata spaziale). ∇α = g αν ∂ν − uα uν ∂ν = ∂ α − uα uν ∂ν Si ha quindi (% + p)uµ ∂µ uα − ∂ α p + uα uν ∂ν p = 0 44 6 Meccanica statistica relativistica Si noti che uµ ∂µ è un invariante relativistico, calcolato nel sistema comovente (essendo in questo d . sistema uµ time-like) coincide con la derivata rispetto al tempo proprio τ : uµ ∂µ = dτ Dalle leggi della dinamica relativistica si ha che duα = Aα dτ dove Aα è la quadriaccelerazione, quindi segue: (% + p)Aα = ∂ α p − uα ṗ (6.20) Questa è la generalizzazione al caso relativistico dell’equazione di Eulero. Infatti nel caso non relativistico p << %, Ai −→ a: %a = −∇p − uṗ trascurando l’ultimo termine (∼ c12 vṗ) si riottiene proprio la formula nota. Si vuole ora dimostrare che nel caso di un fluido ideale non c’è dissipazione: si conserva l’entropia. Partendo dall’espressione µ d% − dn s= T0 T0 e derivando rispetto a τ d% dn ds = −µ dτ dτ dτ T0 uµ ∂µ s = uµ ∂µ % − µuµ ∂µ n T0 sostituendo a uµ ∂µ % = −(% + p)∂µ uµ (per l’equazione di continuità) T0 uµ ∂µ s = −(% + p)∂µ uµ − µuµ ∂µ n ma vale anche T0 s = % + p − µn per cui T0 uµ ∂µ s = −(T0 s + µn)∂µ uµ − µuµ ∂µ n T0 (uµ ∂ µ )s + T0 s(∂µ uµ ) = −µn(∂µ uµ ) − µ(uµ ∂ µ )n T0 ∂µ (suµ ) = −µ∂µ (nuµ ) ma per la conservazione della carica si ha che ∂µ (nuµ ) = 0 ∂µ sµ = 0 I processi meccanici non producono entropia! (6.21) 7 Termodinamica di non equilibrio La termodinamica di non equilibrio studia fenomeni fisici che avvengono in un sistema con produzione di entropia (fenomeni dissipativi). In questo capitolo si darà un’idea dello studio di sistemi fuori dall’equilibrio termodinamico completo. Si consideri un sistema fisico diviso in più sottosistemi. E’ importante notare che se il sistema non si trova all’equilibrio termodinamico completo si possono distinguere due scale di tempi caratteristici: il tempo necessario per raggiungere un equilibrio termodinamico locale (in tempi brevi ogni sottosistema raggiungerà il poprio equilibrio termodinamico) il tempo necessario per raggiungere l’equilibrio termodinamico globale (in cui il sistema si trova in uno stato di temperatura uniforme, pressione uniforme ecc.). Ad ogni celletta si possono associare le grandezze caratteristiche (energia, impulso, momento angolare, numero di particelle, carica ecc) Ai (a) = hÂi (a)i (dove con a si numera il sottosistema). Queste grandezze generalmente sono conservate a livello globale, per cui si può scrivere: ∂Ai (a) X + Φi (a → b) = Φi (sources → a) ∂t (7.1) b dove Φi (a −→ b) indica il flusso di A sull’unità di tempo che passa dalla celletta a alla celletta b. D’ora in avanti si considererà il caso in cui non sono presenti sorgenti e che gli scambi tra le cellette avvengano attraverso la superficie. Passando al limite continuo si ottiene l’equazione di continuità (nel caso in cui Ai = N ): Z Z ∂n dV + dS n v · n̂ = 0 ∂t C ∂C dove C rappresenta la celletta infinitesima presa in considerazione; da cui ∂n + ∇ · (nv) = 0 ∂t (7.2) Questi stessi ragionamenti possono essere applicati anche per l’entropia: si introduce il concetto di entropia locale. Supponendo che l’interazione tra i sottosistemi sia trascurabile (in modo da poterli considerare indipendenti) si può scrivere: X S= Sa ≤ Seq a ed inoltre λi (a) = ∂Sa ∂Ai 46 7 Termodinamica di non equilibrio Si considera raggiunto l’equilibrio termodinamico quando λi (a) = λi (b) ∀ a,b. Nell’istante in cui si svolge l’osservazione si ha: λi (a) − λi (b) 6= 0 per b 6= a → ∇λi 6= 0 Questo vuol dire che ci deve essere un flusso di grandezze conservate che dipendono da questi gradienti: si instaurano cioè dei flussi. Scopo della termodinamica di non equilibrio è quello di trovare le relazioni tra i flussi di grandezze conservate e questi gradienti. Si postula che la risposta dei flussi ai gradienti sia lineare tramite dei coefficienti di risposta (o di trasporto): X (7.3) Φi (a → b) = Lij (a,b) (λj (b) − λj (a)) {z } | j ∝∇λi si ha la somma su j in quanto nulla esclude che come risposta ad una variazione di λj si possa ottenere anche una risposta di grandezze conservate Ai con i 6= j, in generale Lij sono funzione del punto. Sia ora J la densità di flusso: X αβ Jiα = (Jiα )0 + Lij ∂β λj (7.4) j solitamente le densità di flussi all’equilibrio (Jiα )0 sono nulli. Si enuncia ora il seguente: Teorema di Curie: se un certo fenomeno conduce ad effetti macroscopici, gli elementi di simmetria di questo fenomeno devono essere contenuti negli effetti macroscopici generati. Non è vero il viceversa. Questo vuol dire, ad esempio, che una causa scalare non può produrre effetti vettoriali. Sfruttando questo teorema si possono ridurre le componenti dei coefficienti Lαβ ij . Esempio: conduzione del calore Sia jE flusso di energia. Si sa che vale: jE = −κ∇T Nel quadro generale impostato precedentemente si ha: µ X αβ 1 αβ α + Lαβ ∂ Lij ∂β λj = LEE ∂β + ... jE = β EN T T j per il setup dell’esperimento contribuisce solo il primo termine, per cui si ha che (per il teorema di Curie) LEE = κT 2 δ αβ e l’equazione di continuità ∂u + ∇ · jE = 0 ∂t considerando che vale anche ∂u ∂T = cV ∂t ∂t e quindi cV ∂T − κ∇2 T = 0 ∂t Relazione di reciprocità di Ossanger : Lij = Lji . Si studia ora la variazione di entropia nel tempo: (7.5) 7 Termodinamica di non equilibrio X ∂Sa ∂Ai X ∂Sa ∂S = = ∂t ∂Ai (a) ∂t ∂Ai i i 47 ! − X Φ(a → b) =− X λi (a)Φi (a → b) a,b b Passando al continuo, nel caso di grandezze conservate scalari X ∂s X ∂Ai = λi (x) = λi (x)(−∂α jiα ) = ∂t ∂t i i ! = −∂α X λi (x)jiα (x) + i jiα ∂α λi (x) i Per cui: ∂s + ∂α ∂t X ! X λi (x)jiα (x) i = X Lαβ ij ∂α λi ∂β λj ij All’entropia si deve quindi associare una corrente di entropia fuori dall’equilibrio. Integrando questa equazione su tutto lo spazio ed imponendo che ! X ∂α λi (x)jiα (x) = 0 i in quanto il sistema è isolato (il flusso sulle pareti esterne è nullo) si ottiene Z X αβ ∂S = d3 x Lij ∂α λi ∂β λj ∂t V ij (7.6) P dove ij Lαβ ij ∂α λi ∂β λj ≥ 0 per il secondo principio della termodinamica. A questo punto sorge un problema: se ogni celletta si trova in uno stato di equilibrio termodinamico (anche se locale) con dei vincoli sui valori di aspettazione di alcune osservabili, la distribuzione statistica che descrive la celletta è la distribuzione di Gibbs che è stata costruita in modo tale che i dS ∂ %̂ = [Ĥ, %̂] ⇒ =0 ∂t dt e quindi, avendo supposto trascurabili le interazioni tra i sottosistemi, l’entropia totale, per la trattazione finora effettuata, dovrebbe essere a derivata nulla, in contraddizione con il secondo principio della termodinamica. Questo è un problema ancora aperto! Landau cerca di spiegare questo paradosso asserendo che l’aumento (a livello macroscopico) dell’entropia è conseguenza della non invarianza temporale dell’equazione di Schrödinger (vedi capitolo 2). Un’altra risposta è stata data da Balian: durante il processo che porta il sistema da una condizione di non equilibrio all’equilibrio globale l’informazione macroscopica viene persa passando ad informazione microscopica. L’operatore densità finora utilizzato è correlato all’informazione totale che ovviamente si conserva, ma l’informazione che si osserva è solo quella macroscopica. Quello che fa Balian è quindi di riscrivere l’operatore densità %̂ = %̂relevant + %̂irrelevant (7.7) Per trovare %̂relevant si procede come fatto in precedenza per trovare %̂ ovvero effettuando un’estremazione con vincoli in cui però A0i (a) → A0i (a, t): h i X Φ = −tr(%̂rel ln %̂rel ) + λi (a) tr(%̂rel Âi (a)) − A0i (a, t) a,i 48 7 Termodinamica di non equilibrio da cui si ottiene: X %̂rel ∝ exp − λi (a, t)Âi (a) a,i questa è la distribuzione di Gibbs che rappresenta l’equilibrio termodinamico locale (minimizza l’informazione). Si noti che si sta lavorando in notazione di Schrödinger per cui gli operatori sono indipendenti dal tempo. Affinché valga quanto appena detto si deve avere che tr(%̂Âi (a)) = tr(%̂rel Âi (a)) ⇒ tr(%̂rel Âi ) = 0