Appunti del corso redatti da un gruppo di studenti

Prof. Francesco Becattini
Meccanica Statistica I
Appunti del corso raccolti da M.Gori,P.Liuzzo Scorpo,M.
Straka
Università degli studi di Firenze
Indice
Parte I Meccanica statistica all’equilibrio
1
L’operatore densità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 L’operatore densità: definizione e proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Appendice: Il processo di misura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
3
4
6
2
Entropia e secondo principio della termodinamica . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1 L’entropia di Shannon nella teoria dell’informazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 L’entropia di Von Neumann in meccanica statistica quantistica . . . . . . . . . . . . .
2.2 Alcune proprietà dell’entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Il principio fondamentale della meccanica statistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Costruzione dell’operatore densità per insiemi statistici . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Funzione densità per un sistema isolato: l’insieme microcanonico . . . . . . . . . . .
2.4.2 Funzione densità per l’insieme grancanonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.3 L’opeartore densità per l’insieme canonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5 Alcune proprietà della funzione di partizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.1 Appendice: l’interpretazione fisica dei moltiplicatori di lagrange per una %̂
nell’insieme grancanonico e canonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.2 Appendice: il sistema rotazionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
9
10
10
12
13
14
14
16
16
18
18
3
Equivalenza degli insiemi statistici nel limite termodinamico . . . . . . . . . . . . . . . . . . 21
3.1 Equivalenza dell’insieme canonico e grancanonico nel limite termodinamico . . . . . . . . 21
4
Il limite classico: funzione di Wigner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.1 Trasformata di Wigner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2 Recupero delle equazioni del moto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Parte II Meccanica statistica relativistica: introduzione
5
Insieme microcanonico di un gas ideale relativistico . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.1 Corpo nero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.2 Limite termodinamico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6
Meccanica statistica relativistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.1 Fluidodinamica relativistica ideale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
VI
7
Indice
Termodinamica di non equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Parte I
Meccanica statistica all’equilibrio
1
L’operatore densità
1.1 Introduzione
Nella meccanica statistica quantistica si rende necessario introdurre un nuovo formalismo atto a
descrivere lo stato di un sistema fisico, rispetto alla consueta notazione di Dirac. La notazione con
i bra-ket risulta inadatta a descrivere lo stato stato di sistemi fisici complessi correlati fra loro.
Ad esempio, si consideri un sistema fisico composto da due sottosistemi A,B lo stato dei quali è
rappresentato dai vettori negli spazi di Hilbert HA e HB rispettivamente. Lo spazio di Hilbert che
descrive il sistema A + B è HA ⊗ HB ed i vettori di questo spazio hanno la forma:
X
|ψiA+B =
cij |ψi iA ⊗ |ψj iB .
(1.1)
ij
Supponiamo a questo punto di voler operare una misura su A; sarà quindi necessario introdurre un
operatore ÔA che agisca sui vettori dello spazio HA . Nel caso si voglia operare sul sistema A + B
misurando un’osservabile sull’insieme A devo agire attraverso l’operatore ÔA ⊗ 1̂A .
Il valore d’aspettazione dell’osservabile è dato dall’espressione1 :
X
c∗ij ckl B hψj |A hi ψ|(ÔA ⊗ 1̂B )|ψl iA |ψk iB
(1.2)
A+B hψ|ÔA ⊗ 1̂B |ψiA+B =
i,j,k,l
Ricordando che
A+B hψ|ÔA
B hψ|A hψ|(ÔA
⊗ 1̂B |ψiA+B
⊗ ÔB )|ψiA |ψiB = hψA |ÔA |ψiA hψB |ÔB |ψiB si ottiene
X
X
=
clk c∗ij A hψi |ÔA |ψk iA δjk =
clj c∗ij A hψi |ÔA |ψk iA
i,j,k,l
(1.3)
i,j,l
Ci si può chiedere a questo punto se sia possibile riprodurre questo risultato considerando l’azione
del solo ÔA su un opportuno vettore stato di A, ovvero se ∃|ϕiA tale che:
A+B hψ|ÔA
⊗ 1̂B |ψiA+B =A hϕ|ÔA |ϕiA
(1.4)
Si può facilmente constatare che ciò non è vero in generale, si pensi ad esempio al caso in cui A e B
rappresentino due particelle di spin 1/2 e A + B rappresenti lo stato di singoletto di spin per cui si
(A)
(A)
verifica h0, 0|Ŝn |0, 0i = 0 mentre h1/2, ±|Ŝn |1/2, ±i =
6 0
∀n.
Cerchiamo quindi un metodo che ci permetta di descrivere in modo più semplice il calcolo del valore
di aspettazione di un’osservabile solo su una parte del sistema.
Consideriamo il caso di un sistema isolato il cui stato è rappresentato in uno spazio di Hilbert HA
1
Si è sottointeso per compattezza di notazione ⊗ fra i vettori |ψiA e|ψiB
4
1 L’operatore densità
e scorrelato da qualsiasi altro sistema; il valore di aspettazione di ÔA su uno stato del sistema |ψiA
attraverso una base {e1 , ...en } su HA può essere calcolato con:
X
X
hÔA i = hψ|ÔA |ψi =
c∗i cj hei |ÔA |ej i = tr (
c∗i cj |ej ihei |)ÔA = tr(%̂ÔA )
(1.5)
ij
ij
Dove abbiamo introdotto l’operatore densità %̂A che descrive lo stato del sistema A e la cui espressione è data da:
X
%̂A =
c∗i cj |ej ihei |
(1.6)
ij
Poichè in questo caso l’operatore densità è stato costruito a partire da una base ortonormale di stati
del sistema A, che abbiamo considerato isolato, lo stato del sistema è detto puro. Perciò si dimostra
che l’operatore è un proiettore, ovvero soddisfa alla condizione:
%̂2 = %̂
(1.7)
Volendo estendere il concetto di operatore densità al sistema A + B, procediamo in modo analogo
al caso precedente:
X
hÔA ⊗ ÔB i =
ckl c∗ijB hej |A hei |(ÔA ⊗ ÔB )|ek iA | el iB
(1.8)
i,j,k,l
= tr (
X
ckl c∗ij |ek iA |el iBB hej |A hei |)ÔA ⊗ ÔB tr %̂(ÔA ⊗ ÔB ) = trA trB %̂(ÔA ⊗ ÔB )
i,j,k,l
Dove abbiamo definito,anche in questo caso, un’operatore densità :
X
%̂ =
ckl c∗ij |ek iA |el iBB hej |A hei |
(1.9)
i,j,k,l
che rappresenta uno stato puro del sistema A + B. In questo modo, volendo considerare il valore di
aspettazione di un’osservabile ÔA solo sulla parte A del sistema, potremo operare nel modo seguente:
hÔA ⊗ 1̂B i = trA trB %̂(ÔA ⊗ 1̂B ) = trA trB (%̂ÔA ⊗ 1̂B ) = trA (%̃ˆA ÔA )
(1.10)
Dunque, lo stato di un sistema A correlato con un’altro sistema, è descritto da un operatore densità
%̃ˆA = trB (%̂) del sistema A. Da ciò segue che, in generale, %̃ˆA 6= %̂A ; in tal caso si dice che l’operatore
rappresenta uno stato misto del sistema e si verifica che %̃ˆ2A 6= %̃ˆA .
Possiamo a questo punto dimenticare la descrizione di uno stato fisico determinata dal formalismo
bra-ket, e definire assiomaticamente le proprietà che richiediamo ad un operatore densità affinchè
questo descriva lo stato di un sistema fisico, compatibili con le definizioni che abbiamo adottato in .
1.2 L’operatore densità: definizione e proprietà
Definizione Si dice operatore densità un operatore che agisce nello spazio di Hilbert H degli
stati del sistema, tale che:
1.
2.
3.
4.
5.
%̂† = %̂ (operatore hermitiano)
hAi = tr(%̂Â)
tr(%̂) = 1
hψ|%̂|ψi ≥ 0
∀|ψi ∈ H
Nel caso descriva uno stato puro %̂2 = %̂
Nel caso descriva uno stato misto si avrà in generale %̂2 6= %̂
1.2 L’operatore densità: definizione e proprietà
5
Verifichiamo che effettivamente l’operatore densità %̂ cosı̀ definito descrive lo stato fisico di un sistema
rappresentato da uno spazio di Hilbert H :
ˆ
ˆ
per uno stato puro poichè valgono le proprietà 1. e 5.; quindi ha autovalori λ = 0, 1 (poichè
λ2 = λ) da cui dato che tr(%̂) = 1, esiste una base ortonormale {|ei i} di H sulla quale l’operatore
è della forma %̂puro = |e1 ihe1 |
per uno stato misto l’operatore densità può
P essere rappresentato, su un’opportuna
P base di H
l’operatore densità è della forma %̂misto = i pi |ei ihei | dove p1 , ..., pn ≥ 0 e poichè i pi = 1 ne
segue che p2i ≤ pi .
Osservazione È da notare che lo stato puro può essere descritto come uno stato misto in cui
pi = δi,1 .
Come possiamo interpretare i coefficienti pi ? Consideriamo il valore di aspettazione di ÔA sullo
stato A correlato con B:
X
X
pi |ei ihei |ÔA ) =
pi hei |ÔA |ei i
(1.11)
hÔA i = trA trB %̂(ÔA ⊗ 1̂B ) = trA (
i
i
Il calcolo del valore di aspettazione di un’osservabile su una parte A del sistema A + B si può
interpretare una doppia media sugli stati puri del sistema A:
ˆ
ˆ
hei |ÔA |ei i è una media quantistica sugli stati puri del sistema A
la somma sui termini pi si può considerare una media statistica dei valori di aspettazione di ÔA
sugli stati puri di A.
Da questo esempio possiamo concludere che lo stato misto di un sistema entangled equivale ad una
media degli stati puri dello stesso sistema, pesata attraverso i coefficienti pi . Di ciò possiamo dare
una duplice interpretazione sulla natura dell’operatore %̂:
ˆ
ˆ
interpretazione “probabilistica”: la descrizione di A attraverso uno stato misto deriva dall’impossibilità
dello sperimentatore di conoscere lo stato puro in cui si trova il sistema; per tenere conto di ciò,
nel calcolo del valore di aspettazione si somma su tutti gli stati possibili pesati con la loro
probabilità.
interpretazione “statistica”: l’operatore %̂ rappresenta in modo oggettivo lo stato di un sistema
entangled con l’universo; uno stato misto è oggettivamente una sovrapposizione di stati puri del
sistema.
L’evoluzione temporale di %̂
Consideriamo, infine, l’evoluzione nel tempo dell’operatore densità, nell’interpretazione di Heisenberg. Per questo ricordiamo come evolve nel tempo uno stato puro di un sistema fisico caratterizzato da una hamiltoniana H.L’evoluzione di uno stato fisico quantistico è descritto dall’equazione
di Schröedinger:
∂|ψi
i
= Ĥ|ψi
(1.12)
∂t
Nella rappresentazione classica ∃Û operatore unitario tale che |ψ(t)i = Û (t)|ψ0 i. In particolare:
ˆ
ˆ
Û (t) = e−iĤt
nel caso in cui Ĥ non dipenda esplicitamente dal tempo;
R
−i 0t Ĥ(τ )dτ
Û (t) = e
per cui [Ĥ(τ1 ), Ĥ(τ2 )]
6
1 L’operatore densità
Dunque avremo che:
X
X
%̂(t) =
pi |ψi (t)ihψi (t)| =
pi Û (t)|ψi (0)ihψi (0)|Û −1 (t) = Û (t)%̂(0)Û −1 (t)
i
(1.13)
i
Nel caso dell’operatore densità vale dunque la relazione se la hamiltoniana è indipendente dal tempo:
i
∂ %̂
= [Ĥ, %̂]
∂t
(1.14)
1.3 Appendice: Il processo di misura
Allo stato attuale delle conoscenze non è ancora stata formulata una definizione del processo di
misura di un’osservabile, poichè non è definito esattamente cosa sia un rilevatore.
Tuttavia, nel contesto da noi elaborato sin qui possiamo cercare dove risiedano le principali difficoltà
nel definire cosa avviene nel processo di misura di un sistema quantistico.
Per l’analisi di un processo di misura è conveniente separare il sistema considerato in due sottosistemi: il rivelatore e l’oggetto. Nessuno di questi due si troverà in uno stato puro dopo la misura.
Per comprendere meglio i postulati delle misure quantistiche è utile decomporre l’esperimento in
due stadi: uno durante il quale l’apparato e l’oggetto interagiscono e vengono separati, ed un altro
che corrisponde all’osservazione del risultato. Prima del primo stadio l’oggetto e l’apparato non
sono correlati, l’operatore densità del sistema è il prodotto tensoriale degli operatori densità delle
due parti. L’interazione cambia l’operatore densità del sistema creando correlazioni tra l’oggetto e
l’apparato, questa modifica è specifica dell’osservabile che l’apparato deve misurare.
Si consideri uno stato puro |ψS i di un sistema che interagisca con un rilevatore (ovvero “un oggetto
capace di fare una misura”, rigorosamente...). Si può supporre che il rivelatore si trovi in uno stato
puro |ψR i, anche se questa condizione è praticamente impossibile da riprodurre e persino definire
in modo rigoroso. Tale stato è descitto da un numero quantico ra che identifica gli stati puntatori,
ovvero quelli che caratterizzano la risposta del rilevatore sulla misura di a, e un set di numeri quantici η che risolvono la degenerazione.
Nel momento in cui i due sistemi interagiscono il sistema sarà descritto da uno spazio di Hilbert
HS ⊗ HR ; su un sistema entangled vogliamo misurare un’osservabile ÂS i cui autostati puri su S
sono rappresentati da |a, δi, dove a sono gli autovalori di ÂS e δ sono numeri quantici ulteriori che
risolvono la degenerazione.
Dunque nell’istante in cui il rivelatore ed il sistema interagiscono lo stato del sistema è rappresentato
da:
X
|ψi = |ψS i ⊗ |ψR i =
ha, δ|ψS i|a, δi ⊗ |ra , ηi
(1.15)
a,δ,η
Volendo descrivere il sistema in funzione dell’ operatorie densità del sistema S avremo che, prima
dell’interazione con il rilevatore, lo stato del sistema S è descritto da:
X
%̂Spuro = |ψS ihψS | =
ca,δ c∗a0 ,δ0 |a, δiha0 , δ 0 |
(1.16)
a,δ,a0 ,δ 0
Sia ora, ha, δ|ψS i = ca,δ , allora dopo l’interazione:
X
%̂int = (%̂)
ca,δ c∗a0 ,δ0 |a0 , δi|ra , ηihra0 , η 0 |ha0 , δ 0 |
(1.17)
a,δ,η,a0 ,δ 0 ,η 0
Per quanto riguarda il sistema S si ha
%̂S |prima = |ψS ihψS | −→ %̂S |dopo = trR %̂ =
X
rb ,η 00
hrb , η 00 |%̂|rb , η 00 i
(1.18)
1.3 Appendice: Il processo di misura
La tracciatura su R seleziona a = a0 e η = η 0 , per cui
X
ca,δ c∗a,δ0 |a, δiha, δ 0 |
%̂Sint =
7
(1.19)
a,δ,δ 0
Dunque, dal punto di vista dell’operatore densità, l’interazione con il rivelatore diagonalizza
l’operatore rispetto agli autostati a,
X
X
%̂Sint =
P̂a (%̂Spuro )P̂a
dove Pa =
|a, δ 0 iha, δ|
(1.20)
δ,δ 0
a
cioè il rivelatore risponde alla rivelazione selezionando casualmente a.
Per cui, l’operatore densità che descrive tutto il sistema diventa
X
%̂int =
ca,δ c∗a,δ0 |a, δi|ra , ηihra , η 0 |ha, δ 0 |
a,δ,δ 0 ,η,η 0
Si verifica che tr%̂int = 1:
tr(%̂int ) = tr(
X
Pa %̂puro Pa ) =
a
=
X
X
tr(Pa %̂puro Pa ) =
a
tr(%̂puro Pa ) = tr(%̂puro
a
X
tr(%̂puro Pa2 ) =
a
X
Pa ) = tr(%̂puro ) = 1
a
Si verifica ora che gli autovalori di %̂int siano non negativi:
X
X
hψ|%̂int |ψi = hψ|
Pa %̂puro Pa |ψi =
hPa ψ ∗ |%̂puro |Pa ψi ≥ 0
a
a
(1.21)
2
Entropia e secondo principio della termodinamica
Come accennato in precedenza è possibile decrivere lo stato di un sistema, anche entangled,
attraverso una sovrapposizione di stati puri pesati con coefficenti pi dei quali abbiamo dato
un’interpretazione probabilistica.
Da questo tipo di descrizione, nell’ottica dell’interpretazione “probabilistica” dell’operatore densità,
siamo interessati a conoscere la quantità di informazione sui microstati di un sistema nel momento
in cui ne studiamo le proprietà macroscopiche. Intuitivamente, potremmo dire che il disordine di un
sistema è maggiore allorchè ad una stessa descrizione macroscopica del sistema corrispondano un
numero maggiore di stati microscopici con essa compatibili. Questo si traduce, da un certo punto di
vista, in una perdita di informazione maggiore sui microstati del sistema al crescere del disordine
del sistema stesso.
2.1 L’entropia di Shannon nella teoria dell’informazione
In teoria dell’informazione l’autoinformazione è il contenuto di informazione legato all’uscita di
una variabile casuale. L’autoinformazione di un evento è legata alla probabilità dell’evento stesso:
maggiore è la probabilità che l’evento si realizzi, minore è l’autoinformazione contenuta nell’evento.
Ad esempio il contenuto di autoinformazione legato all’evento “uscita del numero quattro” nel
lancio di un dado (p = 1/6) è molto minore del contenuto di autoinformazione legato all’evento
“realizzazare un sei al superenalotto”(p w 1.3 · 10−8 )...
Richiedendo che
ˆ
ˆ
ˆ
l’autoinformazione sia una quantità non negativa
un evento certo abbia autoinformazione nulla
T
l’autoinformazione IC di un evento C = A B, con A e B eventi mutuamente indipendenti sia
data da IC = IA + IB
si ottiene per l’autoinformazione di un evento A con probabilita pA l’espressione:
IA = −log(pA )
(2.1)
Dunque, se X è una variabile casuale a valori x1 , ...., xN e pi = p(xi ) è la funzione di probabilità
associatasi definisce entropia di Shannon il valore di aspettazione dell’autoinformazione di X ovvero:
SShannon = −
N
X
i=1
pi log(pi )
(2.2)
10
2 Entropia e secondo principio della termodinamica
Osservazione La funzione di probabilità che massimizza l’entropia è quella che associa una uguale
probabilità ai valori che può assume la variabile aleatoria X (si può verificare massimizzando
PN
l’entropia con vincolo sui coefficienti cpi usando l’equazione, ovvero ∂p∂ j S + (λ j=1 pj − 1) = 0
In tal caso l’entropia assume il valore S = logN
Osservazione Nel caso la variabile X sia una variabile casuale continua si sostituisce alla sommatoria un integrazione ed alla funzione di probabilità la densità di probabilità.
Vediamo come questa formulazione possa essere applicata alla meccanica statistica.
2.1.1 L’entropia di Von Neumann in meccanica statistica quantistica
Il concetto di “disordine” di un sistema statistico, in un’interpretazione “soggettivistica” dell’operatore
densità, è legato alla possibilità di conoscere in quale stato fisico si trovi il sistema: un sistema
macroscopico è tanto più “disordinato” quanto maggiore è il numero di microstati nei quali esso
può trovarsi. Dunque più un sistema è disordinato maggiore è la quantità di informazione che riceviamo (o meglio dovremmo ricevere) nel conscere lo stato quantistico che lo descrive. Ricordando
l’espressione per l’operatore densità di uno stato misto può essere scritta come
%̂ =
N
X
pi |ei i hei |
(2.3)
i=1
dove il coefficientie pi rappresentano la probabilità che lo stato si trovi nello stato |ei i, in analogia
con quanto visto per la teoria dell’informazione, definiamo l’entropia(di von Neumann) come:
S = −tr(%̂log%̂)
(2.4)
Osservazione Nel caso lo stato descritto dall’operatore densità rappresenti uno stato puro del
sistema dall’idempotenza dell’operatore segue
S = −tr(%̂log%̂) = −tr(%̂log%̂2 ) = −2tr(%̂log%̂) = 0
(2.5)
L’entropia è un’invariante per trasformazioni unitarie U , pooichè la traccia dipende solo dagli autovalori invarianti per trasformazioni unitarie. Infatti, in modo più formale, avremo che, sotto trasformazioni unitarie:
%̂ 7−→ U %̂U −1
(2.6)
e, nel caso in cui l’operatore densità abbia autovalori positivi:
log(%̂) 7−→ log(U %̂U −1 ) = U log(%̂)U −1
(2.7)
S = −tr(%̂log%̂) 7−→ −tr(Û %U −1 U log%̂U 1 ) = −tr(%̂log%̂)
(2.8)
Da cui segue che
2.2 Alcune proprietà dell’entropia
Nel dimostrare alcune proprietà dell’entropia è utile definire il seguente lemma
Lemma Dati una coppia di operatori non negativi (ovvero con autovalori non negativi) X̂, Ŷ
allora vale la seguente disugualglianza:
tr(X̂logŶ ) − tr(X̂logX̂) ≤ tr(Ŷ − X̂)
(2.9)
con l’uguaglianza che vale se e solo se X̂ = Ŷ .
Dimostrazione Consideriamo gli autostati di X̂ ed Ŷ tali che X̂ |mi = xm |mi e Ŷ |qi = yq |qi,
trascurando dunque la degenerazione. Avremo, quindi:
2.2 Alcune proprietà dell’entropia
X
m
Poichè
P
q
hm| X̂logŶ |mi −
X
xm logxm =
m
X
xm | hq|mi |2 logyq −
m,q
X
xm logxm
11
(2.10)
m
| hq|mi |2 = 1 l’espressione (2.10) diventa
y X yq
X
X
q
xm log
| hq|mi |2 ≤
xm
− 1 | hq|mi |2 =
yq −
xm = tr(Ŷ − X̂)
xm
xm
m,q
m,q
q
m
X
(2.11)
c.v.d.
Da questo lemma possiamo dimostrare tutta una serie di proprietà dell’entropia:
ˆ
L’entropia massima in uno spazio di Hilbert N-dimensionale è pari a SM AX = logN ; per dimostrare tale risultato è sufficiente applicare il lemma che abbiamo dimostrato con X̂ = %̂ e
ˆ ;
Ŷ = I/N
ˆ − %̂) ≥ tr %̂log(I/N
ˆ ) − tr %̂log%̂ = −(tr%̂)logN + S ⇒ S ≤ logN
0 = −tr(I/N
(2.12)
ˆ
Nel caso di sistemi non entangled l’entropia è una quantità additiva; in particolare se nel lemma
poniamo X̂ = %A+B e Ŷ = %̂A ⊗ %̂B e sfruttando il fatto che
tr %̂A+B log(%̂A ⊗ %̂B ) = trA trB %̂(log%̂A ⊗ IˆB ) + trA trB %̂(logIˆA ⊗ %̂B )
(2.13)
troviamo che
S(%A+B ) ≤ S(%ˆA ) + S(%ˆB )
(2.14)
con l’uguaglianza che vale solo se %̂A+B = %̂A ⊗ %̂B ovvero se e solo se A e B non sono entangled. Dunque, l’interazione (introducendo una correlazione) riduce l’informazione necessaria a
conoscere il sistema.
ˆ
L’entropia è una funzione concava di %̂, ovvero ovvero, considerati due operatori densità %̂1 e %̂2
e un parametro 0 < λ < 1 allora:
S(λ%̂1 + (1 − λ)%̂2 ) ≥ λS(%̂1 + (1 − λ)S(%̂2 )
(2.15)
tale disuguaglianza si dimostra sostituendo nel solito lemma X̂ = %̂1 Ŷ = %̂ = λ%̂1 + (1 − λ)%̂2 e
successivamente Ŷ = %̂1 e X̂ = %̂2 .
Se consideriamo due stati puri del sistema %̂1 , %̂2 avremo che S(λ%̂1 + (1 − λ)%̂2 ) ≥ 0 L’entropia
aumenta, dunque in seguito all’introduzione di un ulteriore elemento casuale legato al parametro
λ.
Osservazione Il processo di misura aumenta l’entropia del sistema, poichè il collasso della funzione
d’onda avviene in modo casuale introducendo un’ulteriore indeterminazione ed aumentando quindi
l’entropia del sistema.
PInfatti, se consideriamo il processo di misura di un’osservabile con autovalori
a avremo che %̂ 7−→ a P̂a %̂P̂a = %̂0 . Si avrà quindi:
X
S(%̂0 ) = − Tr(%̂0 log %̂0 ) = − Tr
P̂a %̂P̂a log %̂0 .
(2.16)
a
Usando le proprietà di ciclicità della traccia si ottiene
X
S(%̂0 ) = − Tr %̂
P̂a log %̂0 P̂a = − Tr(%̂ log %̂0 )
(2.17)
a
Poichè log %̂0 è diagonale sulla base degli autovalori a. Per cui, posto X̂ = %̂ e Ŷ = %̂0 ed usando il
solito lemma, si ottiene S(%̂) ≤ S(%̂0 )
12
2 Entropia e secondo principio della termodinamica
2.3 Il principio fondamentale della meccanica statistica
La definizione nei termini che abbiamo dato dell’entropia, permette di descrivere lo stato fisico di
un sistema attraverso l’operatore densità, a partire dalla descrizione macroscopica del sistema.
Principio fondamentale della meccanica statistica Fra tutti gli operatori densità atti a descrivere lo stato di un sistema, compatibilmente con i dati noti dal punto di vista macroscopico, si
sceglie quello che massimizza l’entropia.
E’ importante notare che ogni stato macroscopico del sistema è caratterizzato da una distribuzione
dell’energia tra i diversi sottosistemi. Il principio sopra enunciato dice che un sistema per raggiungere l’equilibrio statistico passa una serie di stati consecutivi caratterizzati da una distribuzione di
energia sempre più probabile. Per cui, ricordando la definizione di entropia statistica di Shannon per
cui la probabilità va come eS dove S è l’entropia del sistema, si può dire che i processi che avvengono
in un sistema isolato in uno stato di non-equilibrio sono tali che il sistema evolva in maniera continua
attraverso stati ad entropia sempre maggiore fino a raggiungere il massimo possibile corrispondente
all’equilibrio statistico completo.
Si osservi che in forza della natura esponenziale della probabilità la diminuzione dell’entropia del
sistema (comunque possibile) non può praticamente essere osservata in natura. Per cui, trascurando
le diminuzioni dell’entropia legate a fluttuazioni infinitesime si può asserire quanto segue: se ad un
dato istante l’entropia di un sistema isolato è diversa dal suo valore massimo, negli istanti successivi
l’entropia non decresce, ma aumenta o, nel caso limite, rimane costante.
Benchè queste osservazioni siano confermate dalle esperienze comuni che si possono fare nella quotidianità, ad un’indagine più approfondita delle leggi fisiche possono venire alla luce delle contraddizioni
che non sono state finora superate. Infatti, secondo i risultati della statistica, l’Universo dovrebbe
trovarsi in uno stato di equilibrio statistico completo, con questo si intende che dovrebbe essere in
equilibrio una qualsiasi sua parte di grandezza arbitraria (finita) il cui tempo di rilassamento è in
ogni caso finito, ma l’esperienza di tutti i giorni ci convince che le proprietà della natura non hanno
niente a che vedere con le proprietà di un sistema all’equilibrio, inoltre i dati astronomici mostrano
che lo stesso si ha anche per gran parte dell’Universo osservabile.
Si può risolvere questa contraddizione solo ricorrendo alla relatività generale: i campi di gravitazione
che permeano l’Universo infatti sono causa di una variazione della metrica dello spazio-tempo; ora,
nello studio delle proprietà statistiche dei corpi, queste proprietà metriche possono essere considerate come condizioni al contorno del sistema che si vuole descrivere, e queste condizioni al contorno
non sono stazionarie. E’ evidente che l’affermazione secondo la quale un sistema isolato deve passare
ad uno stato di equilibrio dopo un intervallo di tempo sufficientemente lungo è valida nel caso di
condizioni al contorno stazionarie, mentre è noto che l’espansione cosmologica sottintende che la
metrica è funzione del tempo. Perciò, considerato che in relatività generale il mondo intero non può
essere considerato come un sistema isolato nel senso sopra inteso ma come un sistema collocato in
un campo gravitazionale variabile, l’applicazione della legge dell’aumento dell’entropia non conduce
necessariamente all’equilibrio statistico.
Inoltre, costruendo l’insieme statistico attraverso le leggi della meccanica classica (nel caso di un
gas si considera che le leggi che governano il moto delle singole particelle costituenti il gas siano le
leggi della dinamica: le equazioni di Hamilton), si dovrebbe avere invarianza per inversioni temporali t → −t. Pertanto, se le equazioni sopra citate ammettono un moto, ammetteranno anche un
moto inverso in cui il sistema passa per le stesse configurazioni ma in senso opposto. E’ ovvio che
questa simmetria debba riscontrarsi anche in una statistica basata sulla meccanica classica. Quindi,
se è possibile un processo accompagnato dall’aumento dell’entropia del sistema macroscopico isolato, deve essere possibile anche il processo inverso in cui l’entropia decresce. Formulando la legge
dell’aumento dell’entropia si è parlato della conseguenza più probabile dell’evoluzione di uno stato
macroscopico dato ad un certo istante, ma questo stesso stato deve derivare a sua volta da altri stati
2.4 Costruzione dell’operatore densità per insiemi statistici
13
in seguito a processi che seguono le leggi fisiche; per cui, assumendo la simmetria per inversione
temporale di queste leggi, dato uno stato del sistema al tempo t0 si può affermare, non solo che la
conseguenza più probabile per gli istanti t > t0 sia l’aumento dell’entropia, ma anche che lo stato in
questione derivi da stati ad entropia maggiore. In altre parole: l’entropia come funzione del tempo,
all’istanto t0 in cui si è scelto arbitrariamente lo stato macroscopico, deve trovarsi in un minimo.
E’ evidente che questa formulazione non è equivalente alla formulazione dell’aumento dell’entropia
enunciata in precedenza. Per passare da una formulazione all’altra c’è bisogno di introdurre il concetto di “osservatore“ che ad un dato istante abbia costruito il sistema in esame facendo perdere di
significato il suo comportamento precedente; è chiaramente innammissibile legare in questo modo
le leggi fisiche alle proprietà dell’osservatore.
Dal punto di vista quantistico la situazione è sostanzialmente diversa. Infatti, nonostante l’equazione
di Schrödinger sia simmetrica per l’inversione t → −t (a condizione di sostituire ψ → ψ ∗ ), la meccanica quantistica contiene una non equivalenza dei due sensi del tempo derivante dal postulato del
collasso del vettore di stato. Precisamente, se un oggetto quantistico è soggetto a due processi di
interazione A e B, l’affermazione secondo la quale la probabilità di uno o un altro risultato possibile del processo B è determinata da un risultato del processo A può essere vera solo nel caso in
cui il processo A si sia verificato prima del processo B. Quindi la legge dell’aumento dell’entropia
potrebbe essere l’espressione macroscopica di questa non equivalenza tra i due sensi del tempo. Allora dovrebbe esistere una disuguaglianza contenente la costante quantistica }, che soddisfacesse le
leggi fisiche, giustificando l’esattezza di questa legge. Tuttavia, nessuno è riuscito finora a scoprire
in modo convincente un tale legame ed a dimostrarne l’esistenza.
2.4 Costruzione dell’operatore densità per insiemi statistici
Rispetto a quanto stabilito dal principio fondamentale della meccanica statistica, diviene necessario
stabilire una procedura che permetta di calcolare la variazione dell’entropia in funzione delle variazioni degli operatori di cui è funzione.
ˆ 0 (Â) (si pensi ad esempio
Tale operazione non è banale poichè, in generale f (Â + δ Â) 6= f (Â) + δAf
Â+B̂
A B
6= e e ). Poichè %̂ ha tutti autovalori
positivi con pi ∈ [0, 1], possiamo scegliere un X̂ tale
ae
P
che %̂ = Iˆ − X̂ per cui log(1 − X̂) = − n X̂ n /n In tal caso, si avrà che
S(X̂) = Tr (Iˆ − X̂)
X X̂ n n
(2.18)
e quindi
ˆ = Tr (Iˆ − X̂)
S(X̂ + δX)
X X̂ X (X̂ + δX)
ˆ n
ˆ
− Tr δX
n
n
n
n
(2.19)
ˆ 6= 0 al prim’ordine in δX
ˆ si avrà
Poichè, in generale, [X̂, δX]
h
X n−1
X X̂ n−k−1 δX
X Xn ˆ X̂ k i
ˆ = Tr (Iˆ − X̂)
ˆ
S(Iˆ − X̂ − δX)
− Tr δX
+ S(Iˆ − X̂)
n
n
n
n
(2.20)
k=0
A causa della
P presenza di un’operazione di traccia (si sfrutta la ciclicità), tutti i termini nella
sommatori k danno lo stesso contributo
n−1
+∞
i
X h
X
X Xn ˆ = 1
ˆ X̂ n−1 − Tr δX
ˆ
S(Iˆ − X̂ − δX)
+ S(Iˆ − X̂)
Tr (Iˆ − X̂)
δX
n
n
n
n=1
k=0
Poichè la somma su n nel primo termine può essere risommata come serie geometrica si avrà
(2.21)
14
2 Entropia e secondo principio della termodinamica
i
h
X Xn ˆ
ˆ log(I−
ˆ
ˆ = Tr (I−
ˆ I−
ˆ X̂) = Tr(δX)+Tr
ˆ X̂) +S(I−
ˆ X̂)
ˆ X̂−δX)
ˆ X̂)δX(
ˆ X̂)−1 −Tr δX
+S(I−
δX
S(I−
n
n
(2.22)
Risostituendo l’espressione per %̂ troviamo
ˆ = − Tr(δ%)
ˆ − Tr(δ%
ˆ log %̂) − S(%̂)
S(%̂ + δ%)
(2.23)
δS = − Tr(δ %̂) − Tr(%̂ log %̂)
(2.24)
e quindi
2.4.1 Funzione densità per un sistema isolato: l’insieme microcanonico
Consideriamo un sistema isolato (ad energia fissata) il cui stato fisico sia descritto da un vettore di
stato del tipo |ψk i = |a1 , ...., an , ∆k i dove a1 , ..., an sono autovalori fissati di n grandezze osservabili
compatibili tra loro e conservate dalla dinamica del sistema tali che [Ai , Aj ] = 0 e [H, A] = 0 mentre
∆ rappresenta la degenerazione sugli altri numeri quantici del sistema. Questi vincoli equivalgono
a richiedere che che l’energia si conservi (ad es. Â1 = H) e che gli autovalori non a1 , ..., an non
fluttuino nel tempo in virtù della conservazione dell’energia.
Lo stato |ψk i è dunque uno stato puro del sistema. Lo stato con entropia massima è quello che
realizza la condizione S = log N dove N è il numero di stati microscopici compatibili con lo stato
in cui sono fissati gli n autovalori ai .
%̂microcanonico =
P̂a1 ,...,an
Tr(P̂a1 ,...,an )
=
1
N
X
Tr(P̂a1 ,...,an )
i=1
|a1 , ..., an , ∆i i ha1 , ..., an , ∆i i
(2.25)
Questa è l’espressione dell’operatore densità in un sistema isolato in cui siano fissati gli autovalori
di un certo numero di osservabili compatibili, ovvero l’insieme statistico cosidetto microcanonico.
2.4.2 Funzione densità per l’insieme grancanonico
Consideriamo adesso un sistema non isolato, ma in connessione con un reservoir esterno. L’hamiltoniana
che agisce sugli stati del sistema sarà, quindi della forma H = H0 + V dove H0 è la hamiltoniana che
descrive le interazioni interne al sistema, mentre V è la parte che descrive il potenziale di interazione
fra il sistema ed il reservoir esterno.
Vogliamo sottolineare che il reservoir esterno non risponde alle fluttuazioni di S ovvero le condizioni
imposte dal reservoir sono fissate e costanti nel tempo. La richiesta di avere un insieme grancanonico
equivale a considerare un set di operatori Â1 , ...Ân compatibili tra loro e con la hamiltoniana H0 e
imponendo che il loro valore d’aspettazione sullo stato del sistema sia costante nel tempo, ovvero:


∀i, j = 1, ..n
[Âi , Âj ] = 0
(2.26)
[Ĥ0 , Âi ] = 0
∀i = 1, ..n

d
d
dt hÂi i = dt Tr(%̂Â) = 0 ∀i = 1, .., n
Osservazione Se si considera Â1 = H allora dalla condizione hÂ1 i = cost si traduce, nella rappresentazione di Heisenberg:
∂ Â1 ∂ Â1 Tr %̂[Ĥ, Â1 ] +
= Tr %̂
=0
(2.27)
∂t
∂t
Ĥ0
Dunque, per avere equilibrio, supposto che ∂∂t
= 0, abbiamo che ∂∂tV̂ = 0. In caso contrario possiamo
pensare di studiare l’andamento dell’entropia istante per istante. In particolare, nel caso il reservoir
risponda alle variazioni del sistema S, dovremo considerare un operatore densità della forma:
2.4 Costruzione dell’operatore densità per insiemi statistici
%̂S = TrR %̂R+S
i
∂ %̂
= [Ĥ, %̂]
∂t
15
(2.28)
In un tal caso l’operatore Ĥ è come se non fosse più hermitiano perchè l’evoluzione non è unitario
Osservazione Da notare che poichè in genere si considerano osservabili che non dipendono esplicitamente dal tempo, l’evoluzione temporale degli operatori Ai è data, in accordo con il teorema di
Erhenfest, dall’espressione:
d
(2.29)
i Âi = [Âi , V̂ ].
dt
Osservazione L’entropia è stazionaria all’equilibrio stazionario, infatti:
dS
d%̂
d%̂ = − Tr( log %̂) − Tr
dt
dt
dt
(2.30)
Assumendo un’evoluzione del tipo i ddt%̂ = [Ĥ, %̂] avremo:
dS
= − Tr([Ĥ, %̂] log %̂) − Tr([Ĥ, %̂])
dt
(2.31)
Sfruttando le proprietà di ciclicità della traccia abbiamo che Tr([., .]) = 0; quindi
dS
= − Tr(Ĥ %̂ log %̂) + Tr(%̂Ĥ log %̂) = 0
dt
(2.32)
come segue sfruttando le proprietà di ciclicità della traccia.
∂ %̂
Affinchè l’entropia vari è necessario che i dS
dt = [Ĥ, %̂] + ∂t per cui:
∂ %̂
dS
= − Tr
log %̂
dt
∂t
(2.33)
Determiniamo la forma dell’operatore densità %̂ nel sistema macrocanonico, sfruttando il principio
fondamentale della meccanica statistica ricordando di massimizzare l’entropia con i vincoli hÂi i =
Ai . Usando il metodo dei moltiplicatori di Lagrange, dobbiamo dunque estremare la funzione:
X
S + vincoli = − Tr(%̂ log %̂) −
λi (Tr(%̂Âi ) − Ai ) + λ0 Tr(%̂ − 1)
(2.34)
i
ˆ
Abbiamo quindi attraverso la sostituzione %̂ 7−→ %̂ + δ%
X
ˆ − Tr(δ%
ˆ log %̂) −
ˆ Âi ) + λ0 Tr(δ%)
ˆ =0
δ(S + vincoli) = − Tr(δ%)
λi Tr(δ%
(2.35)
i
Sfruttando le proprietà di linearità della traccia:
X
ˆ =0
Tr[(−1̂ − log %̂ −
λi Âi + λ0 )δ%]
(2.36)
i
ˆ avremo che:
Dovendo essere valida per un generico δ%
X
%̂0 = exp −
λi Âi + (λ0 − 1)Iˆ
(2.37)
i
Che possiamo riscrivere come:
%̂0 =
e−
P
i
Z
λi Âi
Z = Tr(e−
P
i
λi Âi
)
(2.38)
16
2 Entropia e secondo principio della termodinamica
La funzione Z, media pesata degli stati del sistema, si dice funzione di partizione. Verifichiamo che
tale espressione massimizzare effettivamente l’entropia;
X
S(%̂0 ) = − Tr(%̂0 log %̂0 ) =
λi Tr(%̂0 Âi + log Z)
(2.39)
i
Sostituendo in Tr(X̂ log Y ) − Tr(X̂ log X̂) ≥ 0 l’espressione X̂ = %̂ 6= %̂0 e Ŷ = %̂0 si dimostra che la
distribuzione %̂0 in effetti massimizza S(%̂).
Nell’operatore densità compaiono i moltiplicatori di Lagrange che abbiamo introdotto per massimizzare l’entropia con gli opportuni vincoli. Dobbiamo adesso trovare il modo di ricavare il significato
fisico di questi moltiplicatori in analogia con il caso degli insiemi statistici classici.
2.4.3 L’opeartore densità per l’insieme canonico
Nel caso dell’insieme microcanonico, ovvero per uno sistema in cui siano fissati gli autovalori di un
set completo di osservabili, la forma dell’operatore densità è data:
%̂ =
P̂a1 ,...,an
Tr Pa1 ,...,aN
(2.40)
Per un sistema grancanonico, in cui tutte le osservabili son accoppiate con l’esterno, per cui è
possibile fissarne solo il valor medio, l’operatore densità sarà della forma:
%̂ =
1 − PN
i=0 λi Âi .
e
Z
(2.41)
Possiamo dunque immaginare un sistema in cui alcune osservabili sono accoppiati con l’esterno
mentre altre sono fissate:
%̂ =
1 − Pm
i=0 λi Âi P̂
e
am+1 ,...,aN
Z
Z = Tr(e−
P
i
λi Âi
P̂am +1,..,aN )
(2.42)
un’esempio è l’insieme canonico in cui è fissato il numero di particelle mentre l’energia può essere
scambiata con l’esterno e fluttua attorno ad un valor medio costante.
2.5 Alcune proprietà della funzione di partizione
Notiamo anzitutto la seguente ugualianza, nella quale sfruttiamo [Âi , Âj ] = 0 ∀i, j
e−
P
Âj
P
P
1
1 ∂
Tr(Âi e− j λj Âj ) = −
Tr(e− λj Âj ) =
Z
Z
Z ∂λi
1 ∂Z
∂ log Z
=−
=−
= hÂi i
Z ∂λi
∂λi
Tr(%̂Âi ) = Tr(Âi
j
)=
(2.43)
Tale uguaglianza è valida all’equilibrio statistico ed offre un metodo attraverso il quale, assegnati i paramentri λi , è possible ricavare i momenti primi hÂi i. Invertendo questa relazione, in modo
opportuno, è possibile ricavare i coefficienti λi una volta assegnati i hÂi i.
Osservazione Analogamente a quanto si è visto, è possibile trovare un’espressione per i momenti
secondi delle osservabili Ai , Aj . Infatti,
P
P
∂2Z
∂2
=
Tr(e− k λk Âk ) = Tr(Âj Âi e− k λk Âk )
∂λi λj
∂λi ∂λj
(2.44)
2.5 Alcune proprietà della funzione di partizione
Mentre, per il logaritmo della funzione di partizione si ha:
∂ 2 ln Z
∂
1 ∂Z
1 ∂Z ∂Z
1 ∂2Z
=
=− 2
+
=
∂λi ∂λj
∂λi Z ∂λj
Z ∂λi ∂λj
Z ∂λi ∂λj
17
(2.45)
= −hÂi ihÂj i + hÂi Âj i
Nel caso in cui i = j avremo che
∂ 2 log Z
= hÂi i − hÂi i2
∂λ2i
(2.46)
Vediamo quindi trovare un metodo per dare un’interpretazione fisica dei λi ; consideriamo l’entropia
S = S(hÂ1 i, ..., hÂN i) come funzione di hÂi i:
S = − Tr(%̂ log %̂) = − Tr %̂(−
X
i
X ∂ log Z
X
λi Âi −log Z) =
λi hÂi i+log Z = log Z −
λi
(2.47)
∂λi
i
i
Passando ai differenziali:
dS = d log Z − d
X
λi
i
=
X ∂ log Z
i
=
X
∂λi
dλi −
∂ log Z
=
∂λi
X ∂ log Z
∂λi
i
dλi −
X
i
λi
∂ log Z
∂λi
=
(2.48)
λi dhÂi i
i
Dunque, all’equilibrio:
∂S
∂hÂi i
= λi
(2.49)
Identificando l’entropia S con l’entropia termodinamica calcolata classicamente ed identificando le
hÂi i con le grandezze macroscopiche di cui è fissato il valor medio nell’insieme statistico considerato
è possibile ricavare il significato dei moltiplicatori λi .
Osserviamo, infine la relazione che intercorre fra l’entropia ed il logaritmo della funzione di partizione:
X ∂ log Z
S = log Z −
λi
(2.50)
∂λi
i
d’altraparte avremo che:
log Z = S +
X
i
=S−
λi
X
∂ log Z
=S−
λi hÂi i =
∂λi
i
X ∂S
i
∂hÂi i
(2.51)
hÂi i
Dunque, fra log Z e S c’è una trasformata di Legendre.
Quanto visto sinora, a rigore, riguarda un insieme statistico per cui l’operatore densità è una funzione delle osservabili Âi attraverso una funzione del tipo e−λi Âi ; dobbiamo dunque per esprimere gli
operatori di proiezione in una forma analoga a questa. Sfruttando il fatto che il gruppo delle trasformazioni unitarie unidimensionali è associato alle osservabili con spettro discreto o con grandezze
addittive, possiamo scrivere
18
2 Entropia e secondo principio della termodinamica
P̂ai =
1
2π
Z
π
dϕe−iai ϕ eiϕÂ
(2.52)
−π
dove ai è un autovalore dell’operatore Âi . Per dimostrare questa espressione è sufficiente ricordare
che, per un operator con spettro discreto vale:
X
eiϕÂi =
eiϕai |ai i hai |
(2.53)
ai
e, usando la relazione ei2πÂi si conclude che P̂a2i = P̂ai . In questo modo è possibile determinare
la funzione di partizione anche per un insieme che abbia fissate alcuni autovalori delle osservabili,
mentre di altre osservabili è fissato solo il valor medio( insieme canonico):
Z π
P
P
1
− i λi Âi
ϕe−ia0 ϕ Tr e− i λi Âi eiϕÂ0
Zc = Tr(e
P̂a0 ) =
2π −π
|
{z
}
Zgrancanonica con λ0 =iϕ
(2.54)
Z π
1
=
dϕe−ia0 ϕ ZGC (λ1 , ..., λN , λ0 = iϕ)
2π −π
Osservazione Le funzioni di partizione sono funzioni di variabile complessa, in generale; dallo
studio delle proprità di analiticità si ricavano informazioni sulle transizioni di fase.
2.5.1 Appendice: l’interpretazione fisica dei moltiplicatori di lagrange per una %̂
nell’insieme grancanonico e canonico
Il punto chiave che permette di rendere veramente efficace la prescrizione sin qui descritta per determinare l’operatore densità che rappresenta un sistema, assume un senso nel momento in cui si
interpretino dal punto di vista fisico i moltiplicatori di Lagrange associati a ciascun operatore.
Per fare ciò è necessario procedere in analogia con il caso termodinamico, costruendo le varie
grandezze termodinamiche a partire dalle derivate dell’entropia rispetto ai valori medi delle osservabili. Procedendo in questo modo possiamo identificare i seguenti moltiplicatori:
ˆ
ˆ
ˆ
ˆ
il moltiplicatore accoppiato alla hamiltoniana H è λĤ7−→ 1 dove T è la temperatura del sistema
T
il moltiplicatore accoppiato al numero di particelle1 N è legato al potenziale chimico µ dalla
relazione λN̂ 7−→ Tµ ;
nel limite non relativistico, il moltiplicatore associato alla i-esima componente dell’impulso P̂i è
proporzionale alla i-esima coordinata della velocità del centro di massa del sistema vi secondo
la relazione λP̂i 7−→ vTi ;
nei sistemi rotanti, il moltiplicatore legato al momento angolare lungo un asse Jˆz è legato alla
velocità angolare dalla relazione λJˆz 7−→ Tω dove ω è la velocità angolare del sistema
Approfondiremo in seguito l’interpretazione classica delle grandezze che abbiamo trovato attraverso
il formalismo dell’operatore densità.
2.5.2 Appendice: il sistema rotazionale
Consideriamo il caso particolare di un sistema rotante dal punto di vista della meccanica statistica.
In riferimento a quanto abbiamo visto possiamo imporre ad un sistema canonico nell’energia (ovvero
termalizzato ad una temperatura T ):
1
In meccanica statistica quantistica relativistica il numero di particelle non è un’operatore locale; al suo
posto si trova una qualche carica associata alle simmetrie del sistema come ad esempio la carica elettrica
Q̂.
2.5 Alcune proprietà della funzione di partizione
ˆ
ˆ
19
un valore costante nel momento angolare (sistema microcanonico angolare)
che possa avere un momento angolare lungo un asse fluttuante attorno ad un valor medio (sistema
grancanonico con momento angolare);
massimizzando l’entropia del sistema si otterrà l’operatore densità che rappresenta il sistema.
Limitandoci a considerare il caso grancanonico, avremo che:
ˆ
%̂ =
e−β Ĥ+βωJz
Z
(2.55)
∂S
.
Vediamo dunque come sia possibile interpretare classicamente il significato di ∂J
z
Sia dato un fluido (sistema continuo) isolato all’equilibrio com momento angolare J lungo un asse
fissato. Posso studiare tale sistema suddividendolo idealmente in ”cellette“ ciascuna delle quali è
un sistema statistico grancanonico: alla ”celletta“ i-esima attribuisco una certa velocità di insieme
delle particelle che la compongono vi . Si è assegnato in questo modo un campo di velocità; ciò che
si vuole determinare è la forma del campo di velocità, di energia e di momento angolare che rende
massima l’entropia2 (condizione di equilibrio).
Assumendo che le ”cellette“ siano independenti tra loro (ovvero trascurando gli effetti di eventuali
interazioni a lungo raggio), possiamo scrivere:
X
S=
Si
(2.56)
i
dove Si rappresenta l’entropia della ”celletta“ i-esima. Tenuto conto di ciò, possiamo imporre i
vincoli fissando l’energia, l’impulso ed il momento totale del sistema considerando la funzione:
X
X
X
S + vincoli = S − β
Ei − E0 + βv·
Pi − P0 + βω·
Ji − J 0
(2.57)
i
i
i
Dunque uguagliando a zero la derivata di tale funzione
ˆ
rispetto all’energia Ej della j-esima celletta e considerando che l’entropia, all’equilibrio, è una
funzione di stato dell’energia interna, ovvero:
Sj (Uj ) = Sj (Ej −
Pi2
)
2mi
(2.58)
avremo quindi:
∂
∂S
∂S
(S + vincoli) =
−β =
−β =0
∂Ej
∂Ej
∂Uj
(2.59)
da cui:
ˆ
1
∂S
=β=
∀j;
∂Uj
T
rispetto all’impulso Pj e ricordando che Ji = xi × Pi avremo:
∂
∂S Uj
1
Pj
1
1 ω
(S + vincoli) =
+ βv0 + βω × xj =
−
+ +
=0
∂Pj
∂Uj Pj
T
M
T
T xj
(2.60)
(2.61)
per cui otteniamo che il campo di velocità ha la forma:
v j = v + ω × xj
(2.62)
per cui, se assumiamo che v sia la velocità del centro di massa del sistema e che ω rappresenti
il vettore velocità angolare del sistema, vediamo cheall’equilibrio il fluido si comporta come un
corpo rigido 3 ;
2
3
Nel caso quantistico la prescrizione è di massimazzare l’entropia rispetto all’operatore densità
Se imponiamo un vincolo sul volume, il fluido inizierà a ruotare su un asse principale di inerzia
20
ˆ
2 Entropia e secondo principio della termodinamica
rispetto a Ji avremo, infine:
∂
ω
= .
∂Ji
T
(2.63)
Torniamo quindi al caso quantistico, trascurando l’impulso totale del sistema4 P = 0. In questo
contesto non è possibile fissare il valore delle tre componenti del momento angolare (sistema microcanonico nel momento angolare lungo ciascuno dei tre assi) in modo indipendente poichè Jˆx , Jˆy , Jˆz
non sono operatori tra loro compatibili. Tuttavia è possibile fissare il valor medio del vettore momento angolare se la hamiltoniana è invariante per rotazione(insieme macrocanonico rispetto ai
momenti angolari) :
Tr(%̂Ĵ) = J0 .
(2.64)
In tal caso, possiamo scrivere l’operatore densità nella forma:
%̂ =
e−β ĥ
e−β Ĥ+βω·Ĵ
6=
Z
Q3
i=1
eβ ωi Jˆi
Z
(2.65)
la disuguaglianza è proprio dovuta al fatto che gli operatori Jˆi non commutano fra loro5 La forma
∂
Tr(%̂Â) = 0. Tuttavia, in assenza di polarizzazioni, sarà
dell’operatore densità è tale per cui ∂t
sempre possibile scegliere il sistema di riferimento in modo tale che il momento angolare sia sempre
diretto lungo un asse (ad es. l’asse z); valgono comunque le solite relazioni:
∂S
∂hĴi
=−
ω 1 ∂ log Z
= hĴi.
T β ∂ω
(2.66)
Una riflessione deve essere però fatta a proposito dell’arbitrarietà della scelta del sistema di riferimento e della relazione fra questa e le proprietà geometriche del sistema.
In particolare si consideri la funzione di partizione del sistema rotazionale grancanonico:
Z = Tr e−β Ĥ+βω·Ĵ
(2.67)
Osservazione Nel momento in cui si calcola la traccia di un sistema, si somma sugli stati quantici
del sistema e questi dipendono dalla geometria del sistema.
Per dimostrare il contributo decisivo della geometria del sistema vogliamo dimostrare che:
∂
hĴi =
=0
(2.68)
log Z ∂ω
ω=0
Per dimostrare tale risultato è sufficiente dimostrare che la funzione Z = Z(ω) è pari, infatti:
Z(−ω) = Tr(e−β Ĥ−βωJz ) = Tr(e−β Ĥ Rz (π)eβωJz Rz−1 (π) =
= Tr Rz (π)e−β Ĥ eβωJz Rz−1 (π) = Tr(e−β Ĥ+βωJz ) = Z(ω)
(2.69)
dove Rz (π) rappresenta una rotazione di un angolo piatto attorno ad un asse ortogonale all’asse z.
Vogliamo sottolineare che: usando le proprietà di ciclicità della traccia, come si è già visto, abbiamo
assunto che l’operatore di proiezione PV sugli stati compatibili con la geometria di un certo volume
V commuti con gli operatori O su cui si valuta la traccia, ovvero [PV , O] = 0. Quindi il risultato
che abbiamo ricavato , ovvero che se la velocità angolare di un sistema è nulla allora anche il valor
medio del momento angolare è nullo, è valido solo sotto certe ipotesi di simmetria.
4
5
Ciò può essere sempre realizzato in un SDR a riposo rispetto al fluido
Benchè [%̂, Jˆz ] 6= 0, la stazionarietà è garantita da [Ĥ, Jˆz ] = 0
3
Equivalenza degli insiemi statistici nel limite termodinamico
Nel capitolo precedente abbiamo visto che è possibile trovare una prescrizione per ricavare l’operatore
densità che descriva lo stato di un insieme statistico.
Tuttavia in analoga con la termodinamica classica dimostreremo che nel limite termodinamico, per cui limV →∞ N
V = cost le descrizioni di uno stesso sistema attraverso insiemi statistici diversi,
coincidono.
Per dimostrare ciò è tuttavia necessario introdurre il concetto di estensività di una grandezza
fisica. Diremo che una grandezza è estensiva se dipende linearmente dal volume del sistema ed un
sistema estensivo è tale se l’entropia è una funzione di grado zero nel volume, ovvero
S(xV, xE, xN ) = xS(V, E, N )
∀x ∈ R
(3.1)
OssevazioneSe un sistema è estensivo allora anche la funzione log Z deve essere estensiva e può
essere scritta nella forma
log Z = V f (λ1 , ...λn )
condizione di estensività
(3.2)
poichè vale la (2.51)
Osservazione Benchè l’estensività possa sembrare una proprietà ovvia per i sistemi che usualmente
si incontrano, vi sono esempi di sistemi non estensivi: si pensi, ad esempio, ai sistemi con interazioni
a lungo raggio.
3.1 Equivalenza dell’insieme canonico e grancanonico nel limite
termodinamico
4
Il limite classico: funzione di Wigner
Il questo capitolo si vuole verificare che la meccanica statistica quantistica nel limite } → 0 conduce
ai noti risultati classici.
Per fare ciò si introduce il concetto trasformata di Wigner.
4.1 Trasformata di Wigner
Si consideri una particella in uno stato descritto dalla funzione d’onda ψ(x), si definisce per questa
la funzione nelle variabili canoniche
Z +∞
y
y
W (x, p, t) ≡
d3 yeip·y ψ ∗ (x + , t)ψ(x − , t)
(4.1)
2
2
−∞
questa prende il nome di funzione di Wigner.
Si noti che questa funzione è simile ad una densità di probabilità; infatti:
Z
Z +∞
y
y
3
d pW (x, p, t) =
d3 yδ 3 (y)ψ ∗ (x + , t)ψ(x − , t) = |ψ(x, t)|2 (2π)3
2
2
−∞
e analogamente
Z
d3 xW (x, p, t) = |ψ(p, t)|2 (2π)3
E’ importante notare che nonostante le proiezioni della funzione di Wigner siano distribuzioni
marginali di probabilità, la funzione di Wigner non è una densità di probabilità nello spazio delle
fasi, infatti
2
2
− ≤ W (x, p, t) ≤
}
}
non è cioè definita positiva.
Si consideri ora uno stato |ψi che descrive uno stato puro, la funzione di Wiegner si può scrivere:
Z +∞
y
y
W (x, p, t) =
d3 yeip·y hx + |ψ(t)ihψ(t)|x − i
2
2
−∞
Si ricorda che %̂ = |ψihψ| quindi la formula sopra può essere generalizzata anche per gli stati misti.
Inserendo due completezze nella base degli impulsi |ki si ottiene
Z +∞
Z
y
y
W (x, p, t) =
d3 yeip·y d3 kd3 k 0 hx + |kihk|%̂|k’ihk’|x − i
2
2
−∞
24
4 Il limite classico: funzione di Wigner
Le autofunzioni dell’impulso nella base delle coordinate si esprimono
y
y
ei(x+ 2 )·k
|ki =
3
2
(2π) 2
hx +
per cui si ottiene
Z
+∞
Z
k
k’
1
eiy·(p− 2 − 2 ) eik·x e−ik’·x hk|%̂|k’i =
3
(2π)
−∞
Z
k k’ ik·x
3
3 0 3
= 8 d kd k δ p − −
e
hk|%̂|k’ie−ik’·x =
2
2
Z
= 8 d3 keik·x hk|%̂|2p − ki =
d3 y
W (x, p, t) =
d3 kd3 k 0
ed operando infine la sostituzione k −→ p −
Z
k
2
si ottiene
+∞
d3 khp −
W (x, p, t) =
−∞
k
k
|%̂|p + ieik·x
2
2
(4.2)
Questo tipo di trasformazione W : H∗ −→ C∞ (<2l+1 ) si dice trasformata di Wigner. Come si è
detto la trasformazione di Wigner associa ad un operatore  che agisce su uno spazio di Hilbert
una funzione A(x, p, t) continua nello spazio delle fasi classico:
Z
s
x
(4.3)
A(x, p, t)W = d3 seip·s hp − |Â|x + i
2
2
La trasformata di Wigner è invertibile: ad una funzione nello spazio delle fasi si associa un operatore
che agisce su uno spazio di Hilbert:
Z
d3 p ip·(x−y) x + y
hx|Â|yi =
e
A(
, p, t)W
(4.4)
(2π)3
2
è facile la verifica:
d3 p ip·(x−y)
e
(2π)3
Z
Z
=
Z
d3 seip·s h
d3 sδ 3 (x − y + s)h
x+y−s
x+y+s
|Â|
i=
2
2
x+y+s
x+y−s
|Â|
i = hx|Â|yi
2
2
Si vuole ora mettere in evidenza la corrispondenza tra lo spazio degli operatori che operano sullo
spazio di Hilbert e lo spazio delle fasi classico. Per fare ciò si calcola il valore medio dell’osservabile
Â:
Z
Z
3
tr(%̂Â) = d xhx|%̂Â|xi = d3 xd3 x0 hx|%̂|x’ihx’|Â|xi =
Z
=
d3 xd3 x0
d3 p ip·(x−x’)
x + x’
e
W(
, p, t)
(2π)3
2
Z
si operano le sostituzioni a jacobiano 1: x − x’ = y,
Z
=
3
3
d yd X
Z
Z
x+x’
2
d3 p ip·y
e
W (X, p, t)
(2π)3
Z
d3 s is·(x−x’) x + x’
e
A(
, s, t)W =
(2π)3
2
=X
d3 s −is·y
e
A(X, s, t)W =
(2π)3
4.1 Trasformata di Wigner
Z
=
25
d3 X 3
d pW (X, p, t)A(X, p, t)W
(2π)3
che è proprio il valore di aspettazione della grandezza A(X, p, t) avente una distribuzione di probabilità W (x, p, t).
La trasformata di Wigner di  si può anche esprimere nella forma alternativa:
A(x, p)W = tr(ÂÊ(x, p))
con
1
Ê(x, p) =
(2π)3
Z
(4.5)
d3 αd3 βeiα·(x̂−x)+iβ·(p̂−p)
Ora, essendo x̂ e p̂ due osservabili non commutanti, l’esponenziale integrando non può essere fattorizzato, si deve perciò ricorrere alla formula di Zassenhaus:
1
1
eÂ+B̂ = e eB̂ e− 2 [Â,B̂] e 3! (2[B̂,[Â,B̂]]+[Â,[Â,B̂]]) ...
(4.6)
Ora, [x̂, p̂] = i}, è cioè costante, quindi i termini aventi all’esponente un commutatore tra un
operatore ed il commutatore tra x̂ e p̂ sono pari a uno, per cui si ottiene:
Z
β
1
d3 αd3 βeiα·(x̂−x’) eiβ·(p̂−p) eiα· 2
(4.7)
Ê(x, p) =
3
(2π)
Si verifica che questa formulazione della trasformata di Wigner coincide con quella data in precedenza:
Z
β
1
d3 αd3 βeiα· 2 tr(Âeiα·(x̂−x’) eiβ·(p̂−p) ) =
tr(ÂÊ(x, p)) =
(2π)3
si fa la traccia sulla base degli impulsi e si inserisce una completezza nella base delle coordinate
Z
Z
iq·y
1
3
3
iα· β
3
3
iα·(y−x) iβ·(q−p) e
2
d
αd
βe
d
qd
yhq|
Â|yie
e
=
3 =
(2π)3
(2π) 2
Z
=
Z
β
eiq·y
+ y − x) d3 qd3 yhq|Â|yieiβ·(q−p)
3 =
2
(2π) 2
β
Z
Z
β iβ·(q−p) eiq·(x− 2 )
3
3
= d β d qhq|Â|x − ie
3
2
(2π) 2
d3 βδ 3 (
Ora, si ha che:
e
iβ·(q−p) e
iq·(x− β
2
(2π)
3
2
)
=
1
(2π)
β
3
2
eiq·(x+ 2 ) e−iβ·p
ed inserendo una completezza nelle coordinate si ottiene
Z
Z
Z
e−iq·z
β iq·(x+ β ) −iβ·p
3
3
2 e
tr(ÂÊ(x, p)) = d β d z d3 q
ie
3 hz|Â|x −
2
(2π) 2
Z
Z
β
β
3
= d β d3 zδ 3 (x + − z)hz|Â|x − ie−iβ·p =
2
2
Z
β
β
= d3 βhx + |Â|x − ie−iβ·p
2
2
e sostituendo β −→ −β si ottiene la definizione data in precedenza per la trasformata di Wigner.
Esiste anche la formula di inversione:
26
4 Il limite classico: funzione di Wigner
Z
 =
d3 xd3 p
A(x, p)W Ê(x, p)
(2π)3
(4.8)
Si noti che nel caso si volesse calcolare la traccia di un operatore nello spazio delle fasi basta sostituire
%̂ −→ 1, infatti
Z
y
y
W (x, p)1 = d3 yeip·y hx − |x + i = 1
2
2
in quanto hx − y2 |x + y2 i = δ 3 (y), per cui
Z
tr =
d3 xd3 p
A(x, p)W
(2π)3
Si può verificare la formula di inversione dimostrando che trÊ(x, p) = 1.
4.2 Recupero delle equazioni del moto
Si vuole ora calcolare la variazione nel tempo della funzione di Wigner, quindi, partendo da:
i}
∂ %̂
= [Ĥ, %̂]
∂t
si applica la trasformazione di Wigner ad entrambi i membri, per cui si ha:
i}
∂W
= ([Ĥ, %̂])W = (Ĥ %̂ − %̂Ĥ)W
∂t
(4.9)
Si vuole trovare la trasformata di Wigner del prodotto di due operatori:
Z 3 3
Z 3 0 3 0
d xd p
d xd p
=
(ÂB̂)W =
A(x,
p)
Ê(x,
p)
B(x’,
p’)
Ê(x’,
p’)
W
W
(2π)3
(2π)3
W
Z 3 3 3 0 3 0
d xd pd x d p
A(x,
p)B(x’,
p’)
Ê(x,
p)
Ê(x’,
p’)
=
(2π)6
W
Si può dimostrare che il prodotto di due operatori Ê calcolati in due punti distinti del piano delle
fasi è:
Z
x + x’ + }β p + p’ − }α iα·(x−x’) iβ·(p−p’)
Ê(x, p)Ê(x’, p’) = d3 αd3 β Ê
,
e
e
2
2
Per cui si ha per il prodotto di due operatori:
Z
1
1
ÂB̂ =
d3 xd3 pd3 x0 d3 p0 A(x, p)W B(x, p)W
·
(2π)6
(2π)3
Z
x + x’ + }β p + p’ − }α iα·(x−x’) iβ·(p−p’)
· d3 αd3 β Ê
,
e
e
=
2
2
Effettuanto le sostituzioni:
x − x’ = y
p − p’ = q
entrambe a jacobiano uno si ottiene:
x + x’
=X
2
p + p’
=P
2
4.2 Recupero delle equazioni del moto
=
1
(2π)6
27
Z
y
y
q
q
B X − ,P −
·
d3 yd3 Xd3 qd3 P A X + , P +
2
2 W
2
2 W
Z
1
β}
α} iα·y iβ·q
3
3
·
d
αd
β
Ê
X
+
,
P
−
e
e
=
(2π)3
2
2
sostituendo
e = X + β}
X
2
α}
Pe = P −
2
si ottiene
1
=
(2π)6
Z
y β} e q α}
e
d αd βA X + −
,P + +
·
2
2
2
2
e − y − β} , Pe − q + α} Ê(X,
e Pe)eiβ·q eiα·y
·B X
2
2
2
2
3
3
e 3 qd3 Pe
d yd Xd
1
(2π)3
Z
3
3
Ora, si ricorda che per quanto visto nella 4.8 si può dire che la trasformata di Wigner del prodotto
di due operatori è:
Z
y β} e q α}
1
3
3
3
3
e
e
e
(ÂB̂)W (X, P ) =
d yd qd αd βA X + −
,P + +
·
(2π)6
2
2
2
2 W
e − y − β} , Pe − q + α}
eiβ·q eiα·y
(4.10)
·B X
2
2
2
2 W
Ora, fare il limite classico vuol dire fare il limite per } −→ 0 nell’equazione 4.9. Quindi, affinchè
non si abbiano divergenze, il commutatore non deve avere termini di ordine zero in }. Si nota che
nell’espressione trovata per la trasformata di Wigner del prodotto se ci si ferma all’ordine zero, i
termini in α e β sono solo quelli esponenziali, integrando in queste variabili si ottengono quindi due
delta di Dirac in q e y ed integrando quindi si devono valutare le funzioni in q = 0 e y = 0. Questo
vuol dire che all’ordine zero la trasformata di Wigner di un prodotto è uguale al prodotto delle
trasformate
}−→0
(ÂB̂)W (x, p) −−−−→ (Â)W (x, p)W (B̂)W (x, p)W
essendo queste funzioni nello spazio delle fasi che quindi commutano tra loro, il commutatore
all’ordine zero risulta nullo.
Andando all’ordine uno invece, le funzioni integrande diventano:
β}
α}
β}
α}
}−→0
−−−−→ A + ∇x A ·
+ ∇p A ·
B − ∇x B ·
+ ∇p B ·
2
2
2
2
Si nota che i termini all’ordine uno sono del tipo:
Z
1
d3 ηeiη·k η = (2π)3 ∇k δ 3 (k)
i
nel senso delle distribuzioni, quindi:
Z
Z
1
d3 αeiα·y α d3 βeiβ·q = (2π)3 ∇y δ 3 (y)δ 3 (q)
i
Alla fine si ottiene:
(ÂB̂)W = (Â)W (B̂)W
"
#
3
i} X ∂(Â)W ∂(B̂)W
∂(Â)W ∂(B̂)W
+
−
2 i=1
∂xi
∂pi
∂pi
∂xi
28
4 Il limite classico: funzione di Wigner
che scritto con le parentesi di Poisson risulta:
(ÂB̂)W = (Â)W (B̂)W +
o
i} n
(Â)W , (B̂)W
2
(4.11)
Quindi, si ha che
[Ĥ, %̂]
W
n
o
= (Ĥ)W , W + o(})
Si è perciò riottenuto il teorema di Liouville:
n
o
∂W
= (Ĥ)W , W
∂t
(4.12)
Parte II
Meccanica statistica relativistica: introduzione
5
Insieme microcanonico di un gas ideale relativistico
La funzione di partizione di un gas ideale relativistico per cui si conservano il quadri-impulso e la
carica è
X
Ω=
δ 4 (P̂ − P0 )δQ,Q0
(5.1)
states
dove la somma sugli stati non è altro che l’operazione di traccia.
Si notino due cose: innanzitutto questo è un oggetto dimensionato avente le dimensioni dell’inverso
di una massa alla quarta ([M −4 ]); il termine δ 4 (P̂ − P0 ) non è un proiettore sugli stati di quadriimpulso fissato P0 in quanto non è idempotente e non c’è modo di rinormalizzarlo, questo problema
è correlato al fatto che il gruppo delle traslazioni in quattro dimensioni non è compatto.
D’ora in poi si trascureranno le cariche esattamente conservate.
5.1 Corpo nero
Si riscrive la funzione di partizione esplicitando δ 4 (P̂ − P0 ), quindi:
Z
X
1
Ω=
d4 xeiP0 ·x
e−iP ·x
4
(2π)
states
sommare sugli stati equivale a sommare su tutti i possibili numeri di occupazione dei modi all’interno
della scatola. Trascurando l’energia di vuoto ed esprimendo con nk il numero di fotoni presenti nel
modo k si ottiene:
Z
X
P
1
Ω=
d4 xeiP0 ·x
e−i k nk pk ·x
(5.2)
4
(2π)
{nk }
Nel caso considerato, cioé quello di fotoni in una cavità, è necessario, affinchè la somma sui numeri
di occupazione converga, dare ad x0 una piccola componente immaginaria negativa. Ricordando che
X P
XY
XX Y YX
e k −→
−→
...
=
{nk }
n1
{nk } k
n2
k
k
nk
e sfruttando la convergenza della serie geometrica
1
Ω=
(2π)4
Z
Riesprimendo la produttoria come
+∞−iε
Z
dx0
−∞−iε
d3 xeiP0 ·x
Y
(1 − e−ipk ·x )−1
k
(5.3)
32
5 Insieme microcanonico di un gas ideale relativistico
Y
Y
X
(1 − e−ipk ·x )−1 = exp{log (1 − e−ipk ·x )−1 } = exp{
log (1 − e−ipk ·x )−1 }
k
k
e, ricordando che nonostante la somma sui modi dipenda dalla geometria del sistema ma nel limite
di volume grande si può passare al limite continuo
Z
X
V
d3 p
−→
(2π)3
k
si ottiene
1
Ω=
(2π)4
Z
4
d xe
iP0 ·x
exp
2V
(2π)3
Z
3
d p log (1 − e
−ipk ·x −1
)
(5.4)
(il fattore 2 davanti a V è dovuto alla degenerazione di polarizzazione dei fotoni).
→
−
Ci si pone nel sistema di riferimento a riposo ( P = 0),
Z
Z
1
2V
4
iM x0
3
−ipk ·x −1
Ω=
d
xe
d
p
log
(1
−
e
)
exp
(2π)4
(2π)3
ma,
Z
d3 p log (1 − e−ipk ·x )−1 = −
Per cui si ottiene:
1
Ω=
(2π)4
X1Z
X 1 8πi x0
8πi π 4
d3 pe−ip·xn = −
=
n
n n3 x4
x4 90
n=1
n=1
Z
4
d xe
iM x0
exp
V π 2 i x0
45 x4
(5.5)
Sviluppando in serie l’esponenziale ed integrando termine per termine in d3 x si ottiene la seguente
espressione:
1
Ω=
(2π)4
Z
+∞−iε
dx0 eiM x0
−∞−iε
n
∞ 4π 2 X V π 2 i
1
(4n − 4)!
3n−3
4n−3
i n=0
45
n!(2n − 1)!(2n − 2)!
x0
2
(5.6)
Si procede quindi con l’integrazione sul piano complesso. Si noti che nel caso in cui M < 0 si dovrebbe
chiudere il cammino di integrazione con una semicirconferenza nel piano immaginario negativo in
cui non sono presenti poli (l’unico polo presente è nell’origine) e quindi l’integrale sarebbe nullo.
M può infatti essere interpretata come l’energia del corpo nero. La densità di stati per cella di
quadri-impulso risulta quindi
n
∞ 2 X π2
(4n − 4)!
Ω=
(V M 3 )n
4
πM n=2 720
n!(2n − 1)!(2n − 2)!(3n − 4)!
(5.7)
Si noti che (V M 3 ) è l’oggetto adimensionale che si può ”costruire“ con le grandezze fisiche in gioco,
e che, come detto in precedenza Ω ha le dimensioni dell’inverso di una massa alla quarta.
E’ importante notare che la somma sui modi parte da n = 2. Si può infatti interpretare ciascun
termine della serie come la funzione di partizione a numero di fotoni fissato
!
!
∞
∞
X
X
X
X
X
4
4
4
Ω=
δ (P − P0 ) =
δ (P − P0 )δN,N0 =
δ (P − P0 )δN,N0
states
states
N0 =0
Per cui:
Ω=
N0 =0
∞
X
N0 =0
ΩN0 (P0 )
states
(5.8)
5.2 Limite termodinamico
33
dove in questo caso Ω rappresenta la funzione di partizione canonica a numero di fotoni libero.
Ora, la somma su N0 non può partire da 0 perché se non ci sono fotoni non si può imporre il vincolo
sull’energia, né il primo termine può essere quello con N0 = 1 in quanto si devono fissare energia ed
impulso ((M, o) nel SDR a riposo) ed il modulo del quadri-impulso coincide proprio con l’energia.
Infatti nel caso di un fotone si deve avere: pµ pµ = E 2 − k2 = m2 = 0, perciò, fissata l’energia in un
determinato SDR, si è fissato anche l’impulso spaziale, mentre quello che si vuole fissare è tutto il
quadriimpulso. Si noti che in questo caso non è possibile trovare un SDR in cui l’impulso spaziale è
nullo. La sommatoria deve perciò partire da N0 = 2.
La serie 5.7 è convergente
qualsiasi valore finito di V M 3 , infatti i termini sono minori o uguali
P per
xn
della serie esponenziale n n! .
Come già detto in precedenza, si ribadisce il fatto che la densità di stati Ω trovata è una grandezza
dimensionata, non ha perciò senso parlare del logaritmo della densità di stati. Essendo però l’entropia
definita a meno di una costante additiva si può riscalare la funzione di partizione tramite una costante
moltiplicativa in modo che nel limite M → 0 si abbia S → 0. Si definisce in questo modo l’entropia:
(∞
)
X π n
(4n − 4)!
π4
3
3
− 2 ln(V M ) + ln
(V M )
(5.9)
S ≡ − ln
103680
720
n!(2n − 1)!(2n − 2)!(3n − 4)!
n=2
5.2 Limite termodinamico
Nel limite V → ∞ e M → ∞ non si possono trascurare termini della serie. Per semplicità di calcolo
si riprenderà dalla forma integrale della funzione di partizione 5.5 e si fa uno sviluppo asintotico
(sviluppo nel punto di sella) nell’intorno del punto xµ tale che valga la seguente:
M
π2 4
=
T
V
15
(5.10)
Questa è la formula nota della densità di energia del corpo nero.
Asintoticamente si ha:
3
M
2T
+Vπ
Ω ∝ exp
= exp {Scan }
T
45
(5.11)
Si vuole ora calcolare lo spettro di energia: in questo caso per spettro si intende il numero medio di
fotoni per unità di quadri-impulso. Ricordando che:
Z
X
P
1
Ω=
d4 xeiP0 x
e−i k nk pk x
4
(2π)
{nk }
ed eseguendo la sostituzione
−ink pk x −→ (−ipk + α(p))nk
si ha che

(
)
X
X
∂

exp
(−ipk + α(p))nk 
∂α(p)
{nk }
k
=
α(p)=0
X
nk e
−i
P
nk
pk x
{nk }
che coincide proprio con il numero medio di fotoni a meno della normalizzazione. Per cui:
dnj
δ
∂ ln Ω 3 →
−
h 3 i=
ln Ω[α]
=
δ (−
p −→
p0 ) con p0 t.c. α(p) = 0
d p
δα(p)
∂α(p)
α(p)
δ
Dove con δα(p)
si intende la derivata funzionale rispetto a α(p).
Si ha perciò:
(5.12)
34
5 Insieme microcanonico di un gas ideale relativistico
h
dnj
1 (2J + 1)V
i=
d3 p
Ω (2π)3
Z
+∞−iε
d4 xeiP0 x
−∞−iε
1
exp
eipx − 1
Z
d3 p
(2J + 1)V
−ipx
ln(1
−
e
)
(2π)3
e sfruttando la convergenza della serie geometrica
∞
X
1
=
e−ilpx
eipx − 1
l=1
si ottiene:
∞
h
X (2J + 1)V Ω(P0 − lP )
dnj
i
=
d3 p
(2π)3
Ω(P0 )
l=1
Affinché il calcolo dell’integrale con i residui non dia risultato nullo si deve avere
(P0 − lP )2 ≥ 0 ⇒ l ≤
M
2ε
In questo caso la serie è una somma finita di termini.
Si noti che nel limite termodinamico si riottiene la formula di Planck.
(5.13)
6
Meccanica statistica relativistica
[...]
Si consideri un insieme statistico con momento angolare medio fissato. Nel caso non relativistico si
deve estremare la funzione:
i ωh
i
1h
f = −tr(%̂ ln(%̂) −
tr(%̂Ĥ) − E0 +
tr(%̂Ĵ) − J0
(6.1)
T
T
Si noti che in questa espressione si è imposto impulso medio nullo per semplicità, in questo caso, il
moltiplicatore di Lagrange del vincolo è nullo a sua volta.
L’estremazione de f conduce alla seguente espressione:
Ĥ
%=
e− T +
Z
ω·Ĵ
T
(6.2)
ora, essendo ω una costante la si può scegliere diretta lungo l’asse z.
Nel caso relativistico, le deduzione dell’espressione per % è analoga. Sia T la temperatura misurata
dall’osservatore. Si suddivide il corpo in tante cellette, la i-esima sarà caratterizzata da quadriimpulso (Ei , Pi ). Trascurando le interazioni tra le cellette (ognuna rappresenta un sistema isolato)
si ha che l’entropia (funzione della sola energia interna U ∼ m) è:
q
X
X
S=
Si =
Si ( Ei2 − Pi2 )
(6.3)
i
i
Imponendo i vincoli:
Φ=
X
i
q
1 X
ω X
Si ( Ei2 − Pi2 ) − (
Ei − E0 ) + (
Ji − J0 )
T i
T i
(6.4)
dove Ji rappresenta il momento angolare totale della i-esima celletta (orbitale più spin) ma in questo
caso si trascurerà lo spin per cui sarà: Ji = xi ∧ Pi L’estremazione con vincoli porta ai seguenti
risultati:
∂Φ
∂Sj
1
=0⇒
− =0
∂Ej
∂Ej
T
∂Sj ∂Mj
1
=
∂Mj ∂Ej
T
ricordando che la derivata dell’entropia rispetto all’energia interna è l’inverso della temperatura
invariante si ha:
1 Ej
1
γj
=
=
T0j Mj
T
T0j
36
6 Meccanica statistica relativistica
Si è quindi trovata la relazione che lega la temperatura comovente con la temperatura misurata nel
sistema di riferimento fisso.
Per le regole del prodotto misto si ha:
ω · (xi ∧ Pi ) = Pi · (ω ∧ xi )
per cui:
1
(ω ∧ xj ) = 0
T
Pj
∂Sj
1
∇Pj Sj =
∇Pj Mj =
∂Mj
T0j Mj
∇Pj Φ = 0 ⇒ ∇Pj Sj +
da cui:
Pj
1
= (ω ∧ xj )
T0j Mj
T
1
1
1
γj vj = vj = (ω ∧ xj ) ⇒ vj = (ω ∧ xj )
T0j
T
T
Il campo di velocità del sistema considerato è un campo di velocità tipico di un corpo rigido: il moto
descritto dal fluido è un moto rigido di rotazione attorno ad un asse (in questo caso l’asse z). Si
noti che rispetto al caso non relativistico la temperatura comovente è diversa da quella misurata
nel sistema di riferimento esterno. Essendo infatti la temperatura misurata dall’osservatore esterno
costante, la temperatura comovente deve variare con la distanza dall’asse, infatti:
T0j = γT = √
T
T
=p
2
1−v
1 − (ω ∧ xj )2
perciò, diversamente da quanto suggerito dal senso comune, il gradiente di temperatura è diretto
dall’asse di rotazione verso l’esterno. Sull’asse la temperatura comovente e la temperatura misurata
dall’osservatore esterno coincidono (infatti l’asse è fermo rispetta all’osservatore esterno).
Si vuole scrivere ora la matrice densità di questo sistema in forma covariante. Per fare ciò si farà
uso della teoria dei campi: si scriveranno Ĥ e Ĵ in termini di quantità locali:
Z
Ĥ = d3 xT̂ 00 (x)
(6.5)
Z
Ĵ =
d3 x(x ∧ Π̂)
(6.6)
dove si ricorda che Π̂ i = T̂ 0i .
Si scrive quindi %̂ in termini di queste quantità locali:
( Z
)
Z
00
T̂
(x)
ω
1
%̂ = exp − d3 x
+
d3 x(x ∧ Π̂)
Z
T
T
Z
1
1 ω∧x
3
0ν
= exp − d xT̂
,
Z
T
t
si riconosce che il quadrivettore contratto con T̂ 0ν è proprio il quadrivettore temperatura βν (x)
Z
1
3
0ν
%̂ = exp − d xT̂ βν (x)
Z
Questa espressione però non è ancora covariante a vista in quanto si sta integrando su un volume
visto da un osservatore solidale con il sistema di riferimento fisso. Ricordando che:
6 Meccanica statistica relativistica
dΣµ = −
37
1
εµαβγ dxα ∧ dxβ ∧ dxγ
3!
con ε0123 = −1 e ε0123 = 1; il volume fisico è la componente temporale di dΣµ infatti:
1
dΣ0 = − ε0ijk dxi ∧ dxj ∧ dxk = dxi dxj dxk
6
La formula trovata si può quindi rendere facilmente covariante a vista:
Z
1
%̂ = exp − dΣµ T̂ µν βν (x)
Z
(6.7)
Questa equazione descrive una situazione di equilibrio termodinamico. L’equilibrio termodinamico
in relatività deve essere una situazione di stazionarietà indipendente dal sistema di riferimento. Si
impone quindi l’indipendenza dall’ipersuperficie dello spazio tempo scelta:
Z
Z
dΣµ T̂ µν βν =
dΣµ T̂ µν βν
Σ0
Σ
prendendo quindi una superficie chiusa aventi come basi Σ e Σ 0 ed imponendo che il contributo del
flusso di T̂ µν βν al bordo sia nullo, la condizione sopra è soddisfatta se vale:
∂µ (T̂ µν βν ) = 0
(6.8)
ma ricordando che il tensore degli sforzi è a quadri-divergenza nulla si ha:
T̂ µν (∂µ βν ) = 0
(6.9)
Questa equazione è soddisfatta se βν = cost, per cui un campo di temperatura uniforme e costante è
una condizione per l’equilibrio termodinamico.
Questo significa che esiste un sistema di riferimento
nel quale il fluido è fermo: β = T1 , 0, 0, 0 .
Un altro caso possibile è che il vettore temperatura sia un vettore di Killing:
βν
t.c.
∂µ βν + ∂ν βµ = 0
Infatti, essendo il tensore degli sforzi simmetrico, l’equazione 6.9 è soddisfatta se il tensore ∂µ βν è
antisimmetrico.
Un vettore di Killing ha la seguente forma:
βµ = bµ + ωµν xν
dove bµ è un vettore costante e ωµν è un tensore antisimmetrico costante (per spazio-tempo piatto).
Si noti che il caso da cui si è partiti è un sottocaso di questo in cui:
 


1
0 0 00
1 0
1 0 0 ω 0


b= 
ω= 


T 0
T 0 −ω 0 0
0
0 0 00
Il vettore temperatura trasforma secondo le trasformazioni di Lorentz.
Si trova ora l’espressione per l’entropia:
Z
h R
i
µν
µν
S = −tr(%̂ ln %̂) = tr %̂ dΣµ T̂ βν + ln tr e− dΣµ T̂ βν =
38
6 Meccanica statistica relativistica
Z
=
dΣµ hT̂ µν iβν + ln Z
Per comodità di notazione d’ora in avanti si userà: hT̂ µν i = T µν .
Si introduce ora l’ipotesi di estensività generalizzata:
Z
ln Z = dΣ µ Φµ
(6.10)
dove si può considerare Φµ come una sorta di densità di potenziale termodinamico.
Per cui si ottiene:
Z
Z
S = dΣµ (T µν βν + Φµ ) = dΣµ sµ
(6.11)
con sµ = T µν βν + Φµ corrente di entropia.
Si assumerà d’ora in poi che il sistema si trovi in una situazione di equilibrio, per cui βν è costante
oppure un vettore di Killing. All’equilibrio termodinamico si ha che l’entropia è costante per cui:
∂µ sµ = 0
Perciò si ha:
⇒
∂µ Φµ = 0
R
R
µν
µ
tr e− dΣµ T βν = e dΣµ Φ
Ora, βν è un vettore parallelo alla quadrivelocità, per cui si ha
p
%
s = sµ uµ = Φ · u + uµ uν T µν β 2 = Φ · u +
T0
dove uµ uν T µν è la densità propria di energia (densità di energia che vede l’osservatore solidale con
il flusso).
Da cui si ottiene
T0 s = Φ · uT0 + %
(6.12)
Se si fosse considerata anche la conservazione della carica si avrebbe avuto:
R
√ 2 µ
R
R
µν
µ
tr e− dΣµ T βν + dΣµ µ β j = e dΣµ Φ
che avrebbe comportato un termine aggiuntivo del tipo j · u ovvero la densità di carica propria, e
nella 6.12:
T0 s = Φ · uT0 + % − µn
(6.13)
con n densità di carica locale.
Si trascura ora la parte delle cariche conservate e si varia l’entropia considerandola come un funzionale della temperatura inversa e dell’ipersuperficie Σ: si studia la variazione di S separandola
nella variazione rispetto all’ipersuperficie ed in quella rispetto a β
Z
δS[β, Σ] = (variazione diΣ) +
dΣ(δΦµ + T µν δβν + δT µν βnu )
Σ
µν
si note che anche T è funzionale di β, infatti T µν = tr(%̂T̂ µν ) e %̂ dipende da β.
Ora, si noti che δΦµ + T µν δβν = 0 infatti
1 µν − R dΣµ T µν βν
hT µν i = tr
T e
Z
e facendo la derivata funzionale 1 .
1
Questa derivata funzionale si fa operando la sostituzione βν −→ βν + δβν ed utilizzando quindi la formula
di Zassenhaus per l’operatore eA+εB con ε piccolo tenendo i termini al primo ordine, sfruttando la ciclicità
della traccia.
6 Meccanica statistica relativistica
39
R
µν
δ
1 δ
ln Z =
tr e− dΣµ T̂ βν = −nν hT̂ µν i
δβν
Z δβν
R
con nµ t.c. dΣµ = |dΣ|nµ . Ma si ha anche ln Z = dΣµ Φµ , anch’esso funzionale di β:
µ
Z
δΦ
δ ln Z = dΣµ
δβ ν
δβν
da cui
δ ln Z
δβ ν
µ
= nµ δΦ
δβν e quindi si ha per l’indipendenza di queste relazioni dalla scelta dell’ipersuperficie:
δΦµ
= −hT̂ µν i
δβν
(6.14)
questa relazione dice che la densità di energia è legata alla derivata della pressione rispetto alla
temperatura.
La variazione di S si riduce quindi a:
Z
δS[β, Σ] = (variazione di Σ) + dΣµ δT µν βν
Si deve ora studiare il termine dovuto alla variazione della superficie (espansione). La superificie
tridimensionale nello spazio di Minkowski si parametrizza con tre variabili:
x = x(w1 , w2 , w3 ) −→ x0 = x0 (w1 , w2 , w3 ) = x + v(x(w))ε
In generale quindi:
Z
Σ0
dΣν0 f ν (x0 ) =
Z
dΣν |
Σ
0
Z
dΣν |
=
Σ
∂Σ 0 ν
|f (x + v(x(w))ε) =
∂Σ
∂Σ
|{f ν (x) + ∂µ f ν v µ (x(w))ε}
∂Σ
Ora,
1
dΣµ = − εµαβγ dxα ∧ dxβ ∧ dxγ =
6
1
∂xα i ∂xβ j ∂xγ
= − εµαβγ
dw
dw
dwk =
6
∂wi
∂wj
∂wk
1
∂xα ∂xβ ∂xγ ijk
= − εµαβγ
ε
dw1 dw2 dw3
6
∂wi ∂wj ∂wk
Per cui:
1
∂x0α ∂x0β ∂x0γ ijk
dΣ = − εµαβγ
ε
dw1 dw2 dw3
6
∂wi ∂wj ∂wk
0
ora, avendo
si ha che
∂x0
∂x
∂v ∂x
=
+
ε
∂w
∂w ∂x ∂w
1
∂x0α ∂x0β ∂x0γ ijk
1
∂xα ∂xβ ∂xγ ijk
− εµαβγ
ε
=
−
ε
ε +
µαβγ
6
∂wi ∂wj ∂wk
6
∂wi ∂wj ∂wk
1
∂v α ∂xλ ∂xβ ∂xγ
1
∂xα ∂v β ∂xλ ∂xγ
− εµαβγ λ
εijk − εµαβγ
εijk − ...
i
j
k
6
∂x ∂w ∂w ∂w
6
∂wi ∂xλ ∂wj ∂wk
si noti che il secondo ed il terzo termine (e analogamente il quarto) sono uguali per α −→ β, i −→ j
(e sostituzione analoga), sommando si ottiene infine:
40
6 Meccanica statistica relativistica
1
∂xλ ∂xβ ∂xγ
(∂λ v α )εijk ε
= − 3εµαβγ
6
∂wi ∂wj ∂wk
Si consideri
Aλβγ = εijk
∂xλ ∂xβ ∂xγ
∂wi ∂wj ∂wk
(che è completamente antisimmetrico per la presenza del tensore εijk ) il cui duale è:
1
− εµλβγ Aλβγ = (A∗ )µ
6
e ricordando l’identità
εi1 ,...,ik ,ik+1 ,...,in εi1 ,...,ik ,jk+1 ,...,jn = (−1)k!
X
j
jk
k+1
x(σ)δiσ(k+1)
· ... · δiσ(k)
σ
si può invertire la formula del duale:
A%στ = εµ%στ (A∗ )µ
per cui si ha:
1
1
∂x0α ∂x0β ∂x0γ ijk
ε = − εµαβγ ενλβγ (A∗ )ν (∂λ v α )ε
− εµαβγ
6
∂wi ∂wj ∂wk
2
inoltre si ha che:
(A∗ )ν dw1 dw2 dw3 = dΣ
per cui alla fine si ottiene:
Z
Z
Z
Z
1
dΣν0 f ν = −ε εµαβγ ενλβγ
dΣν ∂λ v α f µ +
dΣν ∂µ f ν v µ ε +
dΣν f ν
2
0
Σ
Σ
Σ
Σ
Ricordando che vale la seguente
εµαβγ ενλβγ = −2(δµν δαλ − δαν δµλ )
si ottiene infine la variazione dovuta all’espansione della superficie:
Z
Z
Z
Z
Z
0 ν
ν
µ
λ
ν λ
dΣν f −
dΣν f = ε dΣµ f (∂λ v ) − ε dΣν v f + ε dΣν ∂µ f ν v µ =
Σ0
Σ
integrando per parti il primo termine
Z
Z
Z
Z
= ε dΣµ ∂λ (f µ v λ ) − ε dΣµ v λ ∂λ f µ − ε dΣµ (∂λ v µ )f λ + ε dΣν (∂µ f ν )v µ =
ed integrando per parti il secondo termine
Z
Z
Z
= ε dΣµ ∂λ (f µ v λ ) − ε dΣµ ∂λ (f λ v µ ) + ε dΣµ v µ (∂λ f λ ) =
Z
=ε
dΣµ ∂λ (f µ v λ − f λ v µ ) + ε
Z
dΣµ v µ (∂λ f λ )
Il primo termine si riscrive come
Z
Z
1
µ λ
λ µ
dSµλ (f µ v λ − f λ v µ )
dΣµ ∂λ (f v − f v ) =
2
6 Meccanica statistica relativistica
41
con
1
∂xα ∂xβ ij
ε dw1 dw2
dSµλ = − εµλαβ
2
∂wi ∂wj
Nel caso specifico in cui f ν ≡ sν si ottiene quindi:
Z
Z
Z
Z
0 ν
ν
µ λ
µ
ν
dΣν s −
dΣν s = ε
dSµλ s v + dΣµ v ∂ν s
Σ0
Σ
in questo caso l’ultimo termine non contribuisce in quanto:
∂µ (Φµ + T µν βν ) = 0
In conclusione la variazione del funzionale entropia risulta
Z
Z
λ
µ
µν
δS =
dSµλ (εv )(Φ + T βν ) + dΣµ δT µν βν
∂Σ
ora, εv λ = δxλ , e quindi si ottiene:
Z
Z
δS =
dSµλ δxλ Φµ +
∂Σ
dSµλ δxλ T µν βν +
Z
dΣµ δT µν βν
(6.15)
∂Σ
Caso particolare
Si sceglie ora una superficie Σ a tempo costante: nµ è un vettore time-like. Si varia questa superficie
espandendola nella direzione spaziale δxλ = (0, δx) (si considera un sistema a volume finito!).
∂xα ∂xβ ij
1
ε
dSµλ = − εµλαβ
2
∂wi ∂wj
α
β
∂x
Ora, essendo λ indice spaziale, e notando che essendo ∂x
∂wi e ∂wj vettori tangenti alla superficie e di
conseguenza vettori space-like (cioè α e β indici spaziali) si ha che dSµλ 6= 0 solo se µ = 0. Perciò
si ha che
dS0i δxi = δx · n̂dS
dove dS è l’usuale misura di una superficie bidimensionale.
Quindi in questo caso si ha:
Z
Z
Z
δS = dSδx · n̂Φ0 + dSδx · n̂T 0ν βν + dV δT 0ν βν =
ma β = ( T1 , 0, 0, 0)
Z
=
0
dSδx · n̂Φ +
Z
dSδx · n̂T
00
1
+
T
Z
dV δT 00
1
T
∂U
1
Il primo termine si può identificare con dV PT , il secondo con ∂V
dV T1 ed il terzo con ∂U
∂T dT T . Si
può dire che Φµ è un quadrivettore che dipende solo dal β µ in quanto β µ è costante e quindi le sue
derivate sono nulle; si scrive allora:
Φµ = p(β 2 )β µ
(6.16)
dove p è, ovviamente, uno scalare.
Si vuole ora calcolare il tensore degli sforzi a partire da Φµ :
T µν = −
δΦµ
∂Φµ
∂p ∂β 2
∂β µ
∂p
=−
= − 2 ν βµ − p
= − 2 2β ν β µ − pg µν
δβν
∂βν
∂β ∂β
∂βν
∂β
dove 2β ν β µ = 2β 2 uµ uν . Ora, contraendo la corrente di entropia con uµ si ottiene
42
6 Meccanica statistica relativistica
uµ sµ = uµ Φµ + uµ T µν uν
p
p
p
β2 = p β2 + % β2
dove uµ sµ è la densità di entropia vista da un osservatore solidale con il sistema comovente e
uµ T µν uν è la densità propria di energia.
Dalla 6.12 si ha
p
%
s=
+
⇒
T0 s = % + p
T0
T0
nel caso si abbia una carica conservata diventa:
T0 s = % + p − µ0 n
che è un’equazione locale che generalizza
T S = U + T ln Z − µQ
Si vede ora che
∂p
∂β 2
è strettamente collegato a ln Z.
∂p
∂p
=
∂T0
∂ T12
∂ T12
!−1
=−
0
∂T0
T03 ∂p
2 ∂T0
0
Classicamente si hanno le seguenti relazioni:
ln Z =
pV
T
T2
∂ ln Z
=U
∂T
dalle quali si ottiene
T2
∂ ln Z
∂p V
1
= T2
− T 2 2 pV
∂T
∂T T
T
da cui:
∂p
U
V
=
+p
∂T
T
T
che generalizzando al caso relativistico diventa
V
∂p
%
p
=
+
∂T0
T0
T0
perciò si ha
%+p
∂p
1 = T
∂ T2
0
−
T03
2
0
ed infine si può quindi ottenere l’espressione del tensore degli sforzi nel caso di un fluido ideale:
T µν = (% + p)uµ uν − pg µν
Si vuole ora trovare quanto vale ds nel passaggio da uno stato di equilibrio ad un altro
dsµ = (dT µν )βν
Ora,
sµ = p
p
β 2 uµ + T µν βν = suµ = sν uν uµ
per cui
dsµ = dsuµ + sduµ = (dT µν )βν
Si differenzia la 6.17
(6.17)
6.1 Fluidodinamica relativistica ideale
43
dT µν = d(% + p)uµ uν − dpg µν + (% + p)uµ duν + (% + p)duµ uν
sostituendo nell’espressione sopra si ottiene
p
p
p
p
dsµ = d(% + p)uµ β 2 − dp β 2 uµ + (% + p) β 2 uν duν + (% + p) β 2 duµ
tenendo conto che uν duν = 21 d(uν uν ) = 0 si ottiene
p
p
p
dsuµ + sduµ = (d% + dp)uµ β 2 − dp β 2 uµ + β 2 duµ (% + p)
semplificando e contraendo con uµ si ha
ds =
d%
T0
(6.18)
6.1 Fluidodinamica relativistica ideale
Si studia ora il moto del valore medio di T µν supponendo che l’espressione di questo valga anche quando il campo di velocità dipende da xµ (ossia si è fuori dall’equilibrio). Si parte perciò
dall’espressione puntuale
T µν = (% + p)uµ uν − pg µν
i termini dissipativi che potrebbero essere presenti (come ad esempio la viscosità) si considerano
piccoli da poter essere trascurati. Si assume sempre vera ∂µ T µν = 0:
∂µ [(% + p)uµ uν − pg µν ] = 0
uν uµ ∂µ (% + p) + (% + p)(∂µ uµ )uν + (% + p)uµ (∂µ uν ) − ∂ ν p = 0
Per comprendere meglio il significato fisico di questa equazione si proietta su uν
uµ ∂µ (% + p) + (% + p)∂µ uµ + (% + p)uµ uν ∂µ uν − uν ∂ ν p = 0
e come già visto in precedenza uν duν = 12 d(uν uν ) = 0,
∂µ (%uµ ) + p(∂µ uµ ) = 0
(6.19)
Questa è la generalizzazione al caso relativistico dell’equazione di continuità. Infatti %uµ nel
limite non relativistico coincide con la densità di massa propria e p è un’energia per unità di volume
divisa per c2 che nello stesso limite è trascurabile.
Si noti che in relatività non c’è una densità conservata ma è T µν che si conserva!
Proiettando invece nella direzione ortogonale a uν , cioè lungo
∆αν = g αν − uα uν
(infatti ∆αν uν = g αν uν − uα = 0), si ha che i primi due termini non contribuiscono
(% + p)uµ ∂µ uα − ∆αν ∂α p = 0
con ∆αν ∂α = ∇α che indica la derivata nella direzione ortogonale a uν il quale è un quadrivettore
time-like, è perciò una derivata fatta su uno tri-spazio (derivata spaziale).
∇α = g αν ∂ν − uα uν ∂ν = ∂ α − uα uν ∂ν
Si ha quindi
(% + p)uµ ∂µ uα − ∂ α p + uα uν ∂ν p = 0
44
6 Meccanica statistica relativistica
Si noti che uµ ∂µ è un invariante relativistico, calcolato nel sistema comovente (essendo in questo
d
.
sistema uµ time-like) coincide con la derivata rispetto al tempo proprio τ : uµ ∂µ = dτ
Dalle leggi della dinamica relativistica si ha che
duα
= Aα
dτ
dove Aα è la quadriaccelerazione, quindi segue:
(% + p)Aα = ∂ α p − uα ṗ
(6.20)
Questa è la generalizzazione al caso relativistico dell’equazione di Eulero. Infatti nel caso non
relativistico p << %, Ai −→ a:
%a = −∇p − uṗ
trascurando l’ultimo termine (∼ c12 vṗ) si riottiene proprio la formula nota.
Si vuole ora dimostrare che nel caso di un fluido ideale non c’è dissipazione: si conserva l’entropia.
Partendo dall’espressione
µ
d%
− dn
s=
T0
T0
e derivando rispetto a τ
d%
dn
ds
=
−µ
dτ
dτ
dτ
T0 uµ ∂µ s = uµ ∂µ % − µuµ ∂µ n
T0
sostituendo a uµ ∂µ % = −(% + p)∂µ uµ (per l’equazione di continuità)
T0 uµ ∂µ s = −(% + p)∂µ uµ − µuµ ∂µ n
ma vale anche
T0 s = % + p − µn
per cui
T0 uµ ∂µ s = −(T0 s + µn)∂µ uµ − µuµ ∂µ n
T0 (uµ ∂ µ )s + T0 s(∂µ uµ ) = −µn(∂µ uµ ) − µ(uµ ∂ µ )n
T0 ∂µ (suµ ) = −µ∂µ (nuµ )
ma per la conservazione della carica si ha che ∂µ (nuµ ) = 0
∂µ sµ = 0
I processi meccanici non producono entropia!
(6.21)
7
Termodinamica di non equilibrio
La termodinamica di non equilibrio studia fenomeni fisici che avvengono in un sistema con produzione di entropia (fenomeni dissipativi). In questo capitolo si darà un’idea dello studio di sistemi
fuori dall’equilibrio termodinamico completo.
Si consideri un sistema fisico diviso in più sottosistemi. E’ importante notare che se il sistema non si
trova all’equilibrio termodinamico completo si possono distinguere due scale di tempi caratteristici:
ˆ
ˆ
il tempo necessario per raggiungere un equilibrio termodinamico locale (in tempi brevi ogni
sottosistema raggiungerà il poprio equilibrio termodinamico)
il tempo necessario per raggiungere l’equilibrio termodinamico globale (in cui il sistema si trova
in uno stato di temperatura uniforme, pressione uniforme ecc.).
Ad ogni celletta si possono associare le grandezze caratteristiche (energia, impulso, momento angolare, numero di particelle, carica ecc) Ai (a) = hÂi (a)i (dove con a si numera il sottosistema). Queste
grandezze generalmente sono conservate a livello globale, per cui si può scrivere:
∂Ai (a) X
+
Φi (a → b) = Φi (sources → a)
∂t
(7.1)
b
dove Φi (a −→ b) indica il flusso di A sull’unità di tempo che passa dalla celletta a alla celletta b.
D’ora in avanti si considererà il caso in cui non sono presenti sorgenti e che gli scambi tra le cellette
avvengano attraverso la superficie.
Passando al limite continuo si ottiene l’equazione di continuità (nel caso in cui Ai = N ):
Z
Z
∂n
dV
+
dS n v · n̂ = 0
∂t
C
∂C
dove C rappresenta la celletta infinitesima presa in considerazione; da cui
∂n
+ ∇ · (nv) = 0
∂t
(7.2)
Questi stessi ragionamenti possono essere applicati anche per l’entropia: si introduce il concetto di
entropia locale. Supponendo che l’interazione tra i sottosistemi sia trascurabile (in modo da poterli
considerare indipendenti) si può scrivere:
X
S=
Sa ≤ Seq
a
ed inoltre
λi (a) =
∂Sa
∂Ai
46
7 Termodinamica di non equilibrio
Si considera raggiunto l’equilibrio termodinamico quando λi (a) = λi (b) ∀ a,b. Nell’istante in cui si
svolge l’osservazione si ha:
λi (a) − λi (b) 6= 0 per b 6= a → ∇λi 6= 0
Questo vuol dire che ci deve essere un flusso di grandezze conservate che dipendono da questi
gradienti: si instaurano cioè dei flussi. Scopo della termodinamica di non equilibrio è quello di
trovare le relazioni tra i flussi di grandezze conservate e questi gradienti.
Si postula che la risposta dei flussi ai gradienti sia lineare tramite dei coefficienti di risposta (o di
trasporto):
X
(7.3)
Φi (a → b) =
Lij (a,b) (λj (b) − λj (a))
{z
}
|
j
∝∇λi
si ha la somma su j in quanto nulla esclude che come risposta ad una variazione di λj si possa
ottenere anche una risposta di grandezze conservate Ai con i 6= j, in generale Lij sono funzione del
punto.
Sia ora J la densità di flusso:
X αβ
Jiα = (Jiα )0 +
Lij ∂β λj
(7.4)
j
solitamente le densità di flussi all’equilibrio (Jiα )0 sono nulli.
Si enuncia ora il seguente:
Teorema di Curie: se un certo fenomeno conduce ad effetti macroscopici, gli elementi di simmetria di questo fenomeno devono essere contenuti negli effetti macroscopici generati. Non è vero il
viceversa.
Questo vuol dire, ad esempio, che una causa scalare non può produrre effetti vettoriali. Sfruttando
questo teorema si possono ridurre le componenti dei coefficienti Lαβ
ij .
Esempio: conduzione del calore
Sia jE flusso di energia. Si sa che vale:
jE = −κ∇T
Nel quadro generale impostato precedentemente si ha:
µ
X αβ
1
αβ
α
+ Lαβ
∂
Lij ∂β λj = LEE ∂β
+ ...
jE =
β
EN
T
T
j
per il setup dell’esperimento contribuisce solo il primo termine, per cui si ha che (per il teorema di
Curie)
LEE = κT 2 δ αβ
e l’equazione di continuità
∂u
+ ∇ · jE = 0
∂t
considerando che vale anche
∂u
∂T
= cV
∂t
∂t
e quindi
cV
∂T
− κ∇2 T = 0
∂t
Relazione di reciprocità di Ossanger : Lij = Lji .
Si studia ora la variazione di entropia nel tempo:
(7.5)
7 Termodinamica di non equilibrio
X ∂Sa ∂Ai
X ∂Sa
∂S
=
=
∂t
∂Ai (a) ∂t
∂Ai
i
i
47
!
−
X
Φ(a → b)
=−
X
λi (a)Φi (a → b)
a,b
b
Passando al continuo, nel caso di grandezze conservate scalari
X
∂s X
∂Ai
=
λi (x)
=
λi (x)(−∂α jiα ) =
∂t
∂t
i
i
!
= −∂α
X
λi (x)jiα (x)
+
i
jiα ∂α λi (x)
i
Per cui:
∂s
+ ∂α
∂t
X
!
X
λi (x)jiα (x)
i
=
X
Lαβ
ij ∂α λi ∂β λj
ij
All’entropia si deve quindi associare una corrente di entropia fuori dall’equilibrio. Integrando questa
equazione su tutto lo spazio ed imponendo che
!
X
∂α
λi (x)jiα (x) = 0
i
in quanto il sistema è isolato (il flusso sulle pareti esterne è nullo) si ottiene
Z
X αβ
∂S
=
d3 x
Lij ∂α λi ∂β λj
∂t
V
ij
(7.6)
P
dove ij Lαβ
ij ∂α λi ∂β λj ≥ 0 per il secondo principio della termodinamica.
A questo punto sorge un problema: se ogni celletta si trova in uno stato di equilibrio termodinamico
(anche se locale) con dei vincoli sui valori di aspettazione di alcune osservabili, la distribuzione
statistica che descrive la celletta è la distribuzione di Gibbs che è stata costruita in modo tale che
i
dS
∂ %̂
= [Ĥ, %̂] ⇒
=0
∂t
dt
e quindi, avendo supposto trascurabili le interazioni tra i sottosistemi, l’entropia totale, per la
trattazione finora effettuata, dovrebbe essere a derivata nulla, in contraddizione con il secondo principio della termodinamica. Questo è un problema ancora aperto! Landau cerca di spiegare questo
paradosso asserendo che l’aumento (a livello macroscopico) dell’entropia è conseguenza della non
invarianza temporale dell’equazione di Schrödinger (vedi capitolo 2).
Un’altra risposta è stata data da Balian: durante il processo che porta il sistema da una condizione
di non equilibrio all’equilibrio globale l’informazione macroscopica viene persa passando ad informazione microscopica. L’operatore densità finora utilizzato è correlato all’informazione totale che
ovviamente si conserva, ma l’informazione che si osserva è solo quella macroscopica.
Quello che fa Balian è quindi di riscrivere l’operatore densità
%̂ = %̂relevant + %̂irrelevant
(7.7)
Per trovare %̂relevant si procede come fatto in precedenza per trovare %̂ ovvero effettuando
un’estremazione con vincoli in cui però A0i (a) → A0i (a, t):
h
i
X
Φ = −tr(%̂rel ln %̂rel ) +
λi (a) tr(%̂rel Âi (a)) − A0i (a, t)
a,i
48
7 Termodinamica di non equilibrio
da cui si ottiene:


 X

%̂rel ∝ exp −
λi (a, t)Âi (a)


a,i
questa è la distribuzione di Gibbs che rappresenta l’equilibrio termodinamico locale (minimizza
l’informazione). Si noti che si sta lavorando in notazione di Schrödinger per cui gli operatori sono
indipendenti dal tempo.
Affinché valga quanto appena detto si deve avere che
tr(%̂Âi (a)) = tr(%̂rel Âi (a)) ⇒ tr(%̂rel Âi ) = 0