Elementi di Meccanica Statistica Appunti del corso AA

Elementi
di
Meccanica Statistica
Appunti del corso A.A. 2008-09
Roberto Raimondi
Dipartimento di Fisica
Università Roma Tre
16 gennaio 2009
2
c Questa opera è pubblicata sotto una Licenza Creative Commons.
http://creativecommons.org/licenses/by-n/c-nd/2.5/it/
Indice
1 Ensembles statistici
1.1 Introduzione . . . . . . . . . . . . . . . .
1.2 Formulazione del problema . . . . . . . .
1.3 Medie temporali e medie sull’ensemble .
1.4 Teorema di Liouville . . . . . . . . . . .
1.4.1 Invarianza della misura rispetto al
.
.
.
.
.
5
5
6
7
9
11
2 L’ensemble microcanonico
2.1 La funzione di distribuzione per un sistema isolato . . . . . . .
2.2 La definizione dell’entropia . . . . . . . . . . . . . . . . . . . .
2.3 Condizioni di equilibrio e primo principio della termodinamica
13
13
14
19
3 Il gas perfetto
3.1 Ensemble microcanonico per il gas perfetto
3.2 Proprietà della funzione gamma . . . . . .
3.3 Termodinamica del gas perfetto . . . . . .
3.4 Il corretto conteggio di Boltzmann . . . . .
3.5 Connessione con il limite quantistico . . .
.
.
.
.
.
21
21
22
23
27
30
.
.
.
.
.
33
33
35
36
37
38
4 L’ensemble canonico
4.1 Distribuzione di Boltzmann . . . . . . .
4.2 La definizione dell’energia libera . . . . .
4.3 Il gas perfetto . . . . . . . . . . . . . . .
4.4 Distribuzione di Maxwell per le velocità .
4.5 Formula di Gibbs per l’entropia . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
moto hamiltoniano
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 L’ensemble grancanonico
41
5.1 La funzione di distribuzione grancanonica . . . . . . . . . . . . 41
5.2 Il granpotenziale . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.3 Il gas perfetto . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3
4
INDICE
6 Teorema di equipartizione e fluttuazioni
6.1 Il teorema di equipartizione . . . . . . . . . . . . . . . . . . .
6.2 Fluttuazioni di energia . . . . . . . . . . . . . . . . . . . . . .
6.3 Fluttuazioni del numero di particelle . . . . . . . . . . . . . .
45
45
46
48
7 La meccanica statistica quantistica
7.1 Ensembles quantistici . . . . . . . .
7.1.1 Ensemble microcanonico . .
7.1.2 Ensemble canonico . . . . .
7.1.3 Ensemble grancanonico . . .
7.2 Statistiche quantistiche: gas perfetti
7.3 Il limite classico . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
51
51
52
52
53
53
56
8 Il metodo della distribuzione più probabile
8.1 Il caso classico . . . . . . . . . . . . . . . . . . .
8.2 Bosoni . . . . . . . . . . . . . . . . . . . . . . .
8.3 Fermioni . . . . . . . . . . . . . . . . . . . . . .
8.4 A proposito del corretto conteggio di Boltzmann
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
59
59
61
63
63
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9 Il gas di Fermi
67
9.1 Lo stato fondamentale . . . . . . . . . . . . . . . . . . . . . . 68
9.2 Regime di basse temperature e sviluppo di Sommerfeld . . . . 69
10 Il gas di Bose
10.1 La condensazione di Bose-Einstein . . . . . . . . . . . . . . . .
10.2 Equazione di Clapeyron . . . . . . . . . . . . . . . . . . . . .
10.3 Alcune utili relazioni . . . . . . . . . . . . . . . . . . . . . . .
73
73
78
79
11 Teoria della radiazione di corpo nero
11.1 Introduzione . . . . . . . . . . . . . . . . .
11.1.1 Situazione sperimentale . . . . . . .
11.1.2 Situazione teorica . . . . . . . . . .
11.2 Teoria quantistica della radiazione di corpo
81
81
82
82
83
. . .
. . .
. . .
nero
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
12 Calori specifici
87
12.1 Calori specifici nei gas . . . . . . . . . . . . . . . . . . . . . . 87
12.1.1 Moto di una particella su una sfera . . . . . . . . . . . 90
12.2 Calori specifici nei solidi . . . . . . . . . . . . . . . . . . . . . 90
A Potenziali termodinamici
95
Capitolo 1
Ensembles statistici
1.1
Introduzione
Lo sviluppo scientifico e tecnologico del XX secolo, che ha visto la scoperta e lo sfruttamento dell’energia atomica, ha, in qualche modo, reso tutti
familiari con l’idea che la materia abbia una struttura intrinsecamente discreta. Tale idea risale al filosofo greco Democrito, secondo cui gli atomi,
entità indivisibili di materia e non percepibili ai nostri sensi, sono responsabili, attraverso un effetto collettivo, dei fenomeni che sperimentiamo a livello
dei nostri sensi. Agli albori della scienza moderna, l’idea democritea degli
atomi fu ripresa dai fondatori della teoria cinetica, i quali potevano contare
sugli sviluppi della meccanica, del calcolo infinitesimale e delle indagini sperimentali sui gas. Nel 1747 Daniel Bernoulli propose che un gas sia formato
da molecole in continuo moto e soggette alle leggi della meccanica. La pressione esercitata dal gas sulle pareti del recipiente che lo contiene è dovuta
all’effetto degli urti delle molecole con le pareti stesse. Inoltre, il confronto
con l’equazione di stato dei gas perfetti, stabilisce una connessione diretta
tra energia cinetica media e temperatura assoluta del gas. In questo contesto
la scoperta dell’equivalente meccanico del calore da parte di Joule conferma
la validità della riduzione meccanica dei fenomeni termici. La meccanica statistica, che si sviluppa a partire dalla teoria cinetica, fornisce un insieme di
concetti e metodi per sviluppare sistematicamente l’idea che il comportamento di fenomeni complessi possa essere spiegato in termini del comportamento
di elementi semplici soggetti a ben determinate leggi.
5
6
1.2
CAPITOLO 1. ENSEMBLES STATISTICI
Formulazione del problema
Un sistema termodinamico isolato, cioè una data quantità di materia, è costituito da N costituenti elementari, che assumiamo essere soggetti alle leggi
della dinamica. Chiamiamo tali costituenti particelle. Chiaramente lo stato
del sistema è definito dai valori che assumono le coordinate, qi e gli impulsi
delle particelle, pi , dove i = 1, . . . , N. La dinamica di un sistema meccanico è
governata dalla hamiltoniana, che è funzione di tutte le coordinate ed impulsi
delle particelle
H({q}, {p}),
(1.1)
dove {q} indica l’insieme di tutte le coordinate delle N particelle e similmente
per gli impulsi. L’evoluzione dinamica si ottiene dalle equazioni di Hamilton
q̇i =
∂H
∂H
, ṗi = −
.
∂pi
∂qi
(1.2)
Ad ogni istante di tempo, lo stato del sistema può essere rappresentato
geometricamente come un punto in uno spazio 6N -dimensionale. Tale spazio
delle fasi è comunemente indicato come lo spazio Γ. Durante l’evoluzione dinamica del sistema meccanico, il punto rappresentativo del sistema percorre
una traiettoria nello spazio Γ. La conoscenza di tale traiettoria rappresenta
dunque una caratterizzazione completa del sistema. In generale, il numero
delle particelle costituenti il sistema è molto grande e ed è dell’ordine del
numero di Avogadro, cioè N ≈ 1023 . Di fatto è praticamente impossibile risolvere analiticamente le equazioni di Hamilton. Ma anche se ciò fosse
possibile, sarebbe comunque molto difficile afferrare il significato complessivo della soluzione. L’esperienza ci dice che un sistema termodinamico può
essere descritto in termini di un numero limitato di parametri, che sono appunto detti termodinamici. Ad esempio, lo stato di un gas è caratterizzato
da temperatura, pressione e volume. Quindi un approccio efficiente deve
essere in grado di fornirci un metodo per ricavare i valori degli osservabili
macroscopici a partire dalla funzione hamiltoniana del sistema di particelle.
È utile distinguere tra microstato e macrostato del sistema. Un microstato
corrisponde ad un punto nello spazio Γ, cioè a valori determinati di tutte le
coordinate ed impulsi delle particelle. Un macrostato è individuato da un
insieme di valori dei parametri termodinamici. In generale un microstato determina univocamente un macrostato, ma non viceversa. Parecchi microstati
possono corrispondere allo stesso macrostato. Indichiamo con M un particolare macrostato e con ΓM il volume dello spazio Γ che racchiude tutti i punti
corrispondenti ai microstati che producono il macrostato M . Quando un sistema meccanico percorre la sua traiettoria nello spazio Γ passa attraverso
1.3. MEDIE TEMPORALI E MEDIE SULL’ENSEMBLE
7
una successione di microstati diversi e se la sua traiettoria resta confinata
attraverso un volume ΓM , allora il sistema rimane nello stesso macrostato
M . Possiamo immaginare di dividere lo spazio Γ in tante regioni, ognuna
corrispondente ad un macrostato. Allora quando la traiettoria passa da una
regione all’altra, si ha un cambiamento di macrostato a livello macroscopico.
Il problema fondamentale che, a questo punto, deve affronatare la meccanica
statistica è di conciliare la reversibilità del moto a livello microscopico con
la tendenza all’equilibrio propria del secondo principio della termodinamica.
La soluzione di questo problema si basa su due ingredienti tipici della meccanica statistica: i) i sistemi meccanici considerati hanno un elevato numero
di gradi di libertà; ii) l’uso di argomenti probabilistici.
Dati due macrostati M e M 0 , il confronto dei loro volumi corrispondenti
ΓM e ΓM 0 fornisce una misura del peso statistico relativo dei due macrostati. Se ΓM > ΓM 0 , una traiettoria nello spazio Γ avrà maggiore probabilità
di trovarsi nel volume ΓM piuttosto che in ΓM 0 . Dal punto di vista macroscopico, ciò implica che misurando i parametri termodinamici sarà maggiore
la probabilità di trovare un valore per essi corrispondente al macrostato M .
Un macrostato di equilibrio è quello per cui il volume corrispondente ΓM è
massimo, in modo che una misura dei parametri termodinamici, con grande
probabilità produrrà un valore corrispondente al macrostato di equilibrio.
Inoltre, quando il numero di gradi di libertà aumenta, il volume del macrostato di equilibrio tende ad occupare la maggior parte dello spazio Γ. Quindi,
se inizialmente un sistema si trova in un macrostato non di equilibrio, l’evoluzione dinamica porterà la sua traiettoria nello spazio Γ fuori della regione
corrispondente a tale macrostato iniziale e lo condurrà attraverso regioni
corrispondenti a macrostati diversi e con grande probabilità si troverà nella
regione corrispondente al macrostato di equilibrio. In altre parole l’evoluzione, a livello macroscopico, verso uno stato di non equilibrio, è altamente
improbabile.
1.3
Medie temporali e medie sull’ensemble
Il valore di un osservabile fisico macroscopico dipende dallo stato microscopico del sistema e deve quindi essere una funzione di tutte le coordinate ed
impulsi. Tale funzione, che indichiamo con f , dipende dal tempo attraverso
la dipendenza temporale delle coordinate ed impulsi. La misura dell’osservabile richiede, inoltre, un tempo finito. Tale tempo è determinato dal tempo
di rilassamento necessario affinché il sistema fisico da misurare si equilibri
con l’apparato di misura. Durante questo tempo, a livello microscopico, il
sistema passa attraverso un gran numero di microstati, per cui la misura
8
CAPITOLO 1. ENSEMBLES STATISTICI
dell’osservabile produce una media temporale,
f=
1ZT
dtf ({q(t)}, {p(t)}).
T 0
(1.3)
Il tempo T sul quale si effettua la media deve essere necessariamente superiore
al tempo di rilassamento necessario per la misura. Allora, in linea di principio, per dedurre il comportamento macroscopico di un sistema dovremmo
essere in grado di effettuare la media temporale (1.3).
Gibbs ha proposto di sostituire la media temporale (1.3) con una media
statistica nel modo seguente. Nella sua evoluzione temporale, un sistema
meccanico passa attraverso una successione di microstati, corrispondenti a
punti dello spazio Γ. Immaginiamo ora di avere una collezione di sistemi
identici a quello cui siamo interessati e che ognuno di questi sistemi si trovi
in uno stato dinamico microscopico corrispondente allo stato microscopico in
cui si trova il sistema originario ad un dato istante di tempo. Allora, l’insieme
di questi sistemi identici, rappresenta, in modo simultaneo, l’evoluzione dinamica del sistema originario. Tale insieme di sistemi identici è detto ensemble
statistico. L’informazione riguardo un particolare ensemble statistico è data
dalla funzione di distribuzione, che descrive la densità dei sistemi identici
nello spazio Γ. Infatti, la densità dei sistemi identici è diversa da zero solo in
quei punti dello spazio Γ, dove effettivamente passa la traiettoria del sistema
originario. In termini matematici, la quantità
ρ({q}, {p}, t)d3N qd3N p
(1.4)
rappresenta il numero di sistemi identici contenuti nell’elemento di volume
dello spazio Γ, d3N qd3N p, centrato intorno al punto ({q}, {p}) al tempo
t. In termini della funzione di distribuzione, la media statistica o media
sull’ensemble è definita da
R
hf i =
Γ
d3N qd3N pρ({q}, {p}, t)f ({q(t)}, {p(t)})
R
.
3N qd3N pρ({q}, {p}, t)
Γd
(1.5)
In generale è tutt’altro che ovvio che la media statisitica (1.5) sia equivalente alla media temporale (1.3), anche se naturalmente è plausibile. Lo
studio delle condizioni sotto le quali tale equivalenza è effettivamente vera
costituisce l’argomento del cosidetto problema ergodico. L’ipotesi dell’equivalenza delle medie temporali e statistiche è quindi detta ipotesi ergodica. In
generale, dato un sistema meccanico arbitrario, è molto difficile dimostrare
la validità dell’ipotesi ergodica, o detto altrimenti, dimostrare che un sistema meccanico è ergodico. Seguendo una prassi ben consolidata, prendiamo
come assunzione di base la validità dell’ipotesi ergodica, in modo che il problema della meccanica statistica diventa quello di determinare la funzione di
1.4. TEOREMA DI LIOUVILLE
9
distribuzione dell’ensemble per un dato sistema meccanico. In base a questo atteggiamento euristico la possibilità di ottenere risultati in accordo con
l’esperienza deciderà della validità di tale assunzione. È chiaro altresı̀ che il
problema ergodico resta comunque un problema fondamentale e di grande
fascino intellettuale.
Nei paragrafi successivi andremo a sviluppare i metodi generali della meccanica statistica, cioè i metodi che ci permettono di derivare la forma generale della funzione di distribuzione dell’ensemble. Prima di ciò è opportuno
richiamare un teorema importante riguardante l’evoluzione dinamica di un
sistema hamiltoniano come quello in (1.2).
1.4
Teorema di Liouville
Il teorema di Liouville afferma l’invarianza della misura dello spazio Γ rispetto al moto hamiltoniano generato dalle equazioni (1.2). Tale fatto ha una
conseguenza importante per l’evoluzione temporale della funzione di distribuzione. Vediamo perché. In virtù dell’evoluzione temporale determinata
dalle equazioni di Hamilton, un determinato punto P0 dello spazio Γ al tempo t0 evolverà in un punto Pt al tempo t secondo quanto dettato dalla forma
della traiettoria. La soluzione delle equazioni del moto è dunque equivalente
ad una legge di trasformazione dello spazio Γ in se stesso. Consideriamo ora,
al tempo t0 , un dominio D0 dello spazio Γ, cioè un insieme di punti. Al
tempo t ogni punto del dominio D0 sarà evoluto in un altro punto. L’insieme
dei punti che sono le evoluzioni dei punti del dominio D0 costituiscono il
dominio Dt , evoluto di D0 . L’invarianza della misura significa che i volumi
di D0 e Dt sono uguali, anche se la loro forma può essere alquanto diversa.
In un sottoparagrafo alla fine di questo paragrafo daremo una dimostrazione
formale di questo fatto. Per adesso notiamo che l’invarianza della misura
esprime il fatto che ogni punto dello spazio Γ evolve in altro punto di Γ univocamente determinato. È chiaro quindi che il numero dei sistemi identici
che costituiscono l’ensemble statistico deve conservarsi.
La conservazione del numero dei sistemi identici o punti rappresentativi
implica un’equazione di continuità per la funzione di distribuzione. Infatti
consideriamo il tasso di decremento di sistemi identici in un volume V dello
spazio Γ
d Z 3N 3N
d q d p ρ({q}, {p}, t).
dt V
Tale decremento deve essere di segno opposto al flusso uscente dal volume V
Z
S
n · vρ({q}, {p}, t),
10
CAPITOLO 1. ENSEMBLES STATISTICI
dove S è la superficie che racchiude il volume V ed n il versore normale alla
superficie orientato verso l’esterno. La velocità di fase è definita da
v = (q˙1 , . . . , q˙N , p˙1 , . . . , p˙N ).
(1.6)
Se applichiamo il teorema della divergenza all’integrale di superficie, otteniamo
−
Z
d Z 3N 3N
d q d p ρ({q}, {p}, t) = d3N q d3N p ∇ · (vρ({q}, {p}, t)), (1.7)
dt V
V
da cu segue l’equazione di continuità
∂ρ
+ ∇ · (vρ) = 0.
∂t
(1.8)
Notiamo che l’operazione di divergenza deve essere presa nello spazio 6N dimensionale. In virtù delle equazioni del moto, la velocità di fase è un
vettore a divergenza nulla
∇·v ≡
N
X
i=1
N
X
∂ 2H
∂
∂ 2H
∂
q̇i +
ṗi =
−
∂qi
∂pi
∂pi ∂qi
i=1 ∂qi ∂pi
!
!
= 0.
(1.9)
La divergenza nell’equazione di continuità può quindi essere riscritta
∇ · (vρ) = (∇ · v)ρ + v · ∇ρ
= v · ∇ρ,
(1.10)
da cui segue
∂ρ
dρ
+ v · ∇ρ ≡
= 0.
(1.11)
∂t
dt
Quest’ultima equazione è la forma che assume il teorema di Liouville in
meccanica statistica. Essa afferma che la derivata totale rispetto al tempo della funzione di distribuzione dell’ensemble statistico è nulla. Quindi
la eventuale dipendenza esplicita dal tempo della funzione di distribuzione
deve esattamente compensare la dipendenza attraverso le coordinate e gli
impulsi. D’altro canto se la funzione di distribuzione deve descrivere un
ensemble di equilibrio non può avere una dipendenza esplicita dal tempo.
Quindi la funzione di distribuzione può dipendere dalle coordinate e dagli
impulsi solo attraverso una combinazione di questi costante. In altre parole,
la funzione di distribuzione deve dipendere solo da integrali primi del moto.
In un sistema isolato in quiete, l’energia è, in generale, l’unico integrale primo e quindi la funzione di distribuzione deve dipendere dalle coordinate ed
impulsi attraverso H({q}, {p}).
1.4. TEOREMA DI LIOUVILLE
1.4.1
11
Invarianza della misura rispetto al moto hamiltoniano
Per comodità introduciamo 6N variabili xi , in modo che le prime 3N corrispondano alle coordinate delle N particelle e le altre 3N agli impulsi. Formalmente la soluzione delle equazioni del moto può essere vista come una
trasformazione di coordinate
xi = xi (y1 , . . . , y6N ; t)
(1.12)
con il tempo agente come un parametro. Consideriamo, al tempo t, la misura
del dominio Dt
Z
MDt =
d6N x.
Dt
Effettuiamo un cambio di variabili usando la trasformazione (1.12)
Z
d6N x =
Dt
Z
J d6N y,
D0
dove J è lo jacobiano per la trasformazione di coordinate
J=
∂(x1 , . . . , x6N )
.
∂(y1 , . . . , y6N )
Il punto chiave della dimostrazione è mostrare che lo jacobiano non dipende
dal tempo. Deriviamo lo jacobiano rispetto al tempo ed otteniamo
6N
X
∂J
∂(x1 , . . . , xi−1 , ẋi , xi+1 , . . . x6N )
=
.
∂t
∂(y1 , . . . , y6N )
i=1
In quest’espressione comparirà il termine
6N
∂ ẋi X
∂ ẋi ∂xl
=
∂yk
l=1 ∂xl ∂yk
che produce nella derivata dello jacobiano
6N
6N X
X
∂ ẋi ∂(x1 , . . . , xi−1 , xl , xi+1 , . . . x6N )
∂J
=
.
∂t
∂(y1 , . . . , y6N )
i=1 l=1 ∂xl
Ora lo jacobiano che compare nell’espressione sopra si annulla sempre tranne
quando l = i e quindi si ottiene in definitiva
6N
X
∂J
∂ ẋi
=J
≡ J∇ · v = 0
∂t
i=1 ∂xi
in virtù di quanto visto precedentemente. Poiché dunque lo jacobiano non
dipende dal tempo e per t → 0 deve tendere a uno, segue che lo jacobiano è
pari a uno sempre. Ciò dimostra l’invarianza della misura.
12
CAPITOLO 1. ENSEMBLES STATISTICI
Capitolo 2
L’ensemble microcanonico
2.1
La funzione di distribuzione per un sistema isolato
L’ensemble microcanonico descrive un sistema isolato, per il quale l’energia e
il numero di particelle sono costanti. In equilibrio, anche il volume è costante.
In una situazione di non equlibrio il volume può aumentare. Per determinare
la funzione di distribuzione partiamo dalle considerazioni fatte nella dimostrazione del teorema di Liouville, cioè che la funzione di distribuzione deve
essere una funzione dell’energia.
Per procedere è necessario fare una qualche assunzione. Assumiamo il
postulato dell’uguale probabilità a priori, cioè la funzione di distribuzione è
ρ=
n
costante, H({q}, {p}) = E
0,
altrimenti.
(2.1)
Il significato della (2.1) è il seguente: tutti i punti dello spazio Γ corrispondenti ad uno stato del sistema con energia E sono da prendere con lo stesso
peso nel fare una media sull’ensemble. Dal punto di vista matematico la (2.1)
non è però soddisfacente. Infatti la condizione H({q}, {p}) = E determina
una ipersuperficie 6N −1-dimensionale. Un integrale di volume sullo spazio Γ
ristretto ad una tale ipersuperficie ha ovviamente misura nulla. Quindi sulla
ipersuperficie H({q}, {p}) = E la funzione di distribuzione non solo deve
essere diversa da zero, ma deve essere infinita. In altre parole, la funzione di
distribuzione deve essere della forma
ρ = C δ(E − H({q}, {p})),
13
(2.2)
14
CAPITOLO 2. L’ENSEMBLE MICROCANONICO
dove δ(x) è la funzione di Dirac. Per i nostri scopi δ(x) può essere definita
nel modo seguente
δ(x) =
n
∞, x = 0
,
0, x =
6 0
Z ∞
dxδ(x) = 1.
(2.3)
−∞
La δ(x) può essere pensata come il limite di una successione di funzioni
δ∆ (x) definite da
n 1, 0<x<∆
(2.4)
δ∆ (x) = ∆
0 altrimenti.
È facile verificare che
Z ∞
−∞
dxδ∆ (x) = 1
per ogni valore di ∆. La funzione di distribuzione può quindi essere scritta
nella forma equivalente
ρ=
C, E < H({q}, {p}) < E + ∆
0,
altrimenti.
n
(2.5)
La costante C nella definizione (2.5) deve essere scelta in modo che sia
soddisfatta la condizione di normalizzazione, cioè
−1
C
=
Z
d3N q d3N p.
(2.6)
E<H<E+∆
Notiamo che la definizione (2.5) è inoltre compatibile con il fatto che in un
sistema l’energia può essere determinata solo con una certa precisione. Il
parametro ∆ può allora essere associato a questa incertezza. È ovvio, d’altronde, che tutti i risultati che andremo a ricavare non devono dipendere dal
parametro ∆. Dal punto di vista matematico cioò significa che richiediamo
la possibilità di prendere il limite ∆ → 0.
2.2
La definizione dell’entropia
Dobbiamo adesso esaminare le conseguenze della scelta del postulato dell’uguale probabilità a priori. Poiché il nostro scopo è quello di derivare la
termodinamica, dobbiamo decidere come definire la connessione tra le grandezze termodinamiche e quelle calcolate sull’ensemble. Dalla termodinamica
sappiamo che lo stato di equilibrio di un sistema isolato è quello per cui l’entropia è massima. L’estensione del dominio dove la funzione di distribuzione
è diversa da zero misura il peso dello stato macroscopico del sistema isolato.
2.2. LA DEFINIZIONE DELL’ENTROPIA
15
Quindi è ragionevole associare tale peso all’entropia. Definiamo quindi il volume dello spazio delle fasi corrispondente ad un sistema isolato con energia
E
Z
Γ(E, V, N ) =
d3N q d3N p
(2.7)
V,E<H<E+∆
dove V è il volume che contiene il sistema ed N il numero di particelle. La
derivazione della termodinamica deriva dall’assumere
S = k ln Γ
(2.8)
dove k è la costante di Boltzmann ed il suo valore dipende dalle unità scelte
per l’entropia. In unità MKSA, si ha k = 1, 3807 · 10−23 J K−1 .
Notiamo che l’argomento del logaritmo ha le dimensioni di un’azione.
Sarebbe preferibile che tale argomento fosse un numero puro. Ciò potrebbe essere ottenuto dividendo il volume dello spazio Γ per una costante delle
dimensioni di un’azione. Tale costante avrebbe allora, apparentemente, il significato di un quanto di azione. Classicamente la definizione di tale costante
è del tutto arbitraria e corrisponde al fatto che l’entropia è definita a meno
di una costante. A livello della fisica classica per fissare l’entropia possiamo solo invocare il terzo principio della termodinamica, introdotto da Nerst,
secondo cui l’entropia di ogni sistema tende a zero allo zero assoluto della
temperatura. Tale principio non è introdotto teoricamente, ma sintetizza i
risultati degli esperimenti. Come vedremo più avanti in queste pagine (cf.
paragrafo 7.3) la meccanica quantistica fornisce il quanto di azione in termini
della costante di Planck e quindi permette di interpretare il peso statistico
come il numero di stati accessibili al sistema. Affinchè la definizione dell’entropia come il logaritmo del numero di stati accessibili sia compatibile con il
terzo principio, è necessario che tale numero tenda a uno allo zero assoluto.
A tale proposito si rimanda alla discussione del paragrafo 4.5.
Nel caso in considerazione di un numero virtualmente infinito di particelle,
è possibile definire l’entropia in modo alternativo. Infatti definiamo
Σ(E, V, N ) =
Z
3N
d
3N
qd
p=
Z
θ(E − H)d3N q d3N p,
(2.9)
V,H<E
con θ(x) la funzione a gradino di Heavside. Allora è facile vedere che
Γ(E) = Σ(E + ∆) − Σ(E),
(2.10)
dove per semplicità abbiamo solo indicato la dipendenza dall’energia. Possiamo infine definire la densità degli stati
ω(E) =
∂Σ Z
= δ(E − H)d3N q d3N p.
∂E
(2.11)
16
CAPITOLO 2. L’ENSEMBLE MICROCANONICO
In termini di ω(E) si ha
Γ(E) ≈ ω(E)∆.
(2.12)
Nel limite termodinamico possiamo definire l’entropia alternativamente
S = k ln Σ
(2.13)
S = k ln ω.
(2.14)
oppure
Infatti le definizioni (2.8, 2.13, 2.14) differiscono per termini di ordine ln N
e quindi sono indistinguibili nel limite termodinamico.
È importante sottolineare che la (2.8) (ed ovviamente anche le (2.13,2.14))
è postulata. La sua giustificazione può essere fatta solo a posteriori verificando che le sue conseguenze sono in accordo con i fatti sperimentali, cioè
con i principi della termodinamica.
Cominciamo col verificare se la (2.8) è una buona definizione di entropia,
cioè se soddisfa la proprietà di:
• a) essere estensiva
• b) aumentare per un sistema isolato fuori dall’equilibrio.
Per dimostrare la sussistenza di queste due proprietà, dobbiamo usare
esplicitamente e per la prima volta la circostanza che abbiamo a che fare
con sistemi con un numero enorme di gradi di libertà, tale cioè che possiamo
assumere N → ∞. Più precisamente assumeremo il cosidetto limite termodinamico secondo il quale N, V → ∞, ma il rapporto N/V tende ad un valore
costante.
Supponiamo che il sistema in studio sia diviso in due sottosistemi, che
indichiamo con indici 1 e 2. Immaginiamo che le N particelle siano ripartite
tra i due sottosistemi in modo che N1 + N2 = N . Tra i due sottosistemi non
può esserci scambio di particelle. Inoltre immaginiamo che i sottosistemi
siano confinati nei volumi V1 e V2 , rispettivamente. Ciò è possibile per un
sistema non gassoso. Il caso dei sistemi gassosi sarà discusso nel prossimo
capitolo. Se i due sottosistemi sono macroscopici, il rapporto della superficie
di contatto e il volume è trascurabile. Se le interazioni tra le particelle sono
a corto raggio, le interazioni tra i due sottosistemi sono limitate alla regione
della superficie di contatto e quindi sono trascurabili rispetto alle interazioni
tra le particelle all’interno del volume di ciascun sottosistema. Quindi in
buona approssimazione i due sottosistemi sono indipendenti e la funzione
hamiltoniona del sistema intero può essere scritta come una somma delle
funzioni hamiltoniane dei due sottosistemi
H = H1 + H2 .
(2.15)
2.2. LA DEFINIZIONE DELL’ENTROPIA
17
Separando le variabili d’integrazione relative ai due sottosistemi, possiamo
quindi scrivere che la densità degli stati nello spazio Γ del sistema intero è
ω(E) =
Z
d3N1 q d3N1 p d3N2 q d3N2 p δ(E − H1 − H2 ).
(2.16)
Introduciamo nell’integrando il fattore
1=
Z E
0
dE1 δ(E1 − H1 )
e riscriviamo la (2.16)
ω(E) =
Z E
0
=
Z E
0
dE1
Z
d3N1 q d3N1 p δ(E1 − H1 )
Z
d3N2 q d3N2 p δ(E − E1 − H2 )
d E1 ω(E1 ) ω(E − E1 ),
(2.17)
dove, in accordo con la definizione (2.11) abbiamo introdotto le densità degli
stati dei due sottosistemi
ω(E1 ) =
e
ω(E − E1 ) =
Z
d3N1 qd3N1 p δ(E1 − H1 )
Z
d3N2 qd3N2 p δ(E − E1 − H2 ).
Usando la definizione di entropia (2.14) otteniamo
S = k ln
Z E
0
d E1 ω(E1 ) ω(E − E1 ).
(2.18)
Poiché l’integrale sull’energia E1 si estende su un intervallo finito, possiamo considerare il valore Ē1 per cui l’integrando è massimo ed ottenere la
disuguaglianza
k ln ω(E1 )ω(E − E1 ) + k ln ≤ S(E) ≤ k ln ω(E1 )ω(E − E1 ) + k ln E,
dove definisce l’ampiezza dell’intervallo (E1 − /2, E1 + /2). Per dimostare
la disuguaglianza, notiamo che per il teorema della media possiamo scrivere
Z E
0
d E1 ω(E1 ) ω(E − E1 ) = Eω(E1∗ ) ω(E − E1∗ ) ≤ Eω(E1 ) ω(E − E1 ),
dove E1∗ è un opportuno valore appartenente all’intervallo (0, E). Ciò dimostra la maggiorazione. Per dimostrare la minorazione, osserviamo che essa è
equivalente a dimostrare che
18
CAPITOLO 2. L’ENSEMBLE MICROCANONICO
Z E1 −/2
0
dE1 ω(E1 ) ω(E − E1 ) +
Z E1 +/2
E1 −/2
Z E
E1 +/2
dE1 ω(E1 ) ω(E − E1 ) −
i
h
dE1 ω(E1 ) ω(E − E1 ) − ω(E1 ) ω(E − E1 )
> 0.
È ora facile convincersi che prendendo sufficientemente piccolo, la disuguaglianza è soddisfatta.
Se definiamo le entropie dei due sottosistemi
S1 = k ln ω(E1 ), S2 = k ln ω(E2 )
(2.19)
con la condizione E = E1 + E2 , allora otteniamo
S(E1 ) + S(E2 ) + k ln ≤ S(E) ≤ S(E1 ) + S(E2 ) + k ln E.
(2.20)
Se un sistema è composto di N particelle, ci aspettiamo che il volume dello
spazio delle fasi accessibile dipenda esponenzialmente da N , cioè
ω ∼ eN .
Ciò implica che il logaritmo del volume dello spazio delle fasi dipenda linearmente da N . Poiché E ∝ N ed < E, i termini k ln E e k ln della (2.20)
dipendono da N al più logaritmicamente e diventano trascurabili, nel limite
termodinamico. Quindi otteniamo
S(E) = S(E1 ) + S(E2 ),
(2.21)
che dimostra l’estensività dell’entropia. Infatti se, ad esempio, immaginiamo
che N1 = N2 = N/2, la (2.21) mostra come l’entropia raddoppi se raddoppiamo il numero di particelle. Come vedremo più avanti il fatto che l’additività dell’entropia valga per le entropie dei sottosistemi calcolate ai valori
che rendono massimo il prodotto delle densità degli stati degli spazi Γ dei
sottosistemi esprime la condizione di equilibrio termico tra i due sottosistemi.
Per dimostrare che l’entropia aumenta se il sistema si trova fuori dall’equilibrio, e quindi è soddisfatto il secondo principio della termodinamica,
osserviamo innanzi tutto che in un sistema isolato può variare solo il volume
in quanto energia e numero di particelle sono fissati. Affinchè il volume diminuisca è necessario comprimere il sistema, cioè bisogna rompere l’isolamento.
Ne segue che il volume può solo aumentare. Resta quindi da far vedere che
l’entropia è una funzione non decrescente del volume. Ciò può essere visto
considerando la definizione (2.13) di entropia. La (2.13) è chiaramente una
funzione non decrescente di V .
2.3. CONDIZIONI DI EQUILIBRIO E PRIMO PRINCIPIO DELLA TERMODINAMICA19
2.3
Condizioni di equilibrio e primo principio
della termodinamica
Torniamo ora al significato dei valori dell’energia E1 ed E2 che rendono massimo il prodotto ω(E1 )ω(E − E1 ). Per trovare il massimo di ω(E1 )ω(E − E1 ),
facciamo variare E1 ed E2 e imponiamo che la variazione del prodotto sia
nulla insieme alla condizione che E = E1 + E2 . Otteniamo
0 = δ(ω(E1 )ω(E2 )) =
∂ω(E2 )
∂ω(E1 )
δE1 ω(E2 ) +
δE2 ω(E1 )
∂E1
∂E2
da cui, usando δE1 = −δE2 ,
∂ω(E1 )
∂ω(E2 )
ω(E2 ) =
ω(E1 )
∂E1
∂E2
o anche
1 ∂ω(E2 )
1 ∂ω(E1 )
=
ω(E1 ) ∂E1
ω(E2 ) ∂E2
che quindi, usando la (2.19), può essere scritta
∂S1
∂E1
!
=
E1 =E1
∂S2
∂E2
!
.
(2.22)
E2 =E2
Se a questo punto definiamo la temperatura
1
≡
T
∂S
∂E
!
,
(2.23)
V
la (2.22) esprime la condizione di equilibrio termico, T1 = T2 , tra i due
sottosistemi.
Se il sistema isolato viene perturbato in modo da variare la sua energia
e il suo volume, e se la variazione avviene in modo sufficientemente lento
affinché ad ogni istante il sistema si trovi in equilibrio, allora l’insieme dei
punti dello spazio Γ si deforma lentamente ed ad ogni istante è definito un
ensemble microcanonico. La variazione di entropia risulta quindi
∂S
1
dS = dE +
T
∂V
!
dV.
(2.24)
E
Si noti che manteniamo costante il numero di particelle. Usando la regola
degli jacobiani, possiamo scrivere
∂S
∂V
!
E
∂(S, E) ∂(V, S)
∂S
=
=−
∂(V, E) ∂(V, S)
∂E
!
V
∂E
∂V
!
=
S
P
,
T
20
CAPITOLO 2. L’ENSEMBLE MICROCANONICO
dove l’ultima uguaglianza segue dall’identificazione dell’energia E con l’energia interna termodinamica U e dalla relazione
∂U
P =−
∂V
!
.
S
La (2.24) coincide quindi con il primo principio della termodinamica e conduce alla definizione della pressione nel microcanonico
∂S
∂V
P =T
!
.
(2.25)
E
Tale definizione di pressione è inoltre in accordo con il fatto che la derivata dell’entropia rispetto al volume controlla l’equilibrio meccanico tra i due
sottosistemi. Infatti, se ammettiamo che i due sottosistemi, oltre a scambiare
energia, possono variare la frazione di volume occupato da ciascuno di essi,
pur rimanendo invariato il volume totale, si ottiene una formula simile alla
(2.22) con i volumi al posto delle energie
∂S1
∂V1
!
=
V1 =V1
∂S2
∂V2
!
.
(2.26)
V2 =V2
Con la definizione di pressione (2.25), la (2.26) esprime la condizione di
equilibrio meccanico P1 = P2 .
A questo punto potrebbe sorgere la domanda circa la possibilità di permettere ai due sottosistemi di scambiare anche particelle, come ad esempio,
in un gas. Tale situazione sarà considerata nel prossimo capitolo dedicato
al caso importante del gas perfetto. Però è utile fare da subito la seguente
osservazione. Se indichiamo con Smicro ed Stermo l’entropia definita a partire
dall’ensemble microcanonico e l’entropia standard della termodinamica, la
discussione dalla (2.24) alla (2.26) dimostra che
dSmicro = dStermo ,
(2.27)
cioè che le due entropie differiscono a meno di una costante. Poichè entrambi
i differenziali sono presi tenendo costante il numero di particelle, la (2.27) non
può dire nulla a proposito della dipendenza dell’entropia del microcanonico
o dell’entropia termodinamica dal numero di particelle. Questo significa che
la definizione di entropia (2.8) è valida a meno di una funzione del numero
di particelle.
Capitolo 3
Il gas perfetto
3.1
Ensemble microcanonico per il gas perfetto
Il gas perfetto oltre a costituire il modello corretto di comportamento per i gas
reali ad alta temperatura e bassa pressione, costituisce forse il paradigma più
importante della termodinamica e della teoria cinetica. È dunque naturale
dedicare un’analisi approfondita nel contesto dell’ensemble microcanonico.
Nel caso del gas perfetto la funzione hamiltoniana si riduce alla sola energia
cinetica
N
X
p2i
.
(3.1)
H=
i=1 2m
Per calcolare l’entropia usiamo la formula (2.14). L’integrazione sulle coordinate è immediata
ω=
Z
3N
δ(E − H)d
qd
3N
∂ Z
θ(E − H) d3N p.
p=V
∂E
N
(3.2)
Per l’integrazione sugli impulsi definiamo il seguente integrale
I(n, ) =
Z
x21 +...x2n <
n
d x≡
Z
θ( − (x21 + . . . x2n )) dn x.
(3.3)
Poiché I è definito all’interno di un’ipersfera, introduciamo coordinate
sferiche generalizzate e riscriviamo
I(n, ) = Ωn
Z √
0
rn−1 dr = Ωn
n/2
,
n
dove r è il raggio ed Ωn è l’angolo solido n-dimensionale. Per calcolare
Ωn , consideriamo la seguente identità basata sull’iterazione dell’integrale
21
22
CAPITOLO 3. IL GAS PERFETTO
gaussiano
Z ∞
−∞
−x21
dx1 e
...
Z ∞
−∞
2
dxn e−xn = π n/2
che d’altronde può essere riscritto
Z ∞
−∞
...
Z ∞
−∞
2
2
dn xe−(x1 +...+xn ) = Ωn
Z ∞
0
1
2
e−r rn−1 dr = Ωn Γ(n/2)
2
dove si è introdotta la funzione gamma di Eulero definita da (Cf. paragrafo
(3.2) per le sue principali proprietà)
Γ(z) =
Z ∞
e−t tz−1 dt.
(3.4)
0
Deve quindi valere la relazione
Ωn =
2π n/2
.
Γ(n/2)
(3.5)
Quindi otteniamo
I(n, ) =
π n/2 n/2
2π n/2 n/2
=
.
nΓ(n/2)
Γ(n/2 + 1)
(3.6)
Per l’entropia del gas perfetto otteniamo quindi
3N π 3N/2 (2mE)3N/2−1
S(E, V, N ) = k ln V
.
2Γ(3N/2 + 1)
!
N
3.2
(3.7)
Proprietà della funzione gamma
Integrando per parti si ottiene la formula di ricorrenza
Γ(z) =
tz−1 e−t |0−∞
+ (z − 1)
Z ∞
dte−t tz−2
0
= (z − 1)Γ(z − 1).
(3.8)
Per z = n intero, la funzione gamma si riduce al fattoriale
Γ(n) = (n − 1)Γ(n − 1) = . . . = (n − 1)!.
(3.9)
Nel caso di z semintero, è utile conoscere il caso z = 1/2
Γ(1/2) =
Z ∞
0
e−t
dt √
t
Z ∞
= 2
dxe−x
0
√
=
π
2
(3.10)
3.3. TERMODINAMICA DEL GAS PERFETTO
23
Per z grande si può ottenere una formula approssimata mediante uno
sviluppo dell’integrale di (12.4) con il metodo del punto di sella. Riscriviamo
la funzione gamma nel modo seguente
Z ∞
Γ(z) =
dt e−f (t,z)
0
dove
f (t, z) = t − (z − 1) ln t.
La funzione f (t, z) ha un minimo in t∗ = z − 1. Infatti
f 0 (t, z) = 1 −
z−1
z−1
, f 00 (t, z) = 2
t
t
dove l’apice indica la derivata rispetto a t. La funzione gamma può quindi
essere scritta
Γ(z) =
Z ∞
∗ ,z)−(1/2)f 00 (t∗ ,z)(t−t∗ )2
dt e−f (t
0
= e
−(z−1)+(z−1) ln(z−1)
−z+1 z−1
≈ (z − 1)
e
Z ∞
∗ )2 /(2(z−1))
dte−(t−t
Z ∞0
∗ )2 /(2(z−1))
dte−(t−t
−∞
q
= (z − 1)z−1 e−z+1 2π(z − 1)
√
≈ z z e−z 2πz.
(3.11)
È interessante notare come nella (12.13), il fattore sotto radice rappresenta il
contributo delle deviazioni del valore della funzione f (t, z) intorno al minimo,
mentre gli altri fattori provengono dalla stima dell’integrale considerando
solo il valore in cui f (t, z) è minima, cioè in cui l’integrando è massimo.
È evidente che per z → ∞, le correzioni gaussiane sono piccole rispetto al
primo termine. Ulteriori correzioni oltre i termini quadratici saranno ancora
più piccole. Quindi l’approccio all’integrale con il metodo del punto di sella
è giustificato. Nel caso di z intero e grande, la (12.13) produce la formula di
Stirling
√
(3.12)
n! ≈ 2πnnn e−n , n → ∞.
3.3
Termodinamica del gas perfetto
Se usiamo la formula di Stirling, l’entropia (3.7) diventa, a meno di termini
ln N ,
!
4πmE 3/2
3
S(E, V, N ) = N k ln V
+ N k.
(3.13)
3N
2
24
CAPITOLO 3. IL GAS PERFETTO
Risolvendo rispetto all’energia, otteniamo
E ≡ U (S, V, N ) =
3N
2S
−1 .
exp
2/3
4πmV
3N k
(3.14)
Derivando rispetto a S otteniamo la temperatura
T =
∂U
∂S
!
=
V,N
2 U
3 Nk
(3.15)
e derivando rispetto a V otteniamo la pressione
∂U
P =−
∂V
!
=
S,N
2U
.
3V
(3.16)
La (3.15) riproduce il noto fatto che l’energia del gas perfetto è funzione della sola temperatura. Inserendo la (3.15) nella (3.16) otteniamo la
l’equazione di stato del gas perfetto
P =
N kT
.
V
(3.17)
Consideriamo adesso un contenitore di volume V diviso in due parti da
un setto rimovibile. Le due parti hanno volumi V1 e V2 , rispettivamente.
Consideriamo ora due gas diversi composti di N1 e N2 molecole, rispettivamente. Il primo gas si trova nel volume V1 e il secondo in V2 . Immaginiamo
che i due gas si trovino alla stessa temperatura, T1 = T2 = T , e pressione,
P1 = P2 = P . Ciò implica che i due gas abbiano la stessa densità
N2
N1
P
=k
=k .
T
V1
V2
Le energie dei due gas sono naturalmente
3
3
E1 = N1 kT, E2 = N2 kT.
2
2
Se rimuoviamo il setto separatore, i due gas si mescolano. Come è noto questo
è un processo irreversibile che comporta un aumento di entropia. Prima di
rimuovere il setto separatore, l’entropia del sistema è la somma di quella dei
due gas, cioè
3
3
Sprima = N1 k ln V1 (2πm1 T )3/2 + N1 k + N2 k ln V2 (2πm2 T )3/2 + N2 k.
2
2
(3.18)
3.3. TERMODINAMICA DEL GAS PERFETTO
25
Dopo la rimozione del setto separatore, ogni gas ha a disposizione l’intero
volume V , per cui l’entropia diventa
3
3
Sdopo = N1 k ln V (2πm1 T )3/2 + N1 k + N2 k ln V (2πm2 T )3/2 + N2 k.
2
2
(3.19)
La variazione di entropia è dunque
∆S = N1 k ln
V
V
+ N2 k ln .
V1
V2
(3.20)
Tale variazione di entropia è positiva come ci si aspetta per un mescolamento irreversibile. La variazione di entropia inoltre non dipende dalla natura
dei due gas (le masse m1 e m2 non compaiono), ma solo dal fatto che i due
gas sono diversi. L’aumento di entropia dovuta al mescolamento è dovuto
all’aumento di entropia di ciascun gas che in seguito alla rimozione del setto
separatore ha a disposizione un volume maggiore. Se ora immaginiamo di
ripetere questo processo di mescolamento con due gas identici otteniamo un
risultato paradossale, in quanto se calcoliamo la variazione di entropia, questa coincide con quella relativa al mescolamento di due gas identici. Se però
abbiamo lo stesso gas in entrambi i volumi, la rimozione del setto non produce
di fatto nessun mescolamento e non ci dovrebbe essere nessuna variazione di
entropia. Infatti, cosı̀ come abbiamo rimosso il setto separatore, potremmo
rimetterlo al suo posto e otterremmo nuovamente uno stato termodinamicamente identico a quello iniziale. Il fatto che la formula dell’entropia del gas
perfetto ricavata nell’ensemble microcanonico non sia in grado di descrivere
una variazione di entropia nulla quando mescoliamo due gas uguali, costituisce il cosidetto paradosso di Gibbs. Gibbs stesso notò che tale problema
viene rimosso dividendo il volume dello spazio Γ per N !, di modo da ottenere
per l’entropia la formula di Sackur-Tetrode
V
S(E, V, N ) = N k ln
N
4πmE
3N
3/2 !
5
+ N k.
2
(3.21)
A differenza della formula (12.15), l’espressione (3.21) è estensiva, cioè l’entropia di un sistema composto è sempre scrivibile come la somma delle parti
che compongono il sistema. In tal modo il mescolamento di due gas identici
non produce nessuna variazione di entropia. Questo fatto si può facilmente
verificare. In base alla formula modificata (3.21), l’entropia iniziale, per gas
uguali, è
V1
5
V2
5
= N1 k ln
(2πmT )3/2 + N1 k + N2 k ln
(2πmT )3/2 + N2 k,
N1
2
N2
2
(3.22)
Sprima
26
CAPITOLO 3. IL GAS PERFETTO
e quella finale è
V
5
(2πmT )3/2 + N k.
= N k ln
N
2
Sdopo
(3.23)
Quest’ultima equazione può essere riscritta osservando che N = N1 + N2
come
V
5
5
V
Sdopo = N1 k ln
(2πmT )3/2 + N1 k + N2 k ln
(2πmT )3/2 + N2 k.
N
2
N
2
(3.24)
La variazione di entropia risulta quindi
∆S = N1 k ln
V N2
V N1
+ N2 k ln
= 0,
N V1
N V2
(3.25)
in quanto la densità prima e dopo il mescolamento non è cambiata. Se
avessimo considerato gas diversi con la formula modificata la variazione di
entropia risulterebbe, come è facile verificare
∆S = N1 k ln
V N1
V N2
+ N2 k ln
N1 V1
N2 V2
e coincide con il risultato (3.20)
Notiamo che la divisione per N ! del volume dello spazio delle fasi è equivalente a modificare l’entropia con una costante, che in realtà è funzione di
N . Tale funzione di N è quella che avevamo lasciato indeterminata alla fine
del precedente capitolo. Il calcolo esplicito del gas perfetto ci ha indicato
quale debba essere tale funzione di N affinchè l’entropia sia estensiva ed abbia il giusto comportamento nel mescolamento di due gas, uguali o diversi
che siano. Per inciso, nel caso del mescolamento di due gas uguali, l’estensività è proprio la proprietà che determina che la variazione di entropia debba
essere nulla. Infatti, nel caso di gas uguali, da un punto di vista termodinamico la rimozione del setto separatore o la sua reinserzione non produce
nessun cambiamento che possa essere misurato per mezzo di parametri termodinamici. Quindi la richiesta di estensività, cioè che l’entropia totale del
gas (senza setto separatore) sia uguale alla somma delle parti (in presenza
del setto separatore), implica una variazione nulla.
Da quanto detto risulta chiaro che la divisione per N ! equivale a richiedere
l’estensività dell’entropia. È altresı̀ chiaro che tale divisione non è necessaria
se le molecole sono localizzate rigidamente nei due volumi V1 e V2 . Questo
corrisponde alla situazione che abbiamo discusso nel capitolo precedente.
3.4. IL CORRETTO CONTEGGIO DI BOLTZMANN
3.4
27
Il corretto conteggio di Boltzmann
La divisione per il fattore N ! viene comunemente indicata come il corretto
conteggio di Boltzmann. Nel paragrafo precedente tale conteggio è stato introdotto ad hoc in modo da ottenere un comportamento estensivo per l’entropia
del gas perfetto. In questo paragrafo intendiamo discutere tale conteggio in
modo più generale.
Prima di addentrarci nella discussione di questo punto nell’ambito della
meccanica statistica, può essere utile richiamare l’analisi che Pauli ha fatto
a proposito dell’estensività dell’entropia in ambito termodinamico, a partire
dalla definizione di Clausius dell’entropia
dS =
δQ
,
T
(3.26)
dove il differenziale deve essere preso lungo una trasformazione reversibile.
Per un gas perfetto (monoatomico) , il differenziale dell’entropia è
dV
3 dT
+
dS = N k
2 T
V
!
,
(3.27)
che implica un’entropia della forma
3
S(T, V, N ) = N k ln V + ln T + kf (N ),
2
(3.28)
dove f (N ) è una costante d’integrazione, che dipende dal numero di particelle
che viene tenuto costante durante la trasformazione reversibile. L’osservazione di Pauli è che l’estensività dell’entropia non è implicita nella definizione
di Clausius, ma richiede una condizione sulla forma della funzione f (N ).
Richiedere l’estensività significa richiedere che
S(T, qV, qN ) = qS(T, V, N ),
(3.29)
dove q è un numero positivo. Imporre la (3.29) conduce per f (N ) all’equazione funzionale
f (qN ) = −qN ln q + qf (N ).
(3.30)
Ponendo N = 1 si ottiene
f (q) = −q ln q + qf (1),
(3.31)
che conduce, in quanto q è arbitrario positivo e quindi può essere anche un
intero, alla soluzione
f (N ) = −N ln N + N f (1),
(3.32)
28
CAPITOLO 3. IL GAS PERFETTO
dove f (1) è una costante d’integrazione. Scegliendo tale costante della forma
f (1) = (3/2) ln(2πmk) + (5/2) si ritrova l’equazione di Sackur-Tetrode.
Ritorniamo alla meccanica statistica. Riprendiamo la discussione iniziata
nel capitolo precedente riguardo alle condizioni di equilibrio tra due sottosistemi. Nel caso presente, rispetto a quanto fatto in precedenza, concediamo
ai due sottosistemi di poter scambiare particelle. Immaginiamo quindi di
dividere un sistema isolato di energia totale E, volume V e numero di particelle N in due sottosistemi. Ad esempio immaginiamo un contenitore diviso
in due da un setto separatore. Il setto è fisso e quindi i volumi V1 e V2 dei
due sottosistemi sono tenuti costanti, ma nel setto è praticato un foro attraverso il quale i due sottosistemi possono scambiare particelle. Lo scambio di
energia è anche permesso come già discusso nel capitolo precedente. I due
sottosistemi hanno energia e numero di particelle E1 , E2 ed N1 , N2 , rispettivamente, con le condizioni E1 + E2 = E ed N1 + N2 = N . In analogia alla
(2.17) dobbiamo scrivere
ω(E, N ) =
N! Z
dE1 ω(E1 , N1 ) ω(E − E1 ).
N1 !N2 !
(3.33)
Il coefficiente binomiale che appare a membro di destra della (3.33) tiene
conto del fatto che se nel sottosistema 1 si trovano N1 particelle e nel sottosistema 2 si trovano N2 particelle, esistono N !/(N1 !N2 !) modi di realizzare
tale situazione microscopica. Infatti bisogna considerare il numero di modi
in cui posso scegliere le N1 particelle da mettere nel sottosistema 1. Tale
conteggio si basa sul fatto che le particelle classiche sono distinguibili. Abbiamo visto che per quanto riguarda lo scambio di energia, la situazione di
equilibrio è quella corrispondente ad un valore di E1 ed E2 che rende massimo l’integrando della (3.33). Da qui abbiamo introdotto la temperatura
come derivata dell’entropia rispetto all’energia. Vogliamo ora discutere quali
siano i valori di N1 ed N2 che rendono massimo l’integrando della (3.33).
Definiamo
ω(E2 , N2 )
ω(E1 , N1 )
, ω2∗ =
.
(3.34)
ω1∗ =
N1 !
N2 !
La condizione di massimo diventa allora
∂ ln ω1∗
∂ ln ω2∗
=
∂E1
∂E2
∗
∂ ln ω1
∂ ln ω2∗
=
∂N1
∂N2
(3.35)
Risulta quindi naturale definire l’entropia di ogni sottosistema come
ωi
Si = k ln ωi∗ ≡ k ln
(3.36)
Ni !
3.4. IL CORRETTO CONTEGGIO DI BOLTZMANN
29
in modo che la (3.35) diventa
∂S1
∂E1
!
=
E1 =E1
∂S2
∂E2
!
,
E2 =E2
!
∂S1
∂N1
=
N1 =N1
∂S2
∂N2
!
.
(3.37)
N2 =N2
Introducendo l’entropia del sistema totale come
S = k ln ω ∗ ≡ k ln
ω(E, N )
,
N!
(3.38)
la (3.33) indica chiaramente l’estensività dell’entropia. In tal modo abbiamo
giustificato la divisione per N ! introdotta nella formula dell’entropia del gas
perfetto. Nella presente discussione, inoltre, oltre a tener conto del gas perfetto, sono considerati anche i gas reali per i quali la funzione hamiltoniana
contiene anche un termine di energia potenziale. La forma della funzione
hamiltoniana è comunque ininfluente.
Notiamo ancora che la deduzione della termodinamica fatta nel capitolo
precedente (cf. eq.(2.24)) resta valida, in quanto effettuata a numero di particelle costante. Consideriamo ora una trasformazione lenta che vari energia,
volume e numero di particelle. La (2.24) diventa
P
∂S
1
dS = dS + dV +
T
T
∂N
!
dN.
(3.39)
E,V
La derivata parziale a membro di destra può essere riscritta
∂S
∂N
!
E,V
∂(S, E, V ) ∂(S, N, V )
1
=
=−
∂(N, E, V ) ∂(S, N, V )
T
∂E
∂N
!
S,V
µ
=− ,
T
dove l’ultima uguaglianza segue dall’aver identificato l’energia E con l’energia
interna termodinamica U dalla definizione di potenziale chimico
µ=
∂U
∂N
!
.
(3.40)
S,V
Nell’ensemble microcanonico il potenziale chimico è quindi dato da
µ ≡ −T
∂S
∂N
!
.
(3.41)
E,N
e la condizione di equilibrio termico e chimico (3.37) diventa T1 = T2 e
µ1 = µ2 . Il segno meno nella (3.41) è dovuto al fatto che il sottosistema
a potenziale chimico maggiore tende a cedere particelle al sottosistema a
30
CAPITOLO 3. IL GAS PERFETTO
potenziale chimico minore. Infatti immaginiamo la (3.39) scritta per il caso in cui si abbiano due sottosistemi che possono scambiare particelle, ma
temperatura e pressione sono tenute costanti
T dS = −µ1 dN1 + µ2 dN2 = −(µ1 − µ2 )dN1 .
(3.42)
Poiché dS > 0 in un processo irreversibile, se dN1 > 0, allora deve essere
µ2 > µ1 .
3.5
Connessione con il limite quantistico
Desideriamo fare alcune osservazioni circa la rilevanza del limite quantistico
in merito al paradosso di Gibbs e alla divisione per N !. In molti libri di
testo si dice che la divisione per N ! può essere compresa solo nell’ambito
della teoria quantistica, poichè il fattore N ! tiene conto della indistinguibilità
delle particelle in meccanica quantistica. Come abbiamo visto nel paragrafo
precedente, tale affermazione non è corretta. L’affermazione corretta è che
la divisione per N ! può essere ottenuta sia ragionando classicamente (come abbiamo fatto) sia considerando il limite semiclassico del trattamento
quantistico (come faremo in seguito nel paragrafo (8.4)). La distinguibilità o
indistingubilità delle particelle è irrilevante dal punto di vista della divisione
per N !. Ciò che è essenziale nel ragionamento classico è come si costruisce l’entropia per un sistema composto a partire dalle entropie delle parti
componenti.
Può essere utile dare due tipi di argomenti ad ulteriore rafforzamento del
ragionamento classico. Il primo ragionamento consiste nell’osservare che è
ormai possibile simulare al computer il comportamento di un gas a partire
dalla dinamica microscopica delle particelle costituenti il gas. In tale simulazione si usa la meccanica classica. Se la divisione per N ! non potesse essere
dedotta nell’ambito della meccanica statistica classica, ciò implicherebbe che
i risultati delle simulazioni dovrebbero essere corretti per essere in accordo
con i dati sperimentali. Ma ciò non avviene e le simulazioni numeriche di
sistemi classici sono perfettamente in accordo con risultati sperimentali di
sistemi che si trovano in un regime classico.
Un secondo tipo di argomenti riguarda il fatto se esistono sistemi per i
quali vale strettamente la meccanica statistica classica. Infatti nel caso dei
gas dove abbiamo a che fare con atomi e molecole, uno potrebbe dire che
in ultima analisi le particelle seguono la meccanica quantistica e solo nell’ambito di quest’ultima è possibile un trattamento rigoroso e pienamente
coerente. In realtà sistemi come i colloidi sono classici nel senso che le particelle costituenti, benchè piccole, hanno tuttavia una struttura complessa che
3.5. CONNESSIONE CON IL LIMITE QUANTISTICO
31
le rende distinguibili. Per tali sistemi la meccanica statistica classica deve
essere autosufficiente.
Infine è bene sottolineare che usare il limite semiclassico della meccanica
statistica quantistica è sicuramente corretto e nel caso di sistemi di particelle
quantistiche rappresenta forse il metodo più rapido. Come già detto, daremo
questo trattamento in seguito. Tra l’altro nel fare il limite semiclassico del
trattamento quantistico troveremo nell’espressione dell’entropia la costante di Planck h, che è impossibile da introdurre in un contesto puramente
classico. A questo proposito si rimanda al paragrafo (7.3).
32
CAPITOLO 3. IL GAS PERFETTO
Capitolo 4
L’ensemble canonico
4.1
Distribuzione di Boltzmann
Quando abbiamo considerato la proprietà estensiva dell’entropia, si è visto
che il valore delll’entropia per un sistema composto di due sottosistemi di
energia E1 ed E2 con E1 + E2 = E fissata è dominato dalla ripartizione di
energie E1 ed E2 tali che il prodotto ω(E1 )ω(E2 ) è massimo. Si è anche visto
che la condizione di massimo corrisponde alla situazione di equilibrio termico,
in cui i due sottosistemi si trovano alla stessa temperatura. Immaginiamo
ora che uno dei due sottosistemi, ad esempio il sottosistema 2, sia molto più
grande dell’altro sottosistema, cioè il sottosistema 1. Il sottosistema 2 è detto
reservoir. Da ora in poi quindi abbandoniamo la dizione di sottosistemi 1 e 2
e adottiamo quella di sistema e reservoir coll’ipotesi che il reservoir sia molto
più grande del sistema. L’energia totale è conservata, mentre il sistema ed il
reservoir possono scambiare energia
E = Er + Es ,
(4.1)
dove i suffissi r ed s si riferiscono al reservoir ed al sistema, rispettivamente.
La condizione di reservoir implica che Er ≈ E, cioè gli scambi di energia
tra sistema e reservoir alterano poco lo stato del reservoir, mentre possono
variare molto lo stato del sistema. Lo stato di quest’ultimo dipenderà quindi
dalla ripartizione energetica tra sistema e reservoir. Il nostro scopo è di
determinare come lo stato del sistema dipende dalla ripartizione energetica.
Ci chiediamo allora quale sarà la funzione di distribuzione del sistema con
energia Es a prescindere dallo stato del reservoir. Se indichiamo con {qs , ps }
e {qr , pr } le coordinate ed impulsi del sottosistema e del reservoir, siamo
interessati alla funzione di distribuzione definita nello spazio Γ relativo al
sistema, indipendentemente dalla posizione del reservoir nel suo spazio Γ.
33
34
CAPITOLO 4. L’ENSEMBLE CANONICO
Possiamo quindi scrivere, a meno di una costante di normalizzazione,
ρ({qs , ps }) =
Z
d3Nr q d3Nr p
E<Es +Hr <E+∆
= Γr (E − Es )
= ∆ ωr (E − Es )
= eSr (E−Es )/k ,
(4.2)
dove l’ultima relazione si è ottenuta invertendo la (2.14) per il reservoir. Poiché l’energia del sistema è piccola rispetto all’energia del reservoir e quindi
rispetto anche all’energia totale possiamo fare lo sviluppo di Taylor dell’esponente della (4.2)
!
∂Sr
Es + . . . .
Sr (E − Es ) ≈ Sr (E) −
∂E
(4.3)
Sempre in virtù del fatto che l’energia del reservoir è circa uguale a quella
totale
!
!
∂Sr (Er )
1
∂Sr
≈
≡ ,
(4.4)
∂E
∂Er
T
dove T è la temperatura di equilibrio del sistema e del reservoir. Allora la
funzione di distribuzione del sistema diventa
ρ({qs , ps }) = eSr (E)/k e−Es /(kT ) .
(4.5)
Il primo fattore esponenziale a membro di destra della (4.5) non dipende
dall’energia del sistema ed è quindi una costante. Il secondo fattore esponenziale aumenta notevolmente la convergenza degli integrali che coinvolgono la
funzione di distribuzione. Per tale motivo, nel seguito, rilasseremo la condizione 0 < Es < E, adottando invece la condizione 0 < Es < ∞. Tale
condizione, fisicamente, rappresenta il fatto che il reservoir ha virtualmente
energia infinita rispetto al sistema.
L’energia del sistema è determinata dalla funzione di Hamilton Es =
Hs ({qs , ps }), per cui la funzione di distribuzione del sistema definita su tutto
il suo spazio Γ avrà la forma
ρ({q, p}) =
1 −βH
e
,
Z
(4.6)
dove β ≡ 1/(kT ) ed abbiamo eliminato il suffisso s dal simbolo della funzione
hamiltoniana del sistema, poiché da adesso in poi ci riferiremo esclusivamente
al sistema. La quantità Z, che è costante rispetto alle coordinate ed impulsi
4.2. LA DEFINIZIONE DELL’ENERGIA LIBERA
35
del sistema, dipende dalla temperatura del sistema ed è introdotta affinchè
la funzione di distribuzione sia normalizzata. Deve allora essere
Z=
Z
d3N q d3N p e−βH({q,p}) ,
(4.7)
dove l’integrale è esteso su tutto lo spazio Γ compatibile con il volume V
occupato dal sistema. Qui N indica il numero di particelle del sistema.
(Per la precisione avremmo dovuto usare la notazione Vs ed Ns , ma poiché
avremo a che fare con il solo sistema abbiamo lasciato cadere il suffisso s per
semplificare la notazione). Allora la quantità Z deve essere una funzione della
temperatura, del volume e del numero di particelle, cioè Z = Z(T, V, N ). Tale
quantità è detta funzione di partizione. La funzione di distribuzione (4.6) è
la distribuzione di Boltzmann e definisce l’ensemble canonico.
4.2
La definizione dell’energia libera
Nell’ensemble canonico, definito da (4.6) e (4.7), la connessione con la termodinamica è data dalla formula
F (T, V, N ) = −kT ln
1
Z(T, V, N ),
N!
(4.8)
che esprime l’energia libera di Helmoltz o energia libera in termini della funzione di partizione. Nella (4.8) abbiamo introdotto la divisione per N ! in
accordo con il corretto conteggio di Boltzmann discusso nel capitolo precedente. Come già discusso in tale capitolo, l’introduzione del fattoriale è
comprensibile solo quando si prenda in considerazione il fatto di un sistema composto le cui componenti possano scambiare particelle. Dunque nella
definizione dell’ensemble canonico, dove il numero di particelle rimane costante, possiamo introdurre la divisione per N ! solo euristicamente. In ogni
caso, cosı̀ come accade nel microcanonico, l’introduzione del fattoriale non
modifica l’equazione di stato.
Il fatto che la definizione (4.8) definisca proprio l’energia libera è in accordo con la teoria dei potenziali termodinamici, secondo cui un sistema a
temperatura, volume e numero di particelle fissati evolve verso una situazione di equilibrio in cui l’energia libera è minima. Matematicamente si
può inoltre verificare che la (4.8) è effettivamente l’energia libera definita in
termodinamica dalla relazione
F = U − TS = U + T
∂F
.
∂T
(4.9)
36
CAPITOLO 4. L’ENSEMBLE CANONICO
Infatti
∂
∂
F =
∂T
∂T
1 Z 3N 3N −βH
−kT ln
d q d pe
N!
1 Z 3N 3N −βH Z 3N 3N e−βH H
= −k ln
d q d pe
− d qd p
N!
Z T
F
U
=
− ,
(4.10)
T
T
dove si è usato che
U ≡< H >=
Z
3N
d
qd
3N
e−βH
p
H.
Z
(4.11)
La (4.10) coincide con la (4.9) e quindi dimostra che la (4.8) definisce effettivamente l’energia libera.
4.3
Il gas perfetto
Come abbiamo avuto modo di vedere nel caso dell’ensemble microcanonico,
la funzione hamiltoniana di un gas perfetto è costituita dalla sola energia
cinetica
N
X
p2i
.
(4.12)
H=
i=1 2m
Chiaramente la funzione hamiltoniana può essere scritta coma la somma delle
funzioni hamiltoniane di tutte le particelle che costituiscono il gas. Questa
separabilità implica la fattorizzazione della funzione di partizione del gas.
Infatti secondo la definizione (4.7), l’esponenziale di una somma di termini si
trasforma in un prodotto di termini, uno per ogni particella. Quindi abbiamo
Z = Z0 N ,
(4.13)
dove Z0 è la funzione di partizione di particella singola
Z0 =
Z
d3 q
V
Z
R3
2 /(2mkT )
d3 pe−p
= V (2πmkT )3/2 .
(4.14)
L’energia libera risulta dunque
eV
(2πmkT )3/2
F (T, V, N ) = −kT N ln
N
(4.15)
dove abbiamo usato nuovamente la formula di Stirling per ln N ! ≈ N ln N −
N . Se richiamiamo le formule termodinamiche
∂F
S=−
∂T
!
∂F
, P =−
∂V
V,N
!
, µ=
T,N
∂F
∂N
!
,
T,V
(4.16)
4.4. DISTRIBUZIONE DI MAXWELL PER LE VELOCITÀ
37
derivando la (4.15) rispetto al volume si ottiene l’equazione di stato del gas
perfetto
kT N
.
(4.17)
P =
V
Si può notare che la derivazione dell’equazione di stato è chiaramente indipendente dall’aver inserito il corretto fattore 1/N ! nella definizione dell’energia
libera. Tale fattore è invece importante nella derivazione dell’entropia
5
V
(2πmkT )3/2 + kN.
S = kN ln
N
2
(4.18)
Calcoliamo l’energia con la formula U = F + T S
3
U = kT N
2
(4.19)
in accordo con la (3.15). Usando la (4.19) per scrivere T in funzione di U , si
riottiene l’entropia di Sackur-Tetrode della (3.21).
4.4
Distribuzione di Maxwell per le velocità
Nella derivazione della pressione esercitata da un gas bisogna calcolare il valor medio del quadrato della velocità. Maxwell trovò la legge di distribuzione
delle velocità in un gas perfetto. Alla luce della teoria dell’ensemble canonico
la derivazione della legge di distribuzione di Maxwell è poco più di un’osservazione. Infatti vogliamo sapere quale sia la probabilità che una molecola
qualunque del gas abbia il modulo della velocità compreso tra il valore v
e il valore v + dv. Se consideriamo la legge di distribuzione dell’ensemble
canonico per un gas di N particelle in un volume V , abbiamo
ρ({q}, {p}) =
1 −βH({p})
e
.
Z
(4.20)
Ora integriamo sulle 3N coordinate e su 3(N − 1) impulsi
Z
2
3N
d
qd
3(N −1)
Z0N −1 V −βp2 /2m
e−βp /2m
e
=
.
p ρ({q}, {p}) =
Z
(2πmkT )3/2
(4.21)
Per avere la distribuzione del modulo delle velocità, dobbiamo ancora integrare sulle direzioni. Alla fine ponendo v = p/m si ha che la propbabilità
che una molecola abbia velocità v è
4πm3
2
v 2 e−(m/2kT )v .
3/2
(2πmkT )
38
CAPITOLO 4. L’ENSEMBLE CANONICO
Poiché le molecole sono indipendenti, la distribuzione delle velocità risulta
f (v) = N
4πm3
2
v 2 e−(m/2kT )v .
3/2
(2πmkT )
(4.22)
È facile verificare che
kT
.
m
Il calcolo della pressione esercitata da un gas è
hv 2 i = 3
P =
4.5
N1
N
hmv 2 i = kT.
V 3
V
(4.23)
(4.24)
Formula di Gibbs per l’entropia
È possibile derivare un’elegante formula dell’entropia. Indichiamo con Ei
tutte le possibili energie che il sistema può assumere. In generale l’indice i
corrisponde ad un insieme di variabili continue, che sono le variabili canoniche. Tuttavia indichiamo le variabili da cui dipende l’energia attraverso
un unico indice i in modo formale. La probabilità associata allo stato con
energia Ei è ovviamente data dalla distribuzione di Boltzmann
X
1 −βEi
e−βEi .
, Z=
e
Z
i
pi =
(4.25)
L’entropia si ottiene dall’energia libera derivando rispetto alla temperatura
∂F
∂T
∂
=
kT ln Z
∂T
1 1 X −βEi
= k ln Z −
e
Ei
TZ i
1 X −βEi
= k ln Z + k
e
(− ln pi − ln Z)
Z i
S = −
= −k
X
pi ln pi .
(4.26)
i
La (4.26) è la formula di Gibbs per l’entropia, espressa in termini della distribuzione di probabilità. Tale formula diventa particolarmente istruttiva quando la distribuzione di probabilità è definita su un insieme finito e discreto di
stati, cioè i = 1, . . . , L.
4.5. FORMULA DI GIBBS PER L’ENTROPIA
39
In meccanica quantistica, lo spettro degli stati di un sistema contenuto in volume finito è discreto. Questo vuol dire che lo stato fondamentale
di minima energia è separato dagli altri stati. Possiamo prendere, senza
perdere di generalità, l’energia dello stato fondamentale come lo zero dell’energia. A temperatura nulla può essere popolato solo lo stato fondamentale.
Dalla (4.25) vediamo che pi può essere diversa da zero solo se Ei = 0. A
temperatura nulla, l’entropia del sistema può essere scritta
S = −k
s
X
pi ln pi ,
(4.27)
i=1
dove s indica la degenerazione dello stato fondamentale. Poiché i diversi
stati a energia nulla sono tutti equiprobabili deve essere pi = 1/s e la (4.27)
diventa
S = k ln s.
(4.28)
Ora se lo stato fondamentale non è degenere (s = 1) l’entropia è zero, in
accordo con il principio di Nerst. Se lo stato fondamentale non è degenere,
ma la degenerazione è piccola rispetto al numero di particelle, cioè s N ,
l’entropia è di fatto nulla nel limite termodinamico in quanto non estensiva.
Ciò è sufficiente per essere in accordo con il principio di Nerst. Per avere una
violazione del principio di Nerst deve accadere che la degenerazione dello
stato fondamentale sia esponenzialmente grande nel numero di particelle s ∝
eN .
40
CAPITOLO 4. L’ENSEMBLE CANONICO
Capitolo 5
L’ensemble grancanonico
5.1
La funzione di distribuzione grancanonica
Abbiamo visto che il passaggio dall’ensemble microcanonico a quello canonico corrisponde a considerare un sistema isolato ad energia costante nel primo
caso oppure un sistema in contatto con un reservoir a temperatura costante nel secondo caso. In entrambi i casi, il numero di particelle del sistema
resta costante. Vogliamo ora considerare la situazione in cui il sistema che
vogliamo studiare può scambiare particelle con l’ambiente e ci poniamo il
problema di determinare la funzione di distribuzione in questo caso. Il modo
di procedere è simile al passaggio dal microcanonico al canonico nel senso che
immaginiamo un sistema composto di due sottosistemi. Immaginiamo che il
sistema composto nel suo insieme sia descritto da un ensemble canonico e si
trovi ad una certa temperatura T . I due sottosistemi occupano rispetticamente i volumi Vs e Vr con la condizione V = Vs + Vr , dove V è il volume
del sistema complessivo. Il numero di particelle N del sistema è ripartito
tra i due sottosistemi N = Ns + Nr . Nello spirito della trattazione fatta
per ricavare l’ensemble canonico, immaginiamo che Nr Ns e che i due
sottosistemi possano scambiare particelle tra loro. Vogliamo determinare la
funzione di distribuzione corrispondente ad una data ripartizione di particelle tra i due sottosistemi. Più precisamente vogliamo determinare la funzione
di distribuzione relativa al sottosistema s contenente Ns indipendentemente
dal valore che assumono le coordinate ed impulsi del sottosistema r. Dunque
scriveremo
N ! 1 −βH({qs ,ps }) Z 3Nr 3Nr −βH({qs ,ps })
e
d q d pe
,
ρ({qs , ps }, Ns ) =
Ns !Nr ! Z
41
42
CAPITOLO 5. L’ENSEMBLE GRANCANONICO
dove Z è la funzione di partizione del sistema totale. Il coefficiente binomiale
è stato introdotto in accordo con la discussione a proposito del corretto conteggio di Boltzmann. Effettuando l’integrazione sulle variabili del reservoir
arriviamo all’espressione
ρ({qs , ps }, Ns ) =
N ! e−βH({qs ,ps })
Zr (T, Vr , N − Ns ).
Z
Ns !
(5.1)
Scrivendo la funzione di partizione del sottosistema r in termini della corrispondente energia libera abbiamo
N ! e−βH({qs ,ps }) −βFr (T,Vr ,N −Ns )
ρ({qs , ps }, Ns ) =
e
.
Z
Ns !
(5.2)
Sfruttando la condizione che Ns N , possiamo sviluppare l’energia libera
che appare nel secondo esponenziale della (5.2)
Fr (T, Vr , N − Ns ) ≈ Fr (T, Vr , N ) − Ns
∂Fr
+ . . . = Fr (T, Vr , N ) − Ns µ
∂N
per modo che possiamo finalmente scrivere la funzione di distribuzione relativa al sottosistema s nella forma
1 e−β(H({q,p})−µN )
Z
N!
ρ({q, p}, N ) =
(5.3)
dove abbiamo soppresso l’indice s in quanto d’ora in avanti avremo a che
fare con il solo sistema s. La (5.3) è la funzione di distribuzione che definisce
l’ensemble grancanonico. La quantità Z è stata introdotta per rendere la
funzione di distribuzione normalizzata ed è definita da
Z=
∞ Z
X
d
3N
3N
qd
N =0
e−β(H({q,p})−µN )
.
p
N!
(5.4)
Nella (5.4) la somma su N si estende da zero all’infinito, in quanto il fattoriale
a denominatore aumenta la convergenza della somma, nello stesso modo in
cui nel passaggio al canonico l’integrale sull’energia è stato esteso su tutto il
semiasse reale positivo.
5.2
Il granpotenziale
In termini della funzione di partizione grancanonica si introduce il granpotenziale
Ω(T, V, µ) = −kT ln Z(T, V, µ).
(5.5)
5.2. IL GRANPOTENZIALE
43
Ricordiamo che il granpotenziale è la trasformata di Legendre, rispetto al
numero di particelle, dell’energia libera di Helmoltz, cioè
Ω = F − µN
(5.6)
con le relazioni
∂Ω
N =−
∂µ
!
∂Ω
, S=−
∂T
T,V
!
µ,V
∂Ω
, P =−
∂V
!
.
T,µ
È facile verificare che il granpotenziale soddisfa la relazione
Ω−T
∂Ω
= U − µN.
∂T
(5.7)
Deriviamo rispetto a T la (5.5)
∞ Z
β(µN −H)
1 X
∂Ω
3N
3N e
= −k ln Z −
d qd p
∂T
T N =0
N !Z
Ω
1
=
− (U − µN ),
T
T
(5.8)
che coincide con la (5.7).
È utile richiamare un’altra utile relazione per il granpotenziale. Per dimostrarla ricordiamo la definizione dell’energia libera di Gibbs, che è la trasformata di Legendre, rispetto al volume, dell’energia libera di Helmoltz. Si
ha
G = F + P V,
(5.9)
con le relazioni
µ=
∂G
∂N
!
T,P
∂G
, S=−
∂T
!
, V =
µ,P
∂G
∂P
!
.
T,µ
L’energia libera di Gibbs deve essere estensiva come qualsiasi potenziale
termodinamico, cioè deve essere della forma
G(T, P, N ) = N g(T, P )
da cui si ricava che µ = g(T, P ). Allora si ha dalla (5.9)
G ≡ µN = F + P V,
che implica, usando la (5.6)
Ω = F − µN = F − G = −P V.
(5.10)
44
CAPITOLO 5. L’ENSEMBLE GRANCANONICO
In termini della (5.10) si ha
P =
kT
ln Z(T, V, µ),
V
che insiema alla
N = kT
∂
ln Z(T, V, µ)
∂µ
(5.11)
(5.12)
produce l’equazione di stato in forma implicita. Infatti dalla (5.12) si ricava
il potenziale chimico come funzione di temperatura, volume e numero di
particelle µ = µ(T, V, N ). Tale funzione deve essere poi inserita nella (5.11).
5.3
Il gas perfetto
La funzione di granpartizione del gas perfetto si ottiene facilmente a partire
dal calcolo fatto per l’ensemble canonico. Si ha
Z=
∞
X
eβµN N
βµ
Z0 = eZ0 e ,
N =0 N !
(5.13)
dove Z0 = V (2πmkT )3/2 è stata calcolata nella (4.14). Usando la (5.11) si
ottiene
kT βµ
e V (2πmkT )3/2
(5.14)
P =
V
e dalla (5.12)
N = eβµ V (2πmkT )3/2 .
(5.15)
L’inserzione della (5.15) nella (5.14) produce ancora una volta l’equazione di
stato dei gas perfetti.
Capitolo 6
Teorema di equipartizione e
fluttuazioni
6.1
Il teorema di equipartizione
Il teorema di equipartizione afferma
hxi
∂H
i = δij kT,
∂xj
(6.1)
dove xi e xj sono due variabili canoniche qualsiasi (coordinata o impulso).
La dimostrazione, che svolgiamo nell’ensemble microcanonico, è abbastanza
semplice.
hxi
∂H
1 Z 3N 3N
∂H
i =
d q d p δ(E − H)xi
∂xj
ω(E)
∂xj
Z
1
∂
∂H
=
θ(E − H)xi
d3N q d3N p
ω(E)
∂E
∂xj
Z
1 ∂
∂H
=
d3N q d3N p θ(E − H)xi
ω(E) ∂E
∂xj
Z
∂H
1 ∂
=
d3N q d3N p xi
ω(E) ∂E H<E
∂xj
Z
1 ∂
∂
=
(H − E),
d3N q d3N p xi
ω(E) ∂E H<E
∂xj
(6.2)
dove abbiamo usato il fatto che E non dipende da xi . Riscriviamo l’integrando della (6.2) usando
xi
∂
∂
(H − E) =
(xi (H − E)) − δij (H − E)
∂xj
∂xj
45
46CAPITOLO 6. TEOREMA DI EQUIPARTIZIONE E FLUTTUAZIONI
in modo che la (6.2) diventa
hxi
∂H
1 ∂ Z
∂
i =
(xi (H − E))
d3N q d3N p
∂xj
ω(E) ∂E H<E
∂xj
1 ∂ Z
−δij
d3N q d3N p (H − E).
ω(E) ∂E H<E
(6.3)
Il primo integrale a membro di destra della (6.3) è nullo, in quanto si riduce
ad un integrale sulla superficie H = E, dove l’integrando è nullo. Poiché H
non dipende da E, il secondo integrale diventa
hxi
1 ∂ Z
∂H
i = δij
d3N q d3N p E
∂xj
ω(E) ∂E H<E
1 Z
d3N q d3N p
= δij
ω(E) H<E
1
= δij
Σ(E)
ω(E)
"
= δij
#−1
∂
ln Σ(E)
∂E
"
∂S
= kδij
∂E
= δij kT.
#−1
(6.4)
Un caso importante è quello in cui la funzione hamiltoniana dipende da una
variabile canonica quadraticamente H = ax2 + . . ., dove x è una variabile
canonica
1
hax2 i = kT.
(6.5)
2
Ad esempio, nel caso del gas perfetto di N particelle
3
hHi = N kT.
2
6.2
(6.6)
Fluttuazioni di energia
Come si è visto nel caso dei gas perfetti, tutti gli ensembles danno risultati
equivalenti. Per capirne la ragione, consideriamo l’energia nel microcanonico
e nel canonico. Nel microcanonico, l’energia è fissata e coincide con l’energia
interna della termodinamica. Nel caso del canonico, dove l’energia non è fissata, l’energia interna corrisponde all’energia media calcolata sull’ensemble.
Risulta quindi naturale chiedersi quanto l’energia media sia rappresentativa
6.2. FLUTTUAZIONI DI ENERGIA
47
dell’energia tipica nell’ensemble. A tale scopo bisogna considerare l’entità
delle fluttuazioni di energia intorno al valor medio. Se le fluttuazioni sono piccole, ciò significa che il valor medio è rappresentativo della maggior
parte dei valori dell’energia per i vari sistemi dell’ensemble. Per valutare le
fluttuazioni dobbiamo calcolare la variazione quadratica media
h(H − hHi)2 i = hH 2 i − hHi2
−βH
H
e−βH H 2
Γe
−
=
Z
Z
∂
= − hHi
∂β
!
∂
∂F
= −
F −T
,
∂β
∂T
P
P
Γ
!2
(6.7)
dove nell’ultimo passaggio abbiamo usato la relazione (4.9). Inoltre con il
P
simbolo Γ abbiamo sinteticamente indicato l’integrazione sullo spazio Γ.
Passando dalla derivazione in β a quella in T , otteniamo
∂F
F −T
∂T
∂
h(H − hHi) i = kT
∂T
2
2
!
= −kT 3
∂ 2F
.
∂T 2
(6.8)
,
(6.9)
In base al primo principio
dU = T dS − P dV,
il calore specifico a volume costante è
cV ≡
dU
dT
!
=T
V
∂S
∂T
!
= −T
V
∂ 2F
∂T 2
!
V
in modo che la variazione quadratica media diventa
h(H − hHi)2 i = kT 2 cV .
(6.10)
La (6.8) o equivalentemente la (6.10) mostra quindi che la variazione quadratica media è proporzionale al numero di particelle dato il carattere estensivo
dell’energia libera e delle sue derivate rispetto ad una variabile intensiva come
la temperatura. Per valutare l’entità delle fluttuazioni, bisogna confrontare
lo scarto quadratico medio con il valor medio
q
h(H − hHi)2 i
hHi
√
√
T kcV
N
1
=
≈
=√
U
N
N
(6.11)
48CAPITOLO 6. TEOREMA DI EQUIPARTIZIONE E FLUTTUAZIONI
e nel limite termodinamico della meccanica statistica tale rapporto tende a
zero. In generale quindi le fluttuazioni, in presenza di un gran numero di costituenti, tendono a essere relativamente piccole in rapporto al valor medio.
Quest’ultimo quindi rappresenta bene i valori tipici all’interno dell’ensemble.
La distribuzione di probabilità relativa ai valori dell’energia è dunque relativamente stretta e piccata. Ci si aspetta quindi che valor medio e valore più
probabile non differiscano molto. Tale osservazione è alla base del metodo
della distribuzione più probabile che discuteremo in seguito.
Nella (6.11) si è usato il fatto che cV ∼ N , in quanto è una proprietà
estensiva. Ciò ci ha portato a concludere che le fluttuazioni sono piccole nel
limite termodinamico. Per avere fluttuazioni grandi nel limite termodinamico
deve accadere che il calore specifico sia singolare. In realtà ciò è proprio
quello che accade in prossimità del punto critico del diagramma di fase di una
sostanza reale. La descrizione teorica di tale fatto esula però dal programma
di un corso elementare di meccanica statistica.
Nel caso dei gas perfetti, in base alla (6.6) il calore specifico è
3
cV = N k
2
(6.12)
e la (6.11) diventa
q
h(H − hHi)2 i
hHi
6.3
√
2
=√ .
3N
(6.13)
Fluttuazioni del numero di particelle
In modo analogo a quanto discusso per le fluttuazioni di energia nell’ensemble canonico, è possibile considerare le fluttuazioni del numero di particelle
nell’ensemble grancanonico.
h(N − hN i)2 i = hN 2 i − hN i2
eβµN N 2 ZN
−
Z
∂
kT hN i
∂µ
∂ 2Ω
−kT 2
∂µ
∂ 2P
kT V
.
∂µ2
P
=
=
=
=
N
P
N
eβµN N ZN
Z
!2
(6.14)
6.3. FLUTTUAZIONI DEL NUMERO DI PARTICELLE
49
Osserviamo che possiamo considerare P e µ come funzioni di T e v = V /N ,
in quanto variabili intensive. Allora, a temperatura fissata
∂P
∂µ
!
T
∂(P, T )
∂(P, T ) ∂(v, T )
∂P
=
=
=
∂(µ, T )
∂(µ, T ) ∂(v, T )
∂v
∂µ
∂v
!−1
.
(6.15)
L’energia libera di Helmoltz può essere scritta
F (T, V, N ) = N f (T, V /N )
(6.16)
in modo che
∂P
= −f 00
∂v
∂µ
= −vf 00 ,
∂v
(6.17)
(6.18)
dove f 00 indica la derivata seconda rispetto ad x di f (T, x). Quindi
1
∂P
= .
∂µ
v
(6.19)
Allora la derivata secondo della pressione rispetto al potenziale chimico diventa
∂ 2P
∂ 1
1 ∂v
1 ∂v
N 2 ∂V
=
=
−
=
−
=
−
.
(6.20)
∂µ2
∂µ v
v 2 ∂µ
v 3 ∂P
V 3 ∂P
Se introduciamo la compressibilità isoterma
κT = −
1 ∂V
,
V ∂P
(6.21)
possiamo riscrivere la (6.14)
h(N − hN i)2 i = N kT
N
.κT
V
(6.22)
Il rapporto tra scarto quadratico e valor medio produce quindi
q
h(N − hN i)2 i
<N >
1 q
=√
kT (N/V )κT ,
N
(6.23)
che nel limite termodinamico tende a zero, nell’ipotesi di un comportamento
regolare della compressibilità.
50CAPITOLO 6. TEOREMA DI EQUIPARTIZIONE E FLUTTUAZIONI
Capitolo 7
La meccanica statistica
quantistica
7.1
Ensembles quantistici
In meccanica quantistica lo stato di un sistema fisico è rappresentato da un
vettore in uno spazio vettoriale di Hilbert. Lo spazio vettoriale di Hilbert
è lo spazio degli stati possibili per il sistema. Se nello spazio di Hilbert
introduciamo una base ortonormale di vettori |ii tale che
hi|ji = δij ,
(7.1)
allora lo stato del sistema al tempo t è definito da
|v(t)i =
X
ci (t)|ii,
X
c∗i (t)ci (t) = 1
(7.2)
i
i
dove le ci (t) sono le ampiezze di probabilità al tempo t relative al vettore di
base |ii. Il valor medio di un osservabile O rispetto al vettore di stato |v(t)i
è dato da
X
c∗i (t)cj (t)hi|O|ji.
(7.3)
hOi(t) ≡ hv(t)|O|v(t)i =
i,j
Come nel caso della meccanica statistica classica, il valore termodinamico
di un osservabile deve essere associato ad un valor medio temporale su un
intervallo di tempo sufficientemente lungo rispetto ai tempi di rilassamento
tipici del sistema. Da questo punto di vista valgono le medesime considerazioni fatte nel caso classico. La media temporale dell’osservabile acquista la
forma
X
O=
c∗i cj hi|O|ji,
(7.4)
i,j
51
52
CAPITOLO 7. LA MECCANICA STATISTICA QUANTISTICA
dove la barra indica la media temporale. Continuando l’analogia con il caso
classico, la meccanica statistica quantistica si sviluppa assumendo di poter
sostituire la media temporale con una media su un ensemble statistico. La
definizione di ensemble statistico per il caso quantistico significa definire la
quantità c∗i cj .
7.1.1
Ensemble microcanonico
Assumumiamo i seguenti due postulati.
I Postulato delle fasi casuali
c∗i cj = δij ρi .
(7.5)
Un sistema isolato, in generale, ha un’evoluzione temporale che mantiene la
coerenza di fase delle ampiezze di probabilità. In tali fasi è quindi immagazzinata la storia del sistema. Poiché un sistema all’equilibrio tende a rimanervi,
indipendentemente dal modo in cui è arrivato all’equilibrio, sembra ragionevole assumere che non vi sia coerenza di fase tra ampiezze di probabilità
relative a stati di base diversi. Questo è il significato del postulato delle fasi
casuali.
II Postulato dell’uguale probabilità a priori
ρi (E, V, N ) = C δ(E − Ei ).
(7.6)
Questo secondo postulato è chiaramente l’analogo di quello introdotto nel
caso classico e non c’è bisogno di commenti ulteriori. La connessione con
la termodinamica si ottiene definendo l’entropia come nel caso classico. Ad
esempio
X
S = k ln
ρi ≡ k ln Trρ,
(7.7)
i
dove la somma sugli stati del sistema è stata indicata con il simbolo di traccia
applicato alla matrice di distribuzione di probabilità.
7.1.2
Ensemble canonico
La distribuzione di probabilità ha la forma tipica del canonico
ρi =
e−βEi
,
Z
(7.8)
con funzione di partizione
Z=
X
e−βEi .
(7.9)
i
La termodinamica è naturalmente derivata per mezzo dell’energia libera
F = −kT ln Z(T, V, N ).
(7.10)
7.2. STATISTICHE QUANTISTICHE: GAS PERFETTI
7.1.3
53
Ensemble grancanonico
Per l’ensemble grancanonico, nuovamente in analogia con il caso classico,
abbiamo la funzione di partizione grancanonica
∞
X
Z(T, V, µ) =
eβµN Z(T, V, N ),
(7.11)
N =0
con il granpotenziale
Ω(T, V, µ) = −kT ln Z(T, V, µ).
7.2
(7.12)
Statistiche quantistiche: gas perfetti
Anche nel caso quantistico, il primo esempio cui applicare i metodi della
meccanica statistica è quello dei gas perfetti. Per gas perfetto intendiamo
un sistema di N particelle confinate in un volume V e interazione reciproca
nulla. A differenza del caso classico, in virtù della mancanza della nozione
di traiettoria, le particelle sono indistinguibili. Ciò implica un diverso modo
di descrivere lo stato del gas. Se infatti le particelle possono trovarsi in
stati con energia k , lo stato del gas risulta determinato se specifichiamo nk ,
cioè il numero di particelle che si trovano nello stato k. Indichiamo con {nk }
l’insieme dei numeri di occupazione degli stati. Nell’ensemble microcanonico,
l’enumerazione di tutti gli stati implica la somma su tutti gli insiemi che
sono compatibili con i vincoli che esprimono la conservazione del numero di
particelle e dell’energia
X
nk = N,
(7.13)
nk k = E.
(7.14)
k
X
k
Nell’ensemble grancanonico, dove entrambi i vincoli sono rilassati il calcolo
è molto più agevole. La funzione di granpartizione risulta
Z=
∞
X
N =0
eβµN
X
e−βE({nk }) ,
(7.15)
{nk }
dove E({nk }) è l’energia dello stato corrispondente ad una particolare scelta
di numeri di occupazione {nk }. La somma più interna sugli insiemi {nk }
deve soddisfare il vincolo (7.13). Tale somma può essere combinata con la
54
CAPITOLO 7. LA MECCANICA STATISTICA QUANTISTICA
somma più esterna relativa al numero totale di particelle. La funzione di
granpartizione può quindi essere scritta
e−β(E({nk })−µN ) ,
X
Z=
(7.16)
{nk }
dove la somma è su tutti i possibili insiemi {nk } senza alcuna restrizione sul
numero totale di particelle. Se il sistema è costituito di particelle indipendenti, l’energia può essere espressa come somma delle energie relative agli
P
stati di singola particella, cioè E = k nk k . La (7.16) diventa
Z =
e−β
X
P
k
(k −µ)nk
{nk }
=
XY
=
X
=
YX
e−β(k −µ)nk
{nk } k
e−β(1 −µ)n1 . . .
X
n1
e−β(k −µ)nk . . .
nk
e
−β(k −µ)nk
.
(7.17)
nk
k
Il vantaggio della formula ottenuta è che adesso possiamo sommare su un
numero di occupazione per volta. Richiamando l’espressione del granpotenziale
Ω = −kT ln Z
YX
= −kT ln
e−β(k −µ)nk
= −kT
k
nk
ln
X
X
nk
k
=
X
e−β(k −µ)nk
Ωk ,
(7.18)
k
dove si è introdotto il granpotenziale per lo stato k-esimo.
Nel caso dei fermioni, a motivo del principio di esclusione di Pauli, ogni
stato può essere occupato al più da una particella. La somma sui valori
dei numeri di occupazione è quindi ristretta a due soli valori n= 0, 1. Come
conseguenza
Ωk = −kT ln 1 + e−β(k −µ) .
(7.19)
Nel caso dei bosoni non ci sono restrizioni. Quindi si ottiene
Ωk = −kT ln
∞
X
e−β(k −µ)nk
nk =0
= kT ln 1 − e−β(k −µ) ,
(7.20)
7.2. STATISTICHE QUANTISTICHE: GAS PERFETTI
55
dove nella risommazione della serie geometrica si è assunto
k − µ > 0, ∀k.
(7.21)
Poiché k ≥ 0 deve essere µ ≤ 0. Usando la formula
∂Ωk
(7.22)
hnk i = −
∂µ
otteniamo
1
,
(7.23)
hnk i = β( −µ)
k
e
±1
dove i segni + e − si riferscono ai fermioni e bosoni, rispettivamente. Consideriamo adesso più specificatamente i livelli di energia del gas perfetto.
Immaginiamo che le particelle del gas siano contenute in un volume V , all’interno di una scatola cubica di lato L, in modo che V = L3 . I livelli di
energia sono ovviamente determinati dai tre numeri quantici corrispondenti
agli autovalori dell’impulso nelle tre direzioni degli assi
p =
p2
, p2 = p2x + p2y + p2z ,
2m
(7.24)
dove
2πh̄
2πh̄
2πh̄
nx , py =
ny , p z =
nz ,
(7.25)
L
L
L
e nx , ny , nz = 0, 1, . . .. Nella formula (7.18), la somma su k va sostituita con
quella sui tre numeri quantici nx , ny , nz . Nel limite termodinamico, quando
il volume tende all’infinito, anche il valore del lato della scatola tende all’infinito. I livelli di energia diventano progressivamente più fitti. In questo
limite, la somma può essere sostituita da un integrale. Quando il numero
quantico nx varia di uno, l’autovalore px varia di ∆p = 2πh̄/L. Quindi 1/∆p
rappresenta la densità di livelli. Il passaggio dalla somma all’integrale deve
essere fatto in modo da conservare il numero di livelli
X
1 Z
... →
dp . . . .
∆p
nx
px =
Considerando la somma sui tre numeri quantici si ha quindi
X
V Z
d3 p . . . .
... →
3 R3
(2πh̄)
nx ,ny ,nz
(7.26)
In tal modo arriviamo finalmente alle equazioni che determinano la termodinamica nel caso delle statistiche quantistiche
V Z
p
U =
d3 p β(p −µ)
(7.27)
3
(2πh̄) R3
e
±1
V Z
1
d3 p β(p −µ)
N =
.
(7.28)
3
3
(2πh̄) R
e
±1
56
CAPITOLO 7. LA MECCANICA STATISTICA QUANTISTICA
7.3
Il limite classico
Nella meccanica statistica classica abbiamo definito l’entropia in termini di
un logaritmo di un volume nello spazio Γ. Tale volume ha le dimensioni del
cubo di un azione. Affinché l’argomento del logaritmo sia adimensionale, il
volume nello spazio Γ deve essere diviso per una costante delle dimensioni
del cubo di un’azione. Chiaramente la divisione per tale costante del volume
dello spazio Γ implica l’aggiunta di una costante all’entropia. Nell’ambito
della fisica classica ciò non rappresenta un problema in quanto l’entropia è
definita a meno di una costante. In meccanica quantistica la costante di
Planck h̄ ha proprio le dimensioni di un azione. In effetti uno sguardo alle
formule (7.27-7.28) mostra che l’elemento di volume relativo ad un grado
di libertà deve essere diviso per la quantità 2πh̄. Allora tutte le formule
classiche ottenute precedentemente devono essere corrette introducendo un
fattore
(2πh̄)−3N .
(7.29)
Vediamo adesso in dettaglio come si ottiene il limite classico dalle formule
(7.27-7.28). Introduciamo la fugacità z = eβµ al posto del potenziale chimico.
Dal trattamento del gas perfetto nel grancanonico abbiamo visto dalla (5.15)
che
N
(7.30)
eβµ = z = (2πmkT )−3/2 .
V
Tale formula deve essere modificata introducendo la costante di Planck
z=
N 3
2πh̄
λ , λ≡
,
V
(2πmkT )1/2
(7.31)
dove abbiamo introdotto la cosidetta lunghezza d’onda termica λ. Tale lunghezza d’onda termica è dell’ordine della lunghezza d’onda di De Broglie di
una particella di massa m ed energia kT . Se introduciamo la separazione
media tra le particelle
1/3
V
l=
,
(7.32)
N
l’espressione classica della fugacità (cf. (7.31)) può essere scritta come il
cubo del rapporto della lunghezza d’onda termica e della separazione media.
Poichè il limite classico corrisponde a h̄ → 0, cioè λ → 0, la fugacità classica
deve soddisfare la condizione
z 1,
(7.33)
che implica µ → −∞ nel limite classico. La condizione (7.33) fornisce il
parametro di sviluppo delle equazioni (7.27-7.28) al fine di ottenere il limite
7.3. IL LIMITE CLASSICO
57
classico. A tal fine accanto all’introduzione della fugacità z, facciamo il
cambio di variabile
p2
β
= x2 .
2m
Le (7.27-7.28) diventano
2
Z ∞
2 −x
V 4
2 x ze
√
kT
dx
x
λ3 π
1 ± ze−x2
0
2
ze−x
V 4 Z∞
2
√
dx x
N =
λ3 π 0
1 ± ze−x2
Z ∞
h
i
V 4
2
dx x2 ln 1 ± ze−x ,
P V = ∓ 3 √ kT
λ π
0
U =
(7.34)
(7.35)
(7.36)
dove abbiamo aggiunto anche l’equazione per il granpotenziale. In questa
forma possiamo sviluppare in serie di Taylor secondo le potenze di z. L’ordine
più basso dello sviluppo conduce alle formule
Z ∞
V 3
V 4
2
dx x4 e−x = z 3 kT,
U = z 3 √ kT
λ π
λ 2
0
Z ∞
V 4
V
2
N = z 3√
dx x2 e−x = z 3 ,
λ π 0
λ
Z ∞
V 4
V
2
P V = z 3 √ kT
dx x2 e−x = z 3 kT ,
λ π
λ
0
(7.37)
(7.38)
(7.39)
che riproducono i risultati dell’ensemble grancanonico classico. Considerando
gli ordini successivi in z si possono ottenere le correzioni quantistiche al
risultato classico. Gli integrali che appaiono nelle (7.37-7.39) si ottengono
osservando che
!
Z ∞
1
l+1
l −x2
dx x e
= Γ
.
(7.40)
2
2
0
58
CAPITOLO 7. LA MECCANICA STATISTICA QUANTISTICA
Capitolo 8
Il metodo della distribuzione
più probabile
Secondo il metodo dell’ensemble statistico di Gibbs, il valore di un osservabile
termodinamico per un dato stato macroscopico del sistema in studio è dato
da un valor medio preso su una funzione di distribuzione definita nello spazio
delle fasi Γ del sistema stesso. Quando il numero delle particelle costituenti
il sistema è grande, cioè quando siamo nel limite termodinamico, le fluttuazioni rispetto al valor medio sono piccole. Ciò significa che la distribuzione
deve essere molto piccata intorno al valore massimo, che sarebbe il valore più
probabile. In questa situazione il contributo più importante al valor medio
dell’osservabile deve essere dovuto al valore più probabile. Tutto ciò suggerisce che i risultati ottenuti con il metodo della media sull’ensemble possano
essere ottenuti in modo più generale considerando il valore più probabile.
Tale tipo di analisi costituisce il metodo della distribuzione più probabile.
8.1
Il caso classico
Consideriamo lo spazio delle fasi di singola particella, normalmente indicato
come spazio µ. Seguendo Boltzmann, dividiamo tale spazio in celle, che
indichiamo con un indice i = 1, . . . , K, dove K può anche tendere all’infinito.
Indichiamo con Gi il numero di stati di singola particella all’interno della cella
i-esima. Sia i l’energia media di singola particella relativa alla cella i-esima.
Lo stato macroscopico del gas è completamente caratterizzato assegnando i
numeri di occupazione Ni ad ogni cella. Uno stato microscopico o microstato
corrisponde ad una particolare distribuzione delle particelle nelle celle e negli
stati. È evidente che microstati diversi possono dare luogo allo stesso insieme
di numeri di occupazione e quindi allo stesso macrostato. Il peso statistico di
59
60CAPITOLO 8. IL METODO DELLA DISTRIBUZIONE PIÙ PROBABILE
un macrostato è quindi dato dal numero di microstati compatibili con esso.
Nel rispetto dei vincoli riguardo al numero totale di particelle e all’energia
totale
K
X
Ni = N
(8.1)
Ni i = E,
(8.2)
i=1
K
X
i=1
il problema è di determinare il peso statistico di uno stato macroscopico
del gas. Ad esempio, se K = 2 e N = 2 particelle con G1 = G2 = 1,
abbiamo 3 possibili insiemi di numeri di occupazione: (N1 = 2, N2 = 0),
(N1 = 1, N2 = 1), (N1 = 0, N2 = 2). Ovviamente il secondo insieme ha
maggior peso statistico potendo essere realizzato in due modi, che corrispondono a scegliere quale delle due particelle debba andare in una data cella.
Notiamo, di passaggio, che in tale conteggio è importante tener conto della
distinguibilità delle particelle. Infatti è proprio la distinguibilità che ci permette di dire quale particella è andata in una data cella. Indichiamo con Wi
il numero di modi in cui possiamo distribuire Ni particelle negli Gi stati della
cella i-esima. Se le particelle sono indipendenti, ogni particella ha quindi Gi
modi diversi di essere assegnata alla cella i-esima. Ciò significa che in totale
i
ci sono GN
i modi di assegnare le Ni particelle alla cella i-esima. Anche qui
stiamo usando il fatto che le particelle sono distinguibili in quanto calcoliamo
il numero di stati in cui ciascuna di esse può andare indipendentemente da
cosa fanno le altre particelle. Se indichiamo con Wi il peso associato ad una
data cella, il peso complessivo dovrebbe essere il prodotto dei pesi di ogni
cella, cioè
W =
K
Y
i=1
Wi =
K
Y
i
GN
i .
i=1
Tale formula però sottostima il peso complessivo totale. Infatti, proprio
perchè le particelle sono distinguibili, esistono diversi modi (microscopici) di
mettere N1 particelle nella cella 1, N2 nella 2, etc. Precisamente esistono
N !/(N1 ! . . . NK !) modi di ripartire N oggetti identici (ma distinguibili) in
K gruppi composti di N1 , N2 , . . ., oggetti. Allora la formula per il peso
complessivo diventa
K
i
Y
GN
i
.
(8.3)
W = N!
i=1 Ni !
Il problema è quindi di determinare l’insieme {Ni } che rende massimo W
compatibilmente con i vincoli (8.1-8.2). Più precisamente associamo l’entro-
8.2. BOSONI
61
pia al logaritmo del peso complessivo W
S = k ln W,
(8.4)
in modo che la condizione di equilibrio corrisponda al massimo dell’entropia.
Utilizziamo il metodo dei moltiplicatori di Lagrange. Vogliamo determinare
le condizioni di estremo per la quantità
GNi
ln N ! i + λi Ni + µNi − λE − µN,
Ni !
K
X
#
"
i=1
(8.5)
dove µ e λ sono moltiplicatori di Lagrange per i vincoli (8.1) e (8.2), rispettivamente. Usando la formula di Stirling otteniamo
δNi [ln Gi − ln Ni − 1 + λi + µ] = 0.
(8.6)
Se a questo punto introduciamo i numeri medi di occupazione di ogni cella
ni =
Ni
,
Gi
(8.7)
la condizione di estremo diventa
ln ni = λi + µ − 1,
(8.8)
in modo che la funzione di distribuzione acquista la forma di MaxwellBoltzmann
ni = e1−µ eλi .
(8.9)
I moltiplicatori λ e µ devono essere determinati imponendo i vincoli (8.1-8.2)
K
X
Gi e1−µ eλi = N,
(8.10)
Gi e1−µ eλi i = E.
(8.11)
i=1
K
X
i=1
8.2
Bosoni
Secondo la meccanica quantistica le particelle sono indistinguibili. Nel caso
classico il conteggio dei modi di ripartire Ni particelle in Gi stati era basato sul fatto che per ogni data particella, distinguibile dalle altre (anche se
identica), potevamo scegliere in quale stato metterla. Adesso con particelle
indistinguibili possiamo solo dire se in un dato stato ci sono particelle e quante
62CAPITOLO 8. IL METODO DELLA DISTRIBUZIONE PIÙ PROBABILE
ce ne sono. Nel caso dei bosoni non ci sono limitazioni al numero di particelle
che possono trovarsi in un dato stato. Una particolare configurazione può
essere rappresentata come nel caso particolare riportato sotto.
• • | • • • || • | • • • •||•
Le barre verticali rappresentano le divisioni tra uno stato ed un altro. Con
Gi stati, abbiamo bisogno di Gi − 1 barre verticali. Nell’esempio si ha Gi = 7
e Ni = 11. I punti neri indicano le particelle. Nel primo stato della cella
i-esima ci sono 2 particelle, 3 nel secondo, 0 nel terzo, etc. Fissato il numero
di particelle e di stati, una diversa configurazione corrisponde ad una diversa
permutazione dell’insieme delle barre e dei punti neri. La domanda che
dobbiamo porci è di determinare il numero di modi di disporre Gi − 1 + Ni
oggetti, di cui Gi − 1 di un tipo e Ni di un altro tipo. L’analisi combinatoria
immediatamente conduce a
W =
K
Y
i=1
Wi =
K
Y
(Gi − 1 + Ni )!
.
i=1 Ni !(Gi − 1)!
(8.12)
Notiamo che ora il peso complessivo può essere scritto come un prodotto dei
pesi relativi alle singole celle. Infatti, essendo le particelle indistinguibili, c’è
un solo modo di assegnare N1 particelle alla prima cella, N2 alla seconda e
via fino a NK alla cella K-esima.
È utile vedere come il limite classico emerge dalla formula dovuta al
conteggio quantistico. Il comportamento classico si applica a sistemi diluiti
ad alta temperatura e bassa pressione. Ciò significa che in media in ogni
cella il numero di particelle presenti è piccolo rispetto al numero di stati
Ni Gi .
(8.13)
In quest’ipotesi otteniamo
(Gi − 1 + Ni )!
i
= Gi (Gi + 1) . . . (Gi − 1 + Ni ) ≈ Gi Gi . . . Gi = GN
i , (8.14)
(Gi − 1)!
e se inseriamo tale risultato nella (8.12) riproduciamo il risultato classico
della (8.3).
Per determinare la funzione di disribuzione, procediamo come nel caso
classico. La variazione rispetto ai numeri di occupazione produce
δNi [ln(Gi − 1 + Ni ) − ln Ni − 1 + λi + µ] = 0.
(8.15)
La funzione di distribuzione assume allora la forma di Bose-Einstein
Gi − 1
1
ni =
.
(8.16)
−λ
+µ−1
Gi e i
−1
8.3. FERMIONI
8.3
63
Fermioni
Nel caso dei fermioni, oltre al carattere quantistico dell’indistinguibilità dobbiamo aggiungere l’osservanza del principio di esclusione di Pauli in base al
quale uno stato può essere occupato al massimo da una sola particella. Ciò
significa che il numero di particelle Ni deve essere inferiore o uguale al numero di stati Gi . Una qualsiasi distribuzione consisterà nel fatto che alcuni
stati sono occupati, mentre gli altri sono vuoti. Il problema combinatorio
diventa allora quello di scegliere quali sono gli stati occupati. Naturalmente
gli stati occupati sono in numero di Ni . Allora il numero di modi di ripartire
Ni particelle in Gi stati diventa quello di determinare il numero di modi di
scegliere Ni oggetti in un insieme di Gi oggetti. Tale numero è determinato
dal coefficiente binomiale e conduce alla
W =
K
Y
Wi =
i=1
K
Y
Gi !
.
i=1 Ni !(Gi − Ni )!
(8.17)
Il limite classico si ottiene in modo identico al caso dei bosoni. Osserviamo
che
Gi !
i
= (Gi − Ni + 1) (Gi − Ni + 2) . . . Gi ≈ Gi Gi . . . Gi = GN
i , (8.18)
(Gi − Ni )!
che inserita nella (8.17), riproduce la (8.3).
Per determinare la funzione di disribuzione, procediamo nuovamente come
nel caso classico. La variazione rispetto ai numeri di occupazione produce
δNi [ln(Gi − Ni ) − ln Ni − 1 + λi + µ] = 0.
(8.19)
La funzione di distribuzione assume allora la forma di Fermi-Dirac
ni =
8.4
1
e−λi +µ−1
+1
.
(8.20)
A proposito del corretto conteggio di Boltzmann
È utile alla fine di questo capitolo ridiscutere il cosidetto corretto conteggio
di Boltzmann anche alla luce dei risultati quantistici. Cominciamo coll’osservare che la divisione di una cella in Gi stati può essere un’aprossimazione
dal punto di vista classico: divido lo spazio delle fasi Γ in regioni elementari.
Dal punto di vista quantistico, invece, si ragiona proprio in termini di stati.
64CAPITOLO 8. IL METODO DELLA DISTRIBUZIONE PIÙ PROBABILE
Il fatto notevole è quello di poter usare lo stesso linguaggio nei due contesti classico e quantistico in modo da poter concentrare il ragionamento sugli
aspetti squisitamente probabilistici. Come ci ha insegnato la (8.12) nel caso
del gas di Bose, il numero di modi di di assegnare Ni particelle a Gi stati è
(Gi − 1 + Ni )!
,
Ni !(Gi − 1)!
che nel limite classico diventa
i
GN
i
,
Ni !
i
cioè il valore classico GN
i diviso per Ni !. Infatti il conteggio classico, a causa
della distinguibilità delle particelle, sovrastima il numero dei possibili modi di
ripartire Ni particelle in Gi stati. Allora l’affermazione che spesso si trova nei
libri che è necessario dividere il conteggio classico per N ! al fine di ottenere
il risultato corretto è naturalmente corretta. Facciamo un esempio. Consideriamo di avere 2 particelle che vogliamo dividere in 2 stati. Classicamente
abbiamo 22 = 4 modi di fare questo. Infatti possiamo mettere entrambe le
particelle in uno stato, oppure possiamo metterle entrambe nell’altro stato.
Finora abbiamo due modi. Poi possiamo mettere una particella per stato.
Ma ci sono due modi di farlo in quanto dobbiamo scegliere quale particella
si trova in un dato stato. Otteniamo quindi quattro modi come deve essere.
In meccanica quantistica la situazione in cui abbiamo una particella per stato conta per un solo modo in quanto, a causa dell’indistinguibilità, non ha
senso di stabilire quale particella si trova in un dato stato. Abbiamo quindi
in totale 3 modi in accordo con la formula
(2 − 1 + 2)!
= 3.
2!(2 − 1)!
C’è ancora un punto da chiarire. La formula classica (8.3) contiene il
corretto Ni ! a denominatore, pur senza aver fatto alcun ragionamento quantistico. Ciò non è in contraddizione con quanto discusso finora. Infatti il
fattore Ni ! che compare nella (8.3) non origina da un conteggio relativo alla
sola cella i-esima, ma discende dal fatto di considerare la ripartizione complessiva tra tutte le K celle. Tale ripartizione, come già indicato, implica la
necessità di specificare chi sono le Ni particelle, distinte fra tutte le N , che
i
sono assegnate alla cella i-esima. Se indichiamo con ωi,c = GN
i il conteggio
classico dei modi relativo ad una data cella, abbiamo che il corrispondente
conteggio quantistico soddisfa la relazione
ωi,q =
ωi,c
,
Ni !
8.4. A PROPOSITO DEL CORRETTO CONTEGGIO DI BOLTZMANN65
come abbiamo avuto modo di sottolineare. Supponiamo ora per semplicità
di avere solo due celle, cioè K = 2. Allora classicamente il peso complessivo
classico è
N!
ω1,c ω2,c .
Wc =
N1 !N2 !
Il peso complessivo quantistico è invece
Wq = ω1,q ω2,q =
ω1,c ω2,c
.
N1 ! N2 !
Quindi il peso complessivo quantistico si relaziona a quello classico nello
stesso modo in cui si relazionano i pesi relativi alle singole celle. La richiesta
di estensività implica che il peso comlessivo debba essere scelto come prodotto
dei pesi delle singole celle. Nel caso quantistico, tale proprietà appare in modo
naturale.
66CAPITOLO 8. IL METODO DELLA DISTRIBUZIONE PIÙ PROBABILE
Capitolo 9
Il gas di Fermi
In questo capitolo ci occupiamo del gas di Fermi non relativistico, cioè un
sistema di fermioni non interagenti aventi la legge di dispersione di una particella libera non relativistica p = p2 /2m, dove m è la massa della particella. I fermioni sono all’interno di un volume V . Questo sistema oltre
naturalmente ad essere un esempio semplice di applicazione della statistica
di Fermi-Dirac, rappresenta un modello per gli elettroni di conduzione nei
metalli. Gli elettroni hanno spin 1/2 in modo che ogni stato individuato dai
numeri quantici dell’impulso può essere occupato da due elettroni con spin
opposto. Indichiamo con gs = 2 la degenerazione di spin.
Il punto di partenza sono le espressioni per l’energia ed il numero di
particelle (7.27-7.28)
p
V Z
3
d
p
(2πh̄)3 R3
eβ(p −µ) + 1
Z
V
1
N = gs
d3 p β(p −µ)
.
3
(2πh̄) R3
e
+1
U = gs
(9.1)
(9.2)
È utile introdurre la cosidetta densità degli stati definita nel modo seguente
ν(E) = gs
V Z
d3 p δ(E − p ).
(2πh̄)3 R3
(9.3)
In termini della densità degli stati gli integrali nelle espressioni dell’energia
e del numero di particelle possono essere riscritti nella forma
U =
N =
Z ∞
−∞
Z ∞
dE ν(E)
dE ν(E)
−∞
67
E
eβ(E−µ)
1
eβ(E−µ)
(9.4)
+1
+1
.
(9.5)
68
9.1
CAPITOLO 9. IL GAS DI FERMI
Lo stato fondamentale
Poiché i fermioni devono soddisfare al principio di esclusione di Pauli, lo
stato fondamentale a T = 0 deve consistere nell’occupazione di tutti gli stati
a partire da quello ed energia più bassa sino all’esaurimento delle particelle.
Vediamo come questo accade nelle formule (9.4-9.5). A temperatura nulla
la funzione di distribuzione di Fermi-Dirac diventa una funzione a gradino o
funzione θ di Heavside
1
= θ(µ − E)
(9.6)
lim β(E−µ)
β→∞ e
+1
in modo che gli integrali delle (9.4-9.5) diventano
U =
N =
Z EF
−∞
Z EF
dE ν(E) E
(9.7)
dE ν(E) ,
(9.8)
−∞
dove EF = µ(T = 0) è detta energia di Fermi e corrisponde al valore del
potenziale chimico a temperatura nulla. La densità degli stati della (9.3)
può essere calcolata esplicitamente usando il fatto che l’energia dipende solo
dall’impulso e si può risolvere l’integrale mediante il cambio di coordinate
√
√
p2
=
, p2 dp = 2m3/2 2m
in modo che si ottiene
√
V
3/2
(2m)
E, E > 0
(2πh̄)3
ν(E) = 0, E < 0
ν(E) = 2πgs
(9.9)
Usando la forma esplicita (9.9), gli integrali (9.7-9.8) diventano molto semplici e danno
V
2
3/2 2 5/2
(2m)
E
=
ν(EF )EF2 ,
F
(2πh̄)3
5
5
V
2 3/2 2
(2m)3/2 EF = ν(EF )EF ,
N = 2πgs
3
(2πh̄)
3
3
U = 2πgs
(9.10)
(9.11)
dove abbiamo introdotto la densità degli stati al livello di Fermi ν(EF ). Dividendo membro a membro le due equazioni di sopra otteniamo l’energia in
funzione del numero di particelle
3
3
U = N EF ≡ N kTF ,
5
5
(9.12)
9.2. REGIME DI BASSE TEMPERATURE E SVILUPPO DI SOMMERFELD69
dove TF è detta temperatura di Fermi. Dalla (9.11), l’energia di Fermi è
dell’ordine EF ∼ (N/V )2/3 h̄2 /m. Usando h̄ ∼ 10−27 erg s, N/V ∼ 1022 cm−3 ,
m ∼ 10−27 g, si ottiene EF ∼ 10−12 erg, cioè EF ∼ 1 eV. La temperatura
di Fermi è dunque dell’ordine TF ∼ 104 K. Se confrontiamo la (9.12) con
l’espressione dell’energia di un gas perfetto classico
3
U = N kT,
2
vediamo che a temperatura ambiente (∼ 300K) l’energia classica è molto più
piccola dell’energia dello stato fondamentale di elettroni. Dunque a temperatura ambiente un gas di elettroni si trova in uno stato che differisce poco
da quello a temperatura nulla. In questa situazione si dice che il gas di elettroni si trova in regime di degenerazione. La temperatura di Fermi è detta
anche temperatura di degenerazione e discrimina il regime di basse ed alte
temperature per il gas di elettroni. A temperature alte, T TF il gas di elettroni tende al comportamento di un gas classico, mentre a basse temperature
T TF esibisce il comportamento quantistico.
9.2
Regime di basse temperature e sviluppo
di Sommerfeld
Vogliamo adesso indagare più esplicitamente il regime delle basse temperature. A tal fine riscriviamo le (9.4-9.5) operando il cambio di variabile
E = µ + kT x.
(9.13)
Arriviamio allora alle equazioni seguenti
Z ∞
(x + µ/kT )3/2
V
3/2
5/2
(2m)
(kT
)
dx
U = 2πgs
(2πh̄)3
ex + 1
−µ/kT
Z ∞
V
(x + µ/kT )1/2
3/2
3/2
N = 2πgs
(2m)
(kT
)
dx
.
(2πh̄)3
ex + 1
−µ/kT
(9.14)
(9.15)
Entrambi gli integrali hanno la stessa forma e possono essere integrati per
parti
Z ∞
−µ/kT
dx
Z ∞
(x + µ/kT )n
1 (x + µ/kT )n+1 ∞
(x + µ/kT )n+1 ex
=
|
+
dx
−µ/kT
ex + 1
n+1
ex + 1
(n + 1)(ex + 1)2
−µ/kT
(9.16)
70
CAPITOLO 9. IL GAS DI FERMI
ed è facile verificare che il primo termine a membro di destra è nullo. Per
risolvere il restante integrale, osserviamo che la funzione
ex
1
= x
x
2
(e + 1)
(e + 1)(e−x + 1)
è pari in x e fortemente piccata intorno al valore x = 0. Ciò suggerisce di
sviluppare in serie di Taylor la funzione (x+µ/kT )n che varia più lentamente
intorno al valore x = 0. Abbiamo
n+1
(µ/kT + x)
n+1
≈
1
µ
n + 1 kT
n+1

1 + (n + 1)
kT
n(n + 1)
x+
µ
2
kT
µ

!2
x2 + . . .  .
(9.17)
A questo punto è conveniente approssimare l’estremo inferiore dell’integrale
con −∞. Fisicamente ciò corrisponde alla condizione µ/kT 1. Poichè
ancora non abbiamo calcolato µ(T ), tale condizione deve essere verificata
a posteriori. L’integrale corrispondente al termine di ordine zero si integra
facilmente
Z ∞
1 ∞
ex
=−
|
= 1,
(9.18)
dx x
2
(e + 1)
1 + ex −∞
−∞
mentre quello di ordine uno si annulla per la simmetria della funzione integranda
Z ∞
xex
= 0.
(9.19)
dx x
(e + 1)2
−∞
L’integrale del termine di ordine due richiede alcune manipolazioni
Z ∞
−∞
dx
Z ∞
x2 ex
x2 ex
dx
=
2
(ex + 1)2
(ex + 1)2
0
Z ∞
x
dx x
= 4
e +1
0
= 4
∞
X
(−1)n
n=0
∞
X
Z ∞
dx xe−(n+1)x
0
(−1)n Z ∞
= 4
ds se−s
2
0
n=0 (n + 1)
= 4
∞
X
(−1)n+1
n2
n=1
"∞
X
∞
X
1
1
= −4
−
2
2
n=1 (2n)
n=0 (2n + 1)
∞
1
1 X
1
= −4
− 1−
4
4 n=1 n2
=
π2
.
3
#
(9.20)
9.2. REGIME DI BASSE TEMPERATURE E SVILUPPO DI SOMMERFELD71
Possiamo allora scrivere

V
15π 2
3/2 2 5/2 
U = 2πgs
µ
1
+
(2m)
(2πh̄)3
5
24
kT
µ

V
3π 2
3/2 2 3/2 
N = 2πgs
µ
1
+
(2m)
(2πh̄)3
3
24
kT
µ
!2 

(9.21)
!2 
,
(9.22)
che sono accurate sino a termini dell’ordine T 2 . In queste equazioni il potenziale chimico dipende dalla temperatura e queste equazioni permettono di
derivarne la dipendenza (ovviamente con accuratezza T 2 ). Ponendo T = 0
ed identificando µ(T = 0) = EF ritroviamo le (9.10-9.11). Nella (9.22)
sostituiamo il numero di particelle con l’espressione (9.11) ed otteniamo
3/2
µ3/2 = EF −
3π 2 (kT )2
.
24 µ1/2
(9.23)
Il secondo termine amembro di destra è già di ordine T 2 , quindi possiamo
sostituire µ(T ) a denominatore con il valore a T = 0, cioè EF . Otteniamo
allora
#2/3
"
"
#
3π 2 (kT )2
π 2 (kT )2
3/2
≈ EF 1 −
µ = EF −
.
(9.24)
24 EF1/2
12 EF2
Questa equazione rappresenta l’andamento del potenziale chimico in funzione
della temperatura in regime di basse temperature. Notiamo che la correzione
è negativa come ci aspettiamo, in quanto ad alte temperature il potenziale
chimico deve tendere a meno infinito. Quello che ci resta da fare è inserire
la (9.24) nella (9.21) per ottenere l’espressione dell’energia

15π 2
V
3/2 2 5/2 
(2m)
µ
1
+
U = 2πgs
(2πh̄)3
5
24
kT
µ
!2 
π 2 (kT )2
V
3/2 2
5/2
(2m)
≈ 2πgs
(E
)
1
−
F
(2πh̄)3
5
12 EF2
"

V
5π 2
3/2 2
5/2 
≈ 2πgs
(2m)
(E
)
1
+
F
(2πh̄)3
5
12
= U (T = 0) +
π2
ν(EF )(kT )2 .
6

#5/2 
kT
EF
15π 2
1 +
24
kT
EF
!2 

!2 

(9.25)
Poiché la densità degli stati dipende dal volume e dal numero di particelle (attraverso l’energia di Fermi), la (9.25) permette di calcolare il calore
72
CAPITOLO 9. IL GAS DI FERMI
specifico a volume e numero di particelle costanti
cV =
∂U
∂T
!
=
V,N
π2
ν(EF )k 2 T.
3
(9.26)
Usando la (9.11) possiamo riscrivere il calore specifico nel modo suggestivo
seguente
π2 T
π 2 kT
Nk =
N k.
(9.27)
cV =
2 EF
2 TF
Vediamo che solo quando T ∼ TF l’espressione per il calore specifico tende a
quella del gas perfetto classico. Il fattore T /TF rappresenta la frazione di elettroni che sono eccitabili alla temperatura T . Infatti a temperature basse la
funzione di distribuzione di Fermi-Dirac assomoglia ad un gradino smussato
dove l’estensione dello smussamento è dell’ordine della temperatura.
Capitolo 10
Il gas di Bose
10.1
La condensazione di Bose-Einstein
In questo capitolo studiamo un gas di bosoni non relativistico con spettro
di energia quadratico nell’impulso p = p2 /2m. Esattamente come nel caso
del gas di fermioni, il punto di partenza sono le espressioni per l’energia ed
il numero di particelle (7.27-7.28)
p
V Z
3
d
p
(2πh̄)3 R3
eβ(p −µ) − 1
Z
V
1
N =
d3 p β(p −µ)
,
3
(2πh̄) R3
e
−1
U =
(10.1)
(10.2)
dove a differenza del caso dei fermioni non appare nessun fattore di degenerazione in quanto stiamo considerando per semplicità bosoni di spin zero. La
forma della densità degli stati è naturalmente simile al caso fermionico
V Z
d3 p δ(E − p )
(2πh̄)3 R3
√
V
(2m)3/2 E
= 2π
3
(2πh̄)
ν(E) =
(10.3)
In termini della densità degli stati gli integrali nelle espressioni dell’energia
e del numero di particelle possono essere riscritti nella forma
U =
Z ∞
dE ν(E)
0
N =
Z ∞
dE ν(E)
0
E
eβ(E−µ)
1
eβ(E−µ)
(10.4)
−1
−1
.
(10.5)
Esprimendo il potenziale chimico in termini della fugacità z = eβµ ed operando un cambio di variabile nell’integrale dell’espressione (10.5) per il numero
73
74
CAPITOLO 10. IL GAS DI BOSE
di particelle, otteniamo
N=
Z ∞
0
√
Z ∞
xz
ν(E)z
V
3/2
3/2
= 2π
.
dE βE
(2m) (kT )
dx x
3
e −z
(2πh̄)
e −z
0
(10.6)
Come abbiamo discusso in precedenza (cf. 7.34), nel limite classico la fugacità
tende a zero, poiché µ → −∞. Nell’espressione (10.6) la dipendenza dalla
temperatura proviene quindi, oltre che dal fattore T 3/2 , dalla funzione z(T ).
La dipendenza della fugacità dalla temperatura è determinata dal fatto che
deve compensare la dipendenza del fattore T 3/2 in modo che resti costante
il numero di particelle. Uno sguardo all’integrale che appare nella (10.6)
mostra che fintanto che z < 1, l’integrale è ben definito. Allora la condizione
sulla fugacità 0 < z < 1 implica che il potenziale chimico deve tendere
a zero nel regime quantistico. Il punto cruciale è a quale temperatura il
potenziale chimico raggiunge il valore zero. Notiamo che al diminuire della
temperatura, la diminuzione del fattore T 3/2 deve essere compensata da un
aumento dell’integrale dovuto a sua volta da un aumento dell’integrando.
Ciò accade a causa della diminuzione del denominatore ex − z al crescere di
z. Ponendo z = 1 nella (10.6) troviamo il valore della temperatura T0 a cui
ciò avviene
√
Z ∞
x
V
3/2
3/2
(2m) (kT0 )
dx x
.
(10.7)
N = 2π
3
(2πh̄)
e −1
0
Utilizzando i risultati (10.34-10.39) per il calcolo degli integrali, la temperatura T0 è data da
1
N
(2πh̄)3
T0 =
2mk V 2πΓ(3/2)ζ(3/2)
"
#2/3
.
(10.8)
Il significato fisico di questa temperatura può essere reso più trasparente
ricordando la definizione della lunghezza d’onda termica (cf. (7.31))
λ=
2πh̄
.
(2πmkT )1/2
Infatti se indichiamo con λ0 il valore della lunghezza d’onda termica alla
temperatura T0 , la condizione (10.8) corrisponde al fatto che la lunghezza
d’onda termica è circa uguale alla distanza media tra le particelle l (cf. (7.32))
λ0 = (ζ(3/2))1/3 l ≈ 1.377l.
(10.9)
Cosa accade per T < T0 ? Poiché z resta uguale a uno come richiesto dalla
convergenza dell’integrale, l’espressione (10.6) implica, per T < T0 , un numero di particelle più piccolo. Ciò naturalmente non può essere in quanto
10.1. LA CONDENSAZIONE DI BOSE-EINSTEIN
75
il numero di particelle è costante. Quest’apparente contraddizione si risolve
osservando che l’integrale sugli impulsi con cui approssimiamo la somma sui
valori discreti dell’impulso in un volume finito V sottostima il numero di particelle che si trovano nello stato ad impulso nullo. Infatti uno sguardo alla
densità degli stati (10.3) mostra che tende a zero quando l’energia tende a
zero. Fintanto che l’occupazione dello stato con energia zero è limitata ad un
numero finito di particelle, il trascurarla non implica un errore importante.
Al diminuire della temperatura quando il numero di particelle che si trovano
nello stato di minima energia aumenta, l’occupazione di tale stato diventa
rilevante nel limite termodinamico. In altre parole se indichiamo con N0 il
numero di particelle nello stato ad energia zero (e quindi ad impulso zero)
allora, per T < T0 il rapporto N0 /N tende ad un valore dell’ordine dell’unità.
In questo caso si dice che l’occupazione dello stato ad impulso nullo è macroscopica, in quanto il numero di particelle in questo stato è dello stesso ordine
del numero di particelle totale. Il corretto modo di procedere, quindi, nel
passaggio dalla somma all’integrale, è di separare l’occupazione dello stato
ad impulso nullo da tutte le altre
X
=
p
X
p=0
+
X
.
p6=0
L’integrale tiene conto solo del secondo termine a membro di destra. Per
T > T0 , quando l’occupazione dello stato ad impulso nullo è dello stesso
ordine di tutte le altre occupazioni, il trascurarla implica un errore dell’ordine
1/N che diventa trascurabile nel limite termodinamico. Per T < T0 possiamo
quindi scrivere il numero di particelle come la somma di due termini: il
primo corrispondente alle particelle nello stato ad impulso nullo ed il secondo
corrispondente alle particelle in tutti gli altri stati
√
Z ∞
x
V
3/2 3/2
(2m) T
dx x
N = N0 + 2π
3
(2πh̄)
e −1
0
√
3/2
Z ∞
V
x
T
3/2 3/2
2π
(2m) T0
dx x
= N0 +
3
T0
(2πh̄)
e −1
0
= N0 + N
T
T0
3/2
.
(10.10)
Si dice che le particelle che si accumulano nello stato ad impulso nullo condensano e tale fenomeno di accumulo viene chiamato condensazione di BoseEinstein. Tale fenomeno di condensazione ha le modalità di una transizione
di fase con temperatura di transizione T0 . Un accumulo macroscopico nello
stato ad impulso nullo è detto condensato. La frazione di particelle nel condensato gioca un ruolo simile alla magnetizzazione in una transizione dallo
76
CAPITOLO 10. IL GAS DI BOSE
stato paramagnetico a quello ferromagnetico con
N0
=
N
0
(
1−
T
T0
, T > T0
3/2
, T < T0 .
(10.11)
Per mettere in evidenza il comportamento termodinamico alla transizione
calcoliamo la pressione del gas di bosoni. Più avanti nel capitolo richiamiamo
la trattazione standard di una transizione di fase. Usando le relazioni (7.347.36), otteniamo
∂P V
V
= kT N = kT 3 g3/2 (z),
(10.12)
z
∂z
λ
ed usando la proprietà (10.39) (vedi oltre nel capitolo) si ha
(
P =
(kT /λ3 )g5/2 (z) , T > T0
(kT /λ3 )g5/2 (1) , T < T0 ,
(10.13)
dove si è usato il fatto che z = 1 per T < T0 . Notiamo che per avere
l’equazione di stato, per T > T0 , dobbiamo eliminare z dalle due equazioni
kT
g5/2 (z)
λ3
V
N =
g3/2 (z).
λ3
P =
(10.14)
(10.15)
Alla coesistenza delle due fasi, dobbiamo avere necessariamente z = 1 affinché
ci siano particelle nel condensato. Ponendo z = 1 nella (10.14) si ottiene la
curva di coesistenza P (T ) nel diagramma di fase. Considerando la derivata
rispetto a T otteniamo
∂P
∂T
!
5 1
= k 3 g5/2 (1).
2 λ
(10.16)
Per interpretare il significato di quest’equazione, ricordiamo che la curva di
coesistenza di una transizione di fase deve soddisfare l’equazione di Clapeyron
(cf. eq.(10.33) nel paragrafo seguente)
∂P
∂T
!
=
sn − sc
,
vn − vc
(10.17)
dove con sn , vn e sc , vc indichiamo entropia e volume specifico (per particella)
nelle fasi normale e condensata, rispettivamente. Per vedere la compatibilità
delle due equazioni (10.16-10.17), calcoliamo l’entropia. Per ciò abbiamo
10.1. LA CONDENSAZIONE DI BOSE-EINSTEIN
77
bisogno dell’energia libera di Helmoltz F , che otteniamo da quella di Gibbs
mediante la nota relazione
F = G − P V = N µ − P V = N kT ln z − P V,
(10.18)
dove abbiamo espresso il potenziale chimico in termini della fugacità. L’entropia risulta allora dalla derivazione rispetto alla temperatura, sia dove appare
in modo esplicito sia attraverso la dipendenza tramite z
S = −N k ln z +
V dg5/2 (z) dz
1 dz
5V
+ kT 3
.
kg5/2 (z) − N kT
3
2λ
z dT
λ
dz dT
(10.19)
Usando nuovamente la (10.39) vediamo che vale la relazione
kT
V dg5/2 (z)
V 1
1
=
kT
g
(z)
=
N kT
3/2
λ3 dz
λ3 z
z
(10.20)
che permette di semplificare notevolmente la (10.19) e di riscrivere in entrambi gli intervalli di temperatura
(
S=
−N k ln z + 52 λV3 kg5/2 (z) , T > T0
5 V
kg5/2 (1)
, T < T0 .
2 λ3
(10.21)
Osserviamo che l’entropia per T < T0 può essere riscritta nella forma
S=
5V
5
λ30 g5/2 (1)
kg
(1)
=
N
k
,
5/2
2 λ3
2
λ3 g3/2 (1)
(10.22)
dove abbiamo usato N = (V /λ30 )g3/2 (1). Esprimendo le lunghezze d’onda
termica in funzione della temperatura, l’entropia acquista la forma suggestiva
S
5 g5/2 (1) T
= k
N
2 g3/2 (1) T0
3/2
5 g5/2 (1) N − N0
= k
,
2 g3/2 (1) N
(10.23)
che mostra come l’entropia, per T < T0 sia dovuta solo al contributo delle
particelle fuori del condensato. Si ha quindi
5 g5/2 (1)
sc = 0, sn = k
.
2 g3/2 (1)
(10.24)
Se confrontiamo quest’ultima equazione con la (10.16), otteniamo la differenza dei volumi specifici delle fasi normale e condensata
vn − vc =
λ3
.
g3/2 (1)
(10.25)
78
CAPITOLO 10. IL GAS DI BOSE
Ma per z = 1, la quantità a membro di destra coincide con il volume specifico
della fase normale e quindi si deduce che vc = 0.
Calcoliamo infine il calore specifico. Per T < T0 , dalla (10.21) otteniamo
3
T
cV = s n
2
T0
3/2
→T →T0
3
sn .
2
(10.26)
Per T > T0 otteniamo invece
"
#
5 g5/2 (z) T dz
3
+
.
cV = N k
2
2 g3/2 (z)
z dT
(10.27)
Per valutare la derivata di z rispetto a T , deriviamo la (10.15) rispetto a T
T dz
3 g3/2 (z)
=−
.
z dT
2 g1/2 (z)
(10.28)
Ora quando z = 1, g1/2 (z) tende all’infinito e il secondo termine in parentesi
quadra a membro di destra della (10.27) si annulla. Il calore specifico è
continuo alla transizione. Ad alte temperature nel limite classico z → 0 e
possiamo usare
gl (z) ≈ z.
Il termine in parentesi quadra a membro destro della (10.27) tende a uno e
si ottiene il risultato classico, come deve essere.
10.2
Equazione di Clapeyron
Al fine di rendere più trasparente il comportamento termodinamico della condensazione di Bose-Einstein, richiamiamo la trattazione di una transizione di
fase tipo liquido-vapore. Scriviamo l’energia libera di Gibbs come la somma
delle energie libere delle fasi liquida e vapore
G = Nl µl + Nv µv .
(10.29)
Alla coesistenza delle due fasi, la condizione di equilibrio termodinamico,
implica che l’energia libera G deve essere un minimo. Poiché, a temperatura
e pressione costanti, l’unico grado di libertà in gioco è il numero di particelle
in ciascuna fase, possiamo scrivere la condizione di estremo
dNl (µl − µv ) = 0,
(10.30)
10.3. ALCUNE UTILI RELAZIONI
79
dove si è usata la conservazione del numero totale di particelle Nl + Nv = N .
In termini dei potenziali chimici delle due fasi, definiamo le entropie e volumi
specifici
!
!
∂µv
∂µl
, sv = −
(10.31)
sl = −
∂T P
∂T P
e
vl =
∂µl
∂P
!
, vv =
T
∂µv
∂P
!
.
(10.32)
T
Combinando le (10.31-10.32) e utilizzando le proprietà ben note degli jacobiani otteniamo l’espressione della curva di coesistenza nel diagramma di fase
temperatura-pressione
∂(µl −µg )
∂T
P
∂(µl −µg )
∂P
T
=
∂P
∂T
!
=
L
sv − sl
∆s
=
,
=
vv − vl
∆v
T ∆v
(10.33)
dove L è il calore latente. La (10.33), che mette in relazione la pendenza
della curva di coesistenza con il rapporto delle differenze di entropie e volumi
specifici è la ben nota equazione di Clapeyron. Normalmente la fase vapore
ha volume ed entropia specifici maggiori della fase liquida e quindi la curva
P (T ) ha pendenza positiva (l’acqua è una ben nota eccezione). Notiamo
infine che una transizione tra due fasi con volumi ed entropie specifici diversi
è detta del primo ordine in quanto le derivate prime dell’energia libera sono
discontinue.
10.3
Alcune utili relazioni
Gli integrali che si incontrano nella teoria del gas di Bose si risolvono sviluppando in serie di potenze l’integrando e integrando termine a termine. Lo
sviluppo in serie sfrutta la serie geometrica con ragione e−x . Si ha
Z ∞
0
√
dx
Z ∞
∞
X
√
xz
n+1
=
dx xe−(n+1)x
z
x
e −z
0
n=0
Z
∞
∞
X zn
√ −s
=
ds
se
3/2 0
n=1 n
∞
X
zn
= Γ(3/2)
3/2
n=1 n
≡ Γ(3/2)g3/2 (z),
(10.34)
80
CAPITOLO 10. IL GAS DI BOSE
dove incontriamo nuovamente la funzione Gamma e introduciamo la nuova
funzione gl (z). In modo analogo si ha
Z ∞
0
dx
x3/2 z
= Γ(5/2)g5/2 (z).
ex − z
Ricordiamo alcuni valori della funzione Gamma
√
√
3 π
π
Γ(3/2) =
, Γ(5/2) =
.
2
4
(10.35)
(10.36)
Quando z = 1, la funzione gl (z) si riduce alla funzione Zeta di Riemann
gl (1) =
∞
X
1
= ζ(l).
l
n=1 n
(10.37)
Valori approssimati rilevanti per il problema in studio sono
ζ(3/2) ≈ 2.612, ζ(5/2) ≈ 1.341.
(10.38)
Dalla sua definizione, è facile derivare un’utile relazione per la funzione
gl (z)
∂gl (z)
= gl−1 (z).
(10.39)
z
∂z
Capitolo 11
Teoria della radiazione di corpo
nero
11.1
Introduzione
Una delle conferme sperimentali più importanti della statistica quantistica è
fornita dallo spettro di emissione della radiazione di corpo nero. Più precisamente è proprio dallo studio dei risultati sperimentali sulla radiazione di
corpo nero che, storicamente, ha mosso i primi passi la teoria quantistica
attraverso il lavoro di Planck del 1900.
Nello studio dell’interazione tra materia e radiazione si definisce:
• e = potere emissivo di un corpo = energia irraggiata da un corpo per
unità di superficie e epr unità di tempo;
• a = potere assorbente di un corpo = frazione di energia assorbita da
un corpo per unità di superficie.
In generale sia e che a dipendono dalla natura specifica di un corpo. Questa dipendenza è dovuta alla natura specifica dei costituenti elementari della
materia: i nuclei carichi positivamente e gl ielettroni carichi negativamente.
In seguito allo sviluppo della teoria elettromagnetica, si sapeva, nella seconda
metà dell’ottocento che cariche elettriche in moto accelerato emettono radiazione e, vivecersa, un campo di radiazione perde energia compiendo lavoro
sulle cariche elettriche.
Benchè e ed a possono variare da corpo a corpo, il loro rapporto è una
funzione universale che dipende solo dalla temperatura. Questa affermazione
è un teorema dovuto a Kirchoff (1958) e si dimostra con argomenti termodinamici. Un corpo nero, per definizione, è un corpo con potere assorbente
pari a uno. Tale corpo quindi assorbe, senza riflessione e trasmissione, tutta
81
82 CAPITOLO 11. TEORIA DELLA RADIAZIONE DI CORPO NERO
la radiazione incidente su di esso. Da questa definizione segue che il potere
emissivo di un corpo nero è una funzione universale dipendente solo dalla
temperatura. Il corpo nero cosı̀ definito è una idealizzazione a cui un determinato sistema sperimentale può avvicinarsi con una determinata precisione.
La comprensione della forma della funzione universale che caratterizza il potere emissivo di un corpo nero dipende dalla conoscenza che abbiamo dei
meccanismi che regolano l’interazione tra radiazione e materia.
Dal punto di vista sperimentale un corpo nero può essere realizzato mediante una cavità all’interno di un corpo mantenuto ad una data temperatura.
Se viene praticato un piccolo foro nelle pareti che delimitano la cavità, la radiazione incidente dall’esterno attraverso il foro subirà molte riflessioni prima
che possa uscire nuovamente attraverso il foro. In tal modo se la frazione di
radiazione che riesce ad uscire è minimizzata il più possibile, la cavità si trova
ad avere un potere assorbente praticamente uguale a uno e il suo spettro di
emissione è di fatto quello di un corpo nero. È bene a questo punto fare un
quadro della situazione sperimentale e teorica alla fine dell’ottocento.
11.1.1
Situazione sperimentale
La quantità in studio è la distribuzione spettrale della densità di energia
della radiazione, u(ν, T ), che dipende dalla frequenza della radiazione e dalla
temperatura della cavità. I fatti sperimentali rilevanti sono i seguenti:
• u(ν, T ) ha un andamento non monotono con un massimo;
• la frequenza del massimo dipende dalla temperatura ed aumenta all’aumentare della temperatura.
11.1.2
Situazione teorica
Il tentativo di spiegazione classico è basato su argomenti termodinamici e
sulle leggi dell’elettromagnetismo classico. I risultati di un’analisi classica
possono essere riassunti nelle due leggi seguenti:
• Legge di Stefan (1879)
j = σT 4 ,
(11.1)
dove j rappresenta l’energia irraggiata per unità di superficie ed unità
di tempo e σ è una costante, detta di Stefan.
• Legge di Wien (1893)
u(ν, T ) = ν 3 F
ν
T
.
(11.2)
11.2. TEORIA QUANTISTICA DELLA RADIAZIONE DI CORPO NERO83
La
legge di Wien è anche detta legge dello spostamento del massimo.
F
non può essere determinata con argomenti generali, ma bisogna utilizzare un modello specifico. Planck propose come modello un insieme di
oscillatori carichi e calcolo la densità di energia della radiazione in equilibrio
con questo sistema di oscillatori. Il risultato di questa analisi è la deduzione
della legge sperimentale legge di Rayleigh-Jeans
ν
T
8πν 2
kT.
(11.3)
c3
Questa legge è in accordo con i dati sperimentali a piccole frequenze, ma è
palesamente in disaccordo ad alte frequenze. Questo fenomeno è detto catastrofe ultravioletta. Planck trovò la legge corretta (1900) postulando che lo
scambio di energia tra radiazione e materia potesse avvenire solo in quantità
finite. Non riportiamo qui la derivazione di Planck, ma mostriamo la derivazione della legge di Planck come un’applicazione della statistica quantistica
di Bose-Einstein al caso del gas di fotoni.
u(ν, T ) =
11.2
Teoria quantistica della radiazione di corpo nero
Secondo la meccanica quantistica la radiazione è descritta in termini di un
gas di particelle relativistiche a massa nulla. Tali paricelle sono dette fotoni
ed hanno natura bosonica. Le condizioni del gas di fotoni sono le seguenti:
• la relazione di dispersione energia-impulso è = cp, dove c è la velocità
delle onde elettromagnetiche;
• i valori dell’impulso sono determinati dalle condizioni al bordo, p =
(h/L)(nx , ny , nz ), dove il volume è quello di un cubo di lato L e gli ni
(i = x, y, z) sono interi;
• per valore dell’impulso esistono due stati di polarizzazione;
• il numero di fotoni non è conservato e si richiede quindi µ = 0.
Nel limite di volume molto grande, l’energia del gas di fotoni risulta allora
d3 p cp
.
(11.4)
h3 eβcp − 1
Per completare la derivazione occorre introdurre un’ulteriore ipotesi. Questa riguarda la connessione tra energia del fotone e la frequenza della radiazione:
cp
= hν ⇒ ν = .
(11.5)
h
U (T, V ) = 2V
Z
84 CAPITOLO 11. TEORIA DELLA RADIAZIONE DI CORPO NERO
In tal modo l’energia diventa
8πV Z ∞
hν 3
,
U (T, V ) = 3
dν βhν
c
e −1
0
(11.6)
da cui evidentemente si ricava la densità spettrale di energia
u(ν, T ) =
8πν 2 hν
.
c3 eβhν − 1
(11.7)
A basse frequenze, βhν 1, sviluppando l’esponenziale a denominatore, si
ritrova la legge di Rayleigh-Jeans della (11.3). Ad alte frequenze, βhν 1
si ottiene la legge sperimentale di Wien
u(ν, T ) =
8π 3 −βhν
ν e
.
c3
(11.8)
Se deriviamo la (11.7) rispetto alla ferquenza otteniamo
d
ν2
ν3
=
((3 − βhν)eβhν − 3) = 0.
dν eβhν − 1
(eβhν − 1)2
(11.9)
Allora la frequenza a cui si annulla la derivata è data dalla condizione βhν =
x, dove x soddisfa l’equazione trascendente
3 − x = 3e−x ,
(11.10)
che ha soluzione approssimata x ≈ 2.822. Allora si ottiene la legge dello
spostamento del massimo
νmax = 2.822
kT
.
h
(11.11)
Vogliamo ora connettere la densità di energia con il potere emissivo del
corpo nero e. Se u(ν, T ) rappresenta l’energia di radiazione in un elemento
di volume, il flusso di energia irraggiato, isotropicamente, per unità di angolo
solido è
c
u(ν, T ).
(11.12)
f=
4π
Consideriamo la superficie di un corpo su cui incide la radiazione del corpo
nero. Sia θ l’angolo tra la normale alla superficie e la direzione d’incidenza
della radiazione. Il flusso di radiazione incidente sul corpo è quindi
f cos(θ) =
c
u(ν, T ) cos(θ).
4π
(11.13)
11.2. TEORIA QUANTISTICA DELLA RADIAZIONE DI CORPO NERO85
Per tener conto di tutta la radiazione incidente sul corpo dobbiamo integrare
la (11.13) su metà angolo solido e si ottiene
Z 2π
0
dφ
Z π/2
0
c
dθ cos(θ)f = u(ν, T ).
4
(11.14)
Allora il potere emissivo per unità di volume del corpo nero risulta
cZ∞
e=
dνu(ν, T ) = σT 4
4 0
(11.15)
dove σ è la costante di Stefan
σ=
2π 5 k 4
.
15c2 h3
(11.16)
86 CAPITOLO 11. TEORIA DELLA RADIAZIONE DI CORPO NERO
Capitolo 12
Calori specifici
12.1
Calori specifici nei gas
Il caso più semplice è il gas monoatomico, cioè quello per cui la molecola è
composta di un unico atomo. Se tralasciamo la struttura interna dell’atomo
fatta di elettroni e nucleo, gli unici gradi di libertà meccanici sono i tre
moti traslatori della molecola. Dal teorema di equipartizione sappiamo che
ogni grado di libertà che appare quadraticamente nella funzione di Hamilton,
contribuisce con un termine kT all’energia del sistema. Allora otteniamo il
risultato già incontrato in precedenza che l’energia di un gas monoatomico
formato di N molecole, ha energia
3
Emono = N kT,
2
(12.1)
in modo che il suo calore specifico a volume costante risulta
3
3
cV = N k ≡ R
2
2
(12.2)
dove abbiamo introdotto la costante dei gas R = N k.
Per analizzare il calore specifico di gas poliatomici, è necessario considerare, oltre ai gradi di libertà traslatori, anche quelli interni. Ad esempio,
prendiamo il caso di un gas biatomico, cioè formato da due atomi. In questo, avendo a che fare con due atomi, la molecola ha un totale di 6 gradi di
libertà, corrispondenti ai gradi di libertà di ciascun atomo. Questi 6 gradi
di libertà possono essere divisi in due gruppi. Nel primo gruppo mettiamo
i gradi di libertà traslazionali della molecola nel suo complesso, cioè quelli
corrispondenti al moto traslatorio del centro di massa della molecola. Chiaramente il numero di questi gradi di libertà è pari a 3. I restanti gradi di
libertà, sempre nel numero di 3, descrivono i moti interni della molecola. Nel
87
88
CAPITOLO 12. CALORI SPECIFICI
caso sotto considerazione di una molecola biatomica, l’asse individuato dalla
retta congiungente i due atomi della molecola determina l’orientazione della
molecola stessa. In altre parole, tutti i moti rotatori della molecola possono
essere descritti in termini dei moti che cambiano l’orientazione di tale asse.
Naturalmente la lunghezza di tale asse, cioè la distanza tra i due atomi può
anche variare. Tale variazione corrisponde i possibili moti vibratori della
molecola. Per visualizzare tali moti possiamo immaginare di posizionare il
centro di massa della molecola al centro di una sfera. Il centro di massa della
molecola si trova chiaramente sull’asse della molecola stessa. Se la molecola è
composta di due atomi identici, tale posizione sarà a metà dell’asse, altrimenti sarà spostata verso l’atomo più pesante. Per semplicità immaginiamo di
avere due atomi uguali. Consideriamo allora che la sfera il cui centro coincide
con il centro di massa abbia raggio pari alla metà della distanza interatomica. Allora una qualunque orientazione dell’asse della molecola corrisponderà
alla posizione su tale sfera di uno dei due atomi. I gradi di libertà rotatori
corrispondo quindi ai gradi di libertà necessari ad identificare un punto su
una sfera. Il numero di tali gradi di libertà è pari a 2. Le coordinate sferiche θ e φ descrivono appunto tali due gradi di libertà. L’energia cinetica
di rotazione associata alle velocità angolari θ̇ e φ̇ dipende quadraticamente
dai momenti canonici (Si veda in seguito per un calcolo esplicito), per cui
l’energia rotazionale del gas biatomico sarà data da
1
Erot = 2 N kT = N kT = RT.
2
(12.3)
Per quanto riguarda l’energia vibrazionale, corrispondente alle variazioni di
lunghezza della distanza interatomica, possiamo, per piccole oscillazioni, assumere un andamento di oscillatore armonico. Allora l’energia vibrazionale, che dipende quadraticamente dalla coordinata ed impulso dell’oscillatore
armonico, è pari a
1
Evibra = 2 N kT = N kT = RT.
2
(12.4)
Il calore specifico del gas biatomico risulta allora dalla somma dei contributi
dovuti ai diversi gradi di libertà del moto molecolare
3
7
cV =
+1+1 R= R
2
2
(12.5)
dove i contributi in parentesi corrispondono ai gradi traslatori, rotatori e
vibrazionali, rispettivamente. Ricordiamo che per avere il calore specifico a
pressione costante basta usare la relazione valida per i gas perfetti
cP = cV + R.
(12.6)
12.1. CALORI SPECIFICI NEI GAS
89
Il risultato (12.6) è il risultato classico. L’estensione quantistica non presenta difficoltà in quanto è necessario considerare la quantizzazione dei vari
tipi di moto. Quello che è importanete ai fini del confronto con i dati sperimentali del calore specifico è la valutazione della spaziatura dei livelli energetici per un dato tipo di moto e come tale spaziatura si confronta con l’energia
termica kT . In generale, se la spaziatura dei livelli è molto piccola rispetto
all’energia termica, è naturale attendersi che molti livelli energetici saranno
popolati e che la statistica di Boltzmann sarà una buona approssimazione.
Se d’altro canto la spaziatura dei livelli è grande rispetto all’energia termica,
bisogna usare la statistica quantistica e pochi livelli, vicini a quello fondamentale, hanno una probabilità apprezzabile di essere occupati. In tal caso
appare come se i gradi di libertà con moti aventi una spaziatura dei livelli
grande rispetto a kT fossero congelati. In un gas biatomico, ad esempio,
a temperatura ambiente, i gradi di libertà vibrazionali sono congelati e la
formula del calore specifico a volume costante diventa
5
cV = R.
2
(12.7)
Per rendersi conto di questo fatto, facciamo una stima. A temperatura
ambiente kT ∼ 10−14 erg. L’energia rotazionale deve essere dell’ordine
Erot ∼ h̄2 /I dove I è il momento d’inerzia della molecola. Questo può essere
stimato
I ∼ ma2B ∼ 10−40 gr cm2 ,
(12.8)
dove abbiamo usato la massa del protone e il raggio di Bohr (come ordini di
grandezza). Si ha allora che
Erot ∼ 10−54 1040 erg = 10−14 erg,
(12.9)
che è dell’ordine dell’energia termica. Per l’energia del moto vibrazionale
osserviamo che la scala di energia in gioco è data dalle energie degli stati
elettronici. Infatti una molecola biatomica può essere vista come formata da
due nuclei carichi positivamente e dagli elettroni provenienti dai due atomi
all’origine della molecola. L’interazione tra i nuclei ha due contributi. Il
primo è la repulsione coulombiana dovuta al fatto che i due nuclei sono
carichi positivamente. Se questo fosse l’unico potenziale, la molecola non
si formerebbe. Il secondo contributo proviene dalla presenza degli elettroni
che vanno ad occupare livelli energetici molecolari. L’energia tipica di tali
livelli molecolari è simile a quella dei livelli atomici. Ci aspettiamo dunque
che l’energia vibrazionale abbia come valore tipico quello degli eV. Poiché
1eV ∼ 10−12 erg, la spaziatura dei livelli vibrazionali è mediamente circa
cento volte più grande dell’energia termica.
90
12.1.1
CAPITOLO 12. CALORI SPECIFICI
Moto di una particella su una sfera
Consideriamo le coordinate sferiche definite da
x
= r cos(φ) sin(θ)
(12.10)
y
= r sin(φ) sin(θ)
(12.11)
z
= r cos(θ).
(12.12)
Partendo dall’energia cinetica in coordinate cartesiane è facile ottenere la funzione lagrangiana nella forma
m 2
ṙ + sin(θ)2 r2 φ̇ + r2 θ̇ .
(12.13)
L=
2
La funzione di Hamilton è quindi
!
p2φ
1
p2θ
2
H=
pr + 2 2
+
.
(12.14)
2m
r sin (θ) r2
Come anticipato la dipendenza dai momenti coniugati a θ e φ è quadratica e usando
il teorema di equipartizione si conclude facilmente che i due gradi di libertà angolari
contribuiscono un fattore kT /2 ciascuno. Nel fare gli integrali necessari al calcolo della
funzione di partizione è utile notare
dxdydz = sin(θ)r2 drdθdφ
ed anche
dpx dpy dpz =
12.2
r2
1
dpr dpθ dpφ .
sin(θ)
(12.15)
(12.16)
Calori specifici nei solidi
Insieme alla legge di distribuzione spettrale del corpo nero, un’altra importante conferma della statistica quantistica è venuta dalla comprensione dell’andamento a basse temperature del calore specifico dei solidi. È stato merito
di Einstein nel 1907 capire che l’ipotesi dei quanti di energia di Planck potesse essere applicata non solo alla radiazione elettromagnetica. Infatti, il
punto di partenza è di considerare un solido come un sistema di oscillatori.
Per calcolare il calore specifico bisogna calcolare l’energia media e quindi derivare rispetto alla temperatura. Un sistema di N oscillatori accoppiati in
tre dimensioni ha, in base al teorema di equipartizione, energia
E = 3N kT,
(12.17)
che comporta un calore specifico
cV = 3N k ≡ R.
(12.18)
12.2. CALORI SPECIFICI NEI SOLIDI
91
Questo è il risultato classico ed è in accordo con l’andamento dei calori specifici ad alte temperature, noto come legge di Dulong-Petit. Einstein sottolinea
che è errato usare la statistica classica. Egli argomenta che, se da un lato
è appropriato usare il modello degli oscillatori, dall’altro è necessario calcolare la loro energia media mediante la statistica quantistica. Egli introduce
l’ipotesi semplificatrice di oscillatori di stessa energia 0 ed assume per l’energia media la formula di degli oscillatori di Planck. In tal modo arriva per
l’energia del sistema di oscillatori alla formula
U (T ) = 3N
0
.
−1
eβ0
(12.19)
Ad alte temperature, β → 0, U (T ) → 3N kT e si ritrova il risultato
classico.
In base alla formula di Einstein (12.19) il calore specifico ha l’espressione
cV =
3N 20 eβ0
.
T 2 (eβ0 − 1)2
(12.20)
La formula (12.20) descrive abbastanza bene i dati sperimentali, anche se
ci sono discrepanze. L’origine di queste discrepanze è dovuta all’ipotesi
troppo semplificatrice di un’unica frequenza. Debye nel 1912 ha proposto
un’estensione dell’idea di Enstein.
Per capire l’estensione di Debye è utile ricordare che un sistema di oscillatori, nel regime di piccole oscillazioni, è descritto in termini di modi normali,
ciascuno caratterizzato da una determinata frequenza di oscillazione. Inoltre
come è ben noto a basse energie i modi normali di vibrazione corrispondono
alle onde sonore. In analogia con la quantizzazione dei modi normali di un
campo elettromagnetico in una cavità, i modi normali quantizzati sono detti
fononi ed obbediscono alla statistica di Bose-Einstein1 . La velocità del suono
gioca, per i fononi, quindi un ruolo analogo a quello della alla velocità della
luce per i fotoni. La statistica dei fononi diventa quindi quella di un gas di
bosoni, i fononi appunto, con energia = vs p dove vs è la velocità del suono.
L’impulso p è legato alla lunghezza d’onda del suono dalla relazione standard
λ=
h
.
p
(12.21)
Per un dato vettore d’onda k = p/h̄ l’onda sonora può trovarsi in uno di
tre diversi stati di polarizzazione, a differenza dei fotoni che hanno solo due
stati di polarizzazione. I fononi possono essere creati e distrutti e quindi il
1
È interessante notare che la statistica di Bose-Einstein arriva storicamente solo nel
1920.
92
CAPITOLO 12. CALORI SPECIFICI
loro numero non è una quantità conservata. Ciò richiede l’annullarsi del loro
potenziale chimico.
L’espressione dell’energia dei modi normali in funzione del vettore d’onda
deve essere, in generale, determinata dalla struttura geometrica specifica
del cristallo che descrive il solido in esame. L’insieme dei vettori d’onda
è anch’esso specificato dalla geometria. Quando usiamo l’approssimazione
in termini della velocità del suono, non abbiamo più alcuna informazione
sui vettori d’onda da considerare. Infatti nel caso dei fotoni esistono modi
normali del campo elettromagnetico di frequenza arbitraria, cioè esistono
infiniti modi normali. Nel solido sappiamo che il numero di modi normali
deve essere N . Debye nota quindi che la relazione di dispersione = vs p deve
valere fino a lunghezze d’onda non troppo piccole, cioè fino ad un impulso
massimo pM . Tale impulso massimo è determinato dalla richiesta che il
numero di modi normali sia effettivamente pari a 3N (qui includiamo tutte
le possibili polarizzazioni). Abbiamo quindi
3N = 3V 4π
Z pM
0
3
4π Z νM 2
4πV νM
p2
dp
=
3V
ν
dν
=
,
h3
vs3 0
vs3
(12.22)
dove abbiamo usato la relazione ν = vs p/h. La frequenza massima risulta
νM =
3N vs3
4πV
!1/3
.
(12.23)
Siamo ora in grado di scrivere l’energia degli oscillatori
3V 4π Z νM hν 3
.
U (T, V ) =
vs3 0 eβhν − 1
(12.24)
La frequenza massima definisce la cosidetta temperatura di Debye
Θ=
hνM
k
(12.25)
in termini della quale possiamo riscrivere, dopo un cambio di variabile x =
βhν, la (12.25)
3V 4πk 4 T 4 Z Θ/T x3
U (T, V ) =
.
(12.26)
vs3 h3
ex − 1
0
La temperatura di Debye discrimina i regimi di bassa ed alta temperatura. A
bassa temperatura, T Θ, l’integrale può essere calcolato mandando all’infinito il limite superiore senza commettere un errore rilevante. In tal modo
l’integrale diventa indipendente dalla temperatura e l’energia dipende dalla
12.2. CALORI SPECIFICI NEI SOLIDI
93
quarta potenza della temperatura. Allora l’andamento del calore specifico a
basse temperature deve essere proporzionale al cubo della temperatura
cV ∼ T 3 .
(12.27)
Ad alte temperature, T Θ, si ritrova il limite classico. Infatti considerando che l’estremo superiore dell’integrale è molto minore di uno, possiamo
sviluppare l’integrando per piccoli valori di x
3
3V 4πk 4 T 4 Z Θ/T 2 V 4πk 3 Θ3
V 4πνM
x
=
kT
=
kT = 3N kT,
vs3 h3
vs3 h3
vs3
0
(12.28)
dove abbiamo usato la (12.25) e (12.22).
U (T, V ) ≈
94
CAPITOLO 12. CALORI SPECIFICI
Appendice A
Potenziali termodinamici
Per processi reversibili, i due principi della termodinamica corrispondono
all’equazione
dU = T dS − P dV.
(A.1)
Poichè sappiamo che l’energia interna è una funzione di stato, la Eq.(A.1)
implica
!
!
∂U
∂U
, P =−
(A.2)
T =
∂S V
∂V T
e la prima relazione di Maxwell
∂T
∂V
!
S
∂P
=−
∂S
!
.
(A.3)
V
Per processi irreversibili si ha invece
dU < T dS − P dV.
(A.4)
Per un sistema che compie una trasformazione mentre è termicamente (dS =
0) e meccanicamente (dV = 0) isolato, l’approccio all’equilibrio richiede una
diminuzione dell’energia interna, che dunque deve essere minima in equilibrio. Un tale comportamento è ben noto in meccanica, dove le posizioni di
equilibrio corrispondono ai minimi del potenziale. I potenziali termodinamici
assolvono una funzione simile riguardo agli stati di equilibrio termodinamico
e l’energia interna U è il primo esempio di potenziale termodinamico. L’uso
di U deriva dall’aver scelto S e V come variabili termodinamiche.
Supponiamo di voler utilizzare T e V come variabili, cioè, consideriamo
un sistema contatto con un bagno termico alla temperatura T e di volume
dato V . Per mezzo della relazione d(T S) = SdT + T dS, otteniamo
dU < d(T S) − SdT − P dV
95
96
APPENDICE A. POTENZIALI TERMODINAMICI
da cui deriviamo l’esistenza di un’altra funzione di stato
d(U − T S) ≡ dF < −SdT − P dV.
(A.5)
La funzione di stato F è chiamata energia libera di Helmholtz. Procedendo
come nel caso dell’energia interna, otteniamo la seconda relazione di Maxwell
∂F
S=−
∂T
!
∂F
, P =−
∂V
V
!
∂S
∂V
,
T
!
∂P
∂T
=
T
!
.
(A.6)
V
Se invece usiamo S and P come variabili indipendenti, attraverso lo stesso
tipo di procedimento, ricaviamo la funzione di stato entalpia, H, per la quale
d(U + P V ) ≡ dH < T dSV dP,
(A.7)
e da cui discende la terza relazione di Maxwell
∂H
T =−
∂S
!
, V =
P
∂H
∂P
!
∂T
∂P
,
S
!
=
S
∂V
∂S
!
.
(A.8)
P
Infine se usiamo T and P come variabili indipendenti, si ottiene l’energia
libera di Gibbs definita da
d(U − T S + P V ) ≡ dG < −SdT + V dP,
(A.9)
insieme con la quarta relazione di Maxwell
∂G
S=−
∂T
!
, V =
P
∂G
∂P
!
,
T
∂S
∂P
!
T
∂V
=−
∂T
!
.
(A.10)
P
Finora abbiamo tenuto fissato il numero di perticelle N costituenti il
sistema. Se includiamo N tra le variabili termodinamiche, l’energia libera di
Helmholtz sarà funzione di T , V e N . Definiamo quindi il potenziale chimico
µ=
∂F
∂N
!
.
(A.11)
T,V
Se scegliamo T , V e µ come variabili termodinamiche, siamo condotti alla
funzione di stato granpotenziale Ω definito da
Ω = U − T S − µN = F − µN.
(A.12)
Se consideriamo l’energia libera di Gibbs come funzione di N , insieme a
T e P , il potenziale chimico diventa
µ=
∂G
∂N
!
.
T,P
(A.13)
97
Osserviamo adesso che T e P sono variabili intensive e quindi deve essere
G(T, P, N ) = N g(T, P )
poichè G deve essere evidentemente intensiva, Segue quindi che il potenziale
chimico corrisponde all’energia libera di Gibbs per particella
µ = g(T, P ).
(A.14)
Per meglio afferrare il significato del potenziale chimico, consideriamo un
sistema (ad una componente) in uno stato in cui coesistono due fasi in equilibrio (ad esempio fase vapore e fase liquida oppure fase liquida e fase solida).
A temperatura e pressione costanti, una variazione infinitesima di G è
dG = µ1 dN1 + µ2 dN2 ,
dove µ1,2 and N1,2 sono i potenziali chimici e i numeri di particelle nelle due
fasi. Se il numero totale di particelle è conservato dN1 = −dN2 e in equilibrio
si ha
µ1 = µ2 ,
(A.15)
che rappresenta la condizione per la coesistenza di due fasi.
98
APPENDICE A. POTENZIALI TERMODINAMICI
Bibliografia
[Hua97] Kerson Huang. Meccanica Statistica. Zanichelli, 1997.
[Leb99] Joel L. Lebowitz. Statistical mechanics: A selective review of two
central issues. Rev. Mod. Phys., 71(2):S346–S357, Mar 1999.
[LL99]
Lev D. Landau and Evgenij M. Lifsic. Fisica statistica. Editori
Riuniti, 1999.
[Pel03] Luca Peliti. Appunti di Meccanica Statistica. Bollati Boringhieri,
2003.
[Ray84] John R. Ray. Correct boltzmann counting. European Journal of
Physics, 5:219, 1984.
99