meccanica statistica - Pavia Fisica Home Page

Università di Pavia
DIPARTIMENTO
di
FISICA NUCLEARE e TEORICA
G. Zambotti
Introduzione alla
MECCANICA STATISTICA
Lezioni del corso di Meccanica statistica
A.A. 2009/2010
The topics we shall analyse
are not always well defined.
They are often complicated
and fuzzy.
(S.K. Ma)
Queste note raccolgono gli argomenti trattati nel corso di Meccanica statistica (AA 2009/2010). Vengono studiati i sistemi in equilibrio, con particolare attenzione per i fondamenti e i metodi. Le ”applicazioni” sono ridotte al modello di Ising unidimensionale e ai gas ideali di Fermi e di Bose.
Ringrazio gli studenti di questo e dei precedenti corsi per la loro attenzione. Ringrazio doppiamente
chi in passato mi ha segnalato errori ed omissioni, e chi lo farà in futuro.
G. Z.
Pavia, 24 maggio 2010.
Indice
1) Fondamenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1)
Premessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2)
Fondamenti della meccanica statistica classica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3)
L’ipotesi ergodica classica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4)
Commenti sul teorema ergodico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5)
Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2) Fenomeni dipendenti dal tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1)
Una equazione irreversibile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2)
L’equazione della diffusione in dimensione 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3)
L’equazione della diffusione e il moto browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4)
Evoluzioni: reversibile vs irreversibile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5)
Evoluzioni irreversibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.6)
L’equazione di Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.7)
Il coarse graining . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.8)
Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3) Termodinamica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.1)
La rappresentazione dell’entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2)
Lo stato di equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3)
La trasformata di Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4)
Altre rappresentazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.5)
Non applicabilità della trasformata di Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.6)
La trasformata di Legendre generalizzata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.7)
Le condizioni di stabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.8)
Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4) Meccanica statistica microcanonica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1)
La distribuzione microcanonica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2)
Il limite termodinamico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3)
L’entropia microcanonica: esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4)
Volume della sfera n-dimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.5)
Altre espressioni dell’entropia microcanonica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.6)
Additività dell’entropia microcanonica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.7)
La distribuzione di Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.8)
Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5) Meccanica statistica canonica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1) La distribuzione canonica (metodi variazionali) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2) La distribuzione canonica (altra derivazione) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3) La fluttuazione dell’energia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.4) Il problema dell’equivalenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.5) La distribuzione gran canonica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.6) La fluttuazione del numero di particelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.7) La teoria di Lee-Yang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.8)
Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6) Il modello di Ising . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1) Il modello di Ising . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2) La approssimazione del campo medio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3) Il modello di Ising unidimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4) La magnetizzazione del modello unidimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5) Le funzioni di correlazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.6) La suscettività per la catena aperta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.7) Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7) I gas
7.1)
7.2)
7.3)
7.4)
7.5)
7.6)
7.7)
7.8)
7.9)
7.10)
7.11)
7.12)
7.13)
60
60
62
63
65
66
68
69
74
74
76
80
82
83
84
86
ideali quantistici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
La meccanica statistica quantistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Un esperimento alla Stern-Gerlach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Proprietà dell’operatore statistico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Gli operatori statistici canonico e gran canonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Stati di un sistema di particelle identiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
I numeri di occupazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
Il limite classico del gas ideale quantistico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
Termodinamica del gas ideale di Fermi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
Integrali di Fermi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
La condensazione di Bose-Einstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
Proprietà del gas ideale di Bose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
Il calore specifico del gas ideale di Bose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
1
Fondamenti
1.1 Premessa
Un sistema fisico come, ad esempio, un gas (classico) può essere descritto, in prima approssimazione,
come un insieme di N punti materiali (”molecole”) soggetti alle leggi della meccanica analitica. Secondo
questo punto di vista, il moto del sistema è descritto da un insieme di funzioni (qi (t), pi (t); i = 1, . . . , 3N ),
con una dipendenza dal tempo, t, determinata dalle equazioni di Hamilton. La caratteristica essenziale
della descrizione del gas fornita dalla meccanica analitica è di essere esatta (chiaramente solo in linea di
principio, date le ovvie difficoltà di scrivere, nonchè di risolvere, le equazioni di Hamilton quando il valore di
N è quello tipico di un sistema macroscopico), e completa (nel senso che essa contiene tutta l’informazione
possibile relativa al sistema).
Lo stesso sistema (il gas) viene descritto anche da altre teorie: dalla termodinamica (TD), se esso
è in ”equilibrio termodinamico”, o dalla dinamica dei fluidi (DF), se esso è sede di moti macroscopici
(flussi di materia, propagazione e/o smorzamento di onde sonore, trasmissione di calore, ecc.). TD e DF
utilizzano un numero di variabili macroscopiche (densità, pressione, temperatura, ecc.), molto più piccolo
del numero delle (q, p). La descrizione del sistema fornita da TD e DF è dunque enormemente incompleta
rispetto a quella della meccanica analitica. La meccanica statistica (classica) è la teoria che definisce e
giustifica i metodi per derivare le descrizioni macroscopiche (incomplete), come TD e DF, dalla descrizione
microscopica (completa) fornita dalla meccanica analitica.
Nella meccanica statistica (classica) le variabili macroscopiche sono definite come valori medi di opportune variabili microscopiche, calcolati mediante una opportuna densità di probabilità, ρ(x), funzione
del ”microstato” x (per i sistemi in equilibrio termodinamico, ρ è indipendente da t). La determinazione
di ρ è il problema centrale della teoria dei fondamenti della meccanica statistica.
1.2 Fondamenti della meccanica statistica classica
Consideriamo un sistema classico con N gradi di libertà (1) , i cui stati microscopici (o ”microstati”)
siano descrivibili come punti, di coordinate
x =
˙ (q1 , · · · qN , p1 , · · · , pN ), di uno spazio euclideo 2N -
dimensionale, Γ (lo ”spazio delle fasi”; Γ può anche essere discreto: vedi l’es. 1.4). I sistemi di interesse
per la meccanica statistica sono (di solito) privi di vincoli: in tal caso, le coordinate lagrangiane coincidono
con le coordinate di posizione, e i momenti coniugati con le quantità di moto. Come vedremo nel seguito,
l’insieme dei microstati può coincidere con tutto Γ (come per un sistema ”in equilibrio termico con una
riserva di calore”), oppure con una sottoregione di Γ (come per un sistema ”isolato” con una energia
assegnata), oppure può risultare dalla unione di un opportuno insieme di spazi Γ (come per un gas con
numero di particelle indefinito: vedi il § 5.5). Fino ad avviso contrario considereremo solo sistemi per i
(1)
Il numero dei gradi di libertà di un sistema macroscopico in genere non è conosciuto con precisione: ad esempio,
per un gas il numero dei gradi di libertà dipende dal numero delle molecole, che, non solo non è noto con precisione, ma
può anche essere variabile. Quindi bisogna accertare che le previsioni della teoria non dipendono dal valore preciso di N ,
oppure, in alternativa, prepararsi a generalizzare la teoria in modo da poter trattare N come una ulteriore variabile casuale.
Quest’ultimo è il punto di vista della meccanica statistica nella formulazione ”gran canonica” (vedi il cap. 5).
1.2
Fondamenti della meccanica statistica classica
2
quali Γ coincide con lo spazio euclideo introdotto sopra.
Chiameremo ”spazio delle fasi accessibile” la regione di Γ i cui punti sono possibili microstati del
sistema. Sottolineiamo il fatto che lo ”spazio delle fasi accessibile” è definito come l’insieme di tutti (e soli)
i microstati effettivamente accessibili. Ad esempio, per un insieme di N molecole (puntiformi, e di massa
m) non interagenti, in un volume V , e con energia totale E, lo spazio delle fasi accessibile è costituito da
tutti (e soli) i punti x tali che le posizioni delle molecole cadano in V , e che la somma delle energie delle
P3N 2
singole molecole sia uguale ad E:
i pi = 2mE.
La specificazione del microstato x a un istante t0 equivale ad una descrizione completa dello stato
dinamico del sistema, nel senso che la conoscenza di x all’istante t0 , unita alla conoscenza della hamiltoniana, permette in linea di principio di determinare (risolvendo le equazioni di Hamilton) il microstato
a ogni istante t 6= t0 . Se, per qualche motivo (come, ad esempio, il gran numero di gradi di libertà),
il microstato di un sistema non può essere specificato, allora i metodi della meccanica (le sue equazioni
differenziali) non sono applicabili, e il calcolo esatto delle proprietà del sistema, già impossibile di fatto
(per sistemi macroscopici non banali), diventa impossibile anche in principio. Inoltre, anche se, per paradosso, un calcolo esatto fosse possibile, esso sarebbe probabilmente inutile, perchè quantità fondamentali
per i comportamenti macroscopici di un sistema, come ad esempio la temperatura, non sembrano essere
riconducibili ad alcuna quantità microscopica (cioè: non sembra esistere una funzione delle (q, p) che sia
interpretabile come, ad esempio, ”temperatura”)!
Nell’impossibilità (e forse nell’inutilità) di calcolare le proprietà del sistema in modo esatto, non resta
che ricorrere ai metodi ”statistici” che descriveremo nel seguito: si deve cioè abbandonare la meccanica
”esatta” (cioè la meccanica analitica), e passare alla meccanica ”statistica”, che possiamo dunque caratterizzare come la teoria che studia sistemi specificati in modo incompleto [Tol § 77]. Come vedremo più
avanti, le previsioni della meccanica statistica per un sistema con N gradi di libertà risultano verificate
dall’esperienza solo se ”N è molto grande” (nel senso che sarà precisato). Un sistema con ”N molto
grande” sarà chiamato ”macroscopico”. Un sistema macroscopico ammette una descrizione macroscopica
(la termodinamica, la meccanica dei fluidi, ecc.), che utilizza opportune grandezze (macroscopiche), come
la temperatura, la densità, le suscettività, ecc..
Il postulato fondamentale della teoria dei sistemi classici conosciuti in modo incompleto è il seguente:
P1 ) Il microstato, x ∈ Γ, di un sistema classico conosciuto in modo incompleto è una variabile
casuale, caratterizzata da una opportuna densità di probabilità, ρ(x, t).
La forma esplicita di ρ sarà discussa in seguito; per ora basti osservare che, per ogni t, ρ(x, t) deve essere
una funzione (su Γ ) reale, non negativa, e normalizzata:
Z
dx ρ(x, t) = 1 ,
con :
Γ
dx =
˙
N
Y
dqi dpi .
(1.1)
i=1
Si noti che il postulato P1 si applica anche quando l’informazione sul microstato è completa, cioè quando
si sa con certezza che a un certo istante t0 il microstato di un sistema è un certo x0 . Infatti, tale caso
corrisponde a: ρ(x, t0 ) =
˙ δ(x − x0 ) (dove δ(z) è la ”delta di Dirac” (multidimensionale) di argomento z).
Chiamiamo ”variabili microscopiche” le funzioni dello stato microscopico: b = b(x) (b è una funzione
su Γ ). In linea di principio, una variabile microscopica può dipendere esplicitamente da t (ad esempio, la
hamiltoniana di un sistema può contenere un campo esterno dipedente da t); qui ci limitiamo a variabili
microscopiche che non dipendono esplicitamente da t. Data una variabile microscopica b, chiamiamo ”valor
medio di b calcolato con la densità di probabilità ρ”, il seguente integrale (o somma, nel caso di Γ discreto):
Z
­ ®
B(t) =
˙ b t=
˙
dx ρ(x, t) b(x) .
(1.2)
Γ
1.2
Fondamenti della meccanica statistica classica
3
Definiamo ora le variabili macroscopiche di un sistema macroscopico specificato in modo incompleto.
Dobbiamo distinguere due tipi di variabili macroscopiche:
A) Variabili macroscopiche, B, per le quali esiste una variabile microscopica b(x) tale che B è definita
dal valor medio (1.2) di b(x). Esempio tipico di variabile macroscopica di tipo A è la ”energia interna”
termodinamica U , che ha come variabile microscopica corrispondente l’energia microscopica H(x): U =
hHi. La (1.2) può essere generalizzata alle variabili microscopiche ”locali”, funzioni, oltre che del punto
x ∈ Γ , anche del punto r dello spazio fisico (vedi l’es. 1.2). Se b = b(x, r) è una variabile microscopica
locale, definiamo il valor medio di b(x, r) come:
Z
B(r, t) =
˙ hbi(r,t) =
˙
dx ρ(x, t) b(x, r) .
(1.3)
Γ
Una importante classe (di funzioni ρ) è quella delle ρ per le quali vale la condizione:
∂ρ
= 0;
∂t
(1.4)
tali ρ sono dette ”stazionarie”. Le variabili macroscopiche calcolate (tramite la (1.2)) con una ρ stazionaria
sono stazionarie (cioè indipendenti da t). Infatti, da (1.2) e (1.4) segue:
Z
dB
∂ρ
=
dx
b = 0.
(1.5)
dt
∂t
Γ
Un sistema macroscopico per il quale tutte le variabili macroscopiche sono indipendenti da t è un sistema ”in
equilibrio termodinamico”. Pertanto, condizione necessaria e sufficiente perchè un sistema macroscopico
sia in equilibrio termodinamico è che la ρ che lo caratterizza (nel senso del postulato P1 ) soddisfi la (1.4).
Per sistemi in equilibrio le (1.2) e (1.3) si scrivono:
Z
Z
B=
˙ hbi =
˙
dx ρ(x) b(x) ,
e, rispettivamente : B(r) =
˙ hbir =
˙
dx ρ(x) b(x, r) .
(1.6)
Γ
Γ
B) Variabili macroscopiche per le quali non esiste una corrispondente variabile microscopica: esempi
tipici sono l’entropia e la temperatura. Le variabili di tipo B devono essere definite ad hoc: qui di seguito
definiamo l’ ”entropia statistica”.
Consideriamo dapprima un sistema i cui microstati accessibili formano un insieme finito, costituito
da N microstati. Assumiamo che la probabilità che il sistema si trovi nel microstato i-esimo (con: i =
P
1, . . . , N ) sia pi . Chiameremo l’insieme {p} =
˙ (pi : i = 1, . . . , N ) (con:
i pi = 1): ”distribuzione di
−1
probabilità”. Nel caso in cui le probabilità pi siano uguali: pi =
˙ p=N
(i = 1, . . . , N ), definiamo la
”entropia statistica”, Sst , come:
Sst =
˙ − ln p =
˙ ln N .
(1.7)
L’entropia statistica è una funzione (crescente) del numero di stati microscopici disponibili. La scelta del
logaritmo conferisce ad S la proprietà della ”additività”: l’entropia di un sistema composto da due sistemi
è la somma delle rispettive entropie (vedi l’es. 1.5a). Come è ben noto (vedi anche il cap. 3) la additività
è una delle proprietà anche dell’entropia termodinamica.
In generale le pi sono diverse. Definiamo allora Sst come:
Sst =
˙ Sst ({p}) =
˙ −
N
X
pi ln pi
(1.8)
i=1
(per un esempio della (1.8) vedi l’es. 1.4d). È chiaro che la (1.7) è un caso particolare della (1.8). Viceversa,
la (1.8) può essere vista come una ”media sui microstati” della entropia (1.7):
Sst =
˙
N
X
i=1
pi (Sst )i ,
con :
(Sst )i =
˙ − ln pi .
(1.9)
1.3
L’ipotesi ergodica classica
4
Consideriamo poi un sistema caratterizzato da un insieme continuo di microstati. Definiamo:
SS) Per un sistema in equilibrio, caratterizzato da un insieme continuo di microstati, e per il
quale è definita una densità di probabilità ρ, l’ ”entropia statistica” è:
Z
Sst [ρ] =
˙ −
dx ρ ln (Γ0 ρ) ,
(1.10)
Γ
dove Γ0 è una costante da determinare.
La notazione S[ρ] mette in evidenza il fatto che S è funzione di ρ. Per sistemi il cui spazio delle fasi
accessibile è un sottoinsieme proprio di Γ le definizioni precedenti devono essere riformulate: un esempio
importante (il sistema isolato) sarà illustrato nel cap. 4.
Non è ovvio, a priori, che l’entropia statistica possa essere una grandezza fisicamente rilevante. Sorprendentemente, tuttavia, ciò accade. Risulta infatti:
ST) L’entropia termodinamica, Std , coincide con l’entropia statistica (moltiplicata per la
costante di Boltzmann, kB ):
Std = kB Sst .
(1.11)
La (1.6) e la (1.11) (nel seguito scriveremo semplicemente S, invece di Std ) sono alla base della validità e
dell’importanza della meccanica statistica (di equilibrio) come teoria fisica.
Vedremo più avanti (cap. 3) che da S è possibile derivare tutte le altre variabili di tipo B. Assegnata
una ρ, la (1.6), per le variabili di tipo A, e la (1.11) per le variabili di tipo B, definiscono allora tutte le
variabili macroscopiche del sistema. Se chiamiamo ”stato macroscopico” (o ”macrostato”) del sistema un
insieme di valori di tutte le variabili macroscopiche, possiamo affermare che una ρ definisce un macrostato
del sistema.
1.3 L’ipotesi ergodica classica
I postulati del paragrafo precedente non sono sufficienti a definire concretamente la ρ che corrisponde
allo stato di equilibrio di un sistema dato. Dobbiamo quindi ricorrere ad un ulteriore postulato. Consideriamo i più ”elementari” tra i sistemi in equilibrio, e cioè quelli isolati (sistemi non isolati saranno discussi
nel cap. 5). Consideriamo quindi sistemi per i quali la hamiltoniana, H, è costante del moto (assumiamo
anche che le forze siano conservative; allora H coincide con l’energia), e formuliamo il seguente postulato:
P2 ) Per un sistema isolato in equilibrio, ρ(x) è costante sullo spazio delle fasi accessibile.
Il postulato P2 equivale ad assumere che un sistema isolato in equilibrio si possa trovare con uguale densità
di probabilità (o probabilità) in tutti i microstati accessibili. La ρ definita dal postulato P2 viene chiamata
”microcanonica”.
Dal punto di vista matematico, i postulati P, e le definizioni come la (1.6), permettono di calcolare
1.3
L’ipotesi ergodica classica
5
le variabili macroscopiche (di tipo A) di un sistema isolato. Rimane, tuttavia, la necessità di giustificare
fisicamente i postulati e le definizioni. In particolare, consideriamo la (1.6). Essa afferma, nel caso di
una ρ stazionaria (vedi la (1.4)), che le variabili macroscopiche di un sistema in equilibrio termodinamico
non dipendono da t. Ciò è consistente con l’idea che un sistema in equilibrio termodinamico sia in uno
stato macroscopico stazionario, ma è anche in contraddizione col fatto che lo stato microscopico dello
stesso sistema dipende da t ! Per superare la contraddizione è opportuno richiamare la diversità delle
scale temporali delle osservazioni macroscopiche e della dinamica microscopica. Si osserva infatti che,
di solito, la misura di una grandezza di un sistema macroscopico richiede, per l’inerzia dell’apparato
di misura, un tempo molto più lungo dei tempi caratteristici della dinamica microscopica del sistema.
Assumendo che l’operazione di misura non perturbi il sistema, si può allora assumere che durante la
misura il sistema percorra, nello spazio delle fasi, tutto un tratto di traiettoria ([Bal app. A.7], [Far §
2.3]), e che il risultato della misura corrisponda ad una media sui microstati toccati dalla traiettoria, cioè
ad una ”media temporale”. È allora opportuno formulare un ulteriore postulato, che, limitatamente alle
variabili di tipo A, fornisce una nuova definizione di ”variabile macroscopica”:
E) Il risultato della misura di una variabile macroscopica di tipo A di un sistema isolato in
equilibrio è la media temporale, b, della corrispondente variabile dinamica microscopica:
b=
˙ b(x0 , t0 ) =
˙ lim
T →∞
Z
1
T
t0 +T
dt b(x(x0 , t0 ; t))
(1.12)
t0
dove x(x0 , t0 ; t) è la soluzione delle equazioni del moto definita dalla condizione x = x0 per t = t0 .
Mostriamo ora che, se per hbi intendiamo la ”media sulla superficie dell’energia”, che definiamo qui di
seguito, allora risulta (per una particolare categoria di sistemi): b = hbi. Definiamo la ”media sulla
superficie dell’energia”.
Consideriamo un sistema isolato con hamiltoniana H = H(q, p), e con energia E (assumiamo: 0 <
E < ∞). Sia Σ(E) la ”superficie dell’energia”: Σ(E) =
˙ {(q, p) : H(q, p) = E}. Assumiamo che l’ ”area”
della superficie Σ(E) sia finita (assumiamo che Σ(E) sia topologicamente equivalente alla superficie di una
sfera (multidimensionale), e che, se E1 < E2 , la superficie Σ(E1 ) sia collocata interamente all’interno di
Σ(E2 ) [Khi § 7]). Assumiamo che tutti i punti di Σ(E) siano accessibili al sistema (cioè che lo spazio delle
fasi accessibile coincida con la superficie dell’energia). È quindi necessario definire la ”media sullo spazio
delle fasi” come un integrale di superficie, invece che come un integrale di volume. Assumiamo allora di
poter introdurre nuove coordinate canoniche, tali da poter scrivere l’elemento di volume di Γ come:
dx = dE dµ ,
(1.13)
dove dµ è un ”elemento di area” sulla superficie Σ(E) (vedi l’es. 1.6). Al posto della (1.6) definiamo (per
un sistema isolato con energia E):
Z
­ ®
B=
˙ b =
˙
dµ ρ(x) b(x) ,
(1.14)
Σ(E)
dove ρ è normalizzata su Σ(E):
Z
dµ ρ(x) = 1 .
(1.15)
Σ(E)
L’entropia termodinamica ora è (per una data ρ):
Z
S=
˙ S[ρ] =
˙ − kB
dµ ρ ln(Σ0 ρ) ,
Σ(E)
(1.16)
1.3
L’ipotesi ergodica classica
6
dove Σ0 è un’altra costante (da determinare).
Definiamo la ”densità di probabilità microcanonica”, come: ρmc (x) = cost. (per x ∈ Σ(E)), cioè:
Z
1
ρmc (x) =
,
dove : Σ(E) =
˙
dµ
(1.17)
Σ(E)
Σ(E)
(usiamo lo stesso simbolo per la superficie e per la sua area). La ”media microcanonica” su Σ(E) di una
funzione b(x) è:
Z
Z
1
hbimc =
˙
dµ ρmc (x) b(x) =
˙
dµ b(x) .
(1.18)
Σ(E) Σ(E)
Σ(E)
La probabilità e la media microcanoniche si possono, ovviamente, definire anche per sistemi con spazi delle
fasi discreti.
Consideriamo allora un sistema isolato, e sia Σ(E) la relativa superficie dell’energia. Chiamiamo
”ergodiche” le traiettorie che ”passano arbitrariamente vicine a tutti i punti di Σ”, ed ”ergodici” i sistemi
per cui (quasi) tutte le traiettorie sono ergodiche (la nostra discussione è qualitativa: per una trattazione
esauriente vedi, ad esempio, [AA]) Per i sistemi ergodici si dimostra il:
Teorema ergodico: La media temporale (1.12) non dipende da (x0 , t0 ), e coincide
con la media (1.18):
b = hbimc .
(1.19)
Le due espressioni (1.18) e (1.12) hanno dunque, per sistemi ergodici, lo stesso valore. D’altra parte, come
definizione di ”risultato della misura di una variabile macroscopica”, la (1.12) è più soddisfacente della
(1.18): alla luce della (1.12) il fatto che al valore di una variabile macroscopica contribuiscano ”molti”
microstati appare del tutto naturale. La media temporale (1.12) è, tuttavia, praticamente impossibile da
calcolare: infatti, il calcolo della (1.12) richiede la conoscenza delle soluzioni delle equazioni del moto! Al
contrario, il calcolo della media (1.18) è, in linea di principio, più facile: è richiesta ”solo” una integrazione!
È allora soddisfacente definire una variabile macroscopica mediante la (1.12), ma, alla luce della (1.19), è
conveniente calcolarla mediante la (1.18)!
Il teorema ergodico giustifica quindi la definizione (1.18) per le variabili macroscopiche (di un sistema
isolato); inoltre, esso giustifica la scelta (vedi il postulato P2 ) di ρmc come densità di probabilità per un
sistema isolato. Infine, il teorema ergodico è discusso [Far § 3.4] nell’ambito della meccanica ordinaria:
la meccanica statistica diventa cosı̀ una estensione della meccanica ordinaria. Alla luce di quanto sopra,
possiamo affermare che il teorema ergodico è il fondamento della meccanica statistica classica (2) .
La (1.19) esprime l’uguaglianza tra un integrale di linea e un integrale di superficie. Per mostrare che
ciò può essere del tutto naturale, consideriamo il seguente esempio. Consideriamo uno ”spazio delle fasi”
costituito dal quadrato: Q =
˙ (0 ≤ q, p < L), con condizioni cicliche al contorno: (q + L = q , p + L = p).
Sia t un parametro (”tempo”), e sia (q(t), p(t)) =
˙ (q0 + t, p0 + α t), dove α è un numero reale, la linea
(”traiettoria”) che passa per il punto (q0 , p0 ) all’istante t = 0 (3) . Consideriamo la variabile microscopica
b(q, p) definita dalla serie di Fourier:
b(q, p) =
˙
∞
X
Blm exp [i2π(lq + mp)/L] ,
(1.20)
l,m=−∞
(2)
Per un accenno al problema ergodico in meccanica quantistica, vedi [Mor cap 12 (pag. 256)].
(3)
Tale linea potrebbe essere interpretata come la soluzione delle equazioni di Hamilton corrispondenti alla hamiltoniana:
H = p − αq, relativa ad un sistema, con un solo grado di libertà, il cui spazio delle fasi è il quadrato Q.
1.4
Commenti sul teorema ergodico
7
con coefficienti Blm assegnati. Calcoliamo la media (1.2) di b con la densità uniforme: ρ = cost. = L−2 :
1
hbi =
˙ 2
L
Z
Z
L
L
dq
0
0
1
dp b(q, p) = 2
L
Z
∞
X
Z
L
Blm
dq e
0
l,m=−∞
L
i2πlq/L
dp ei2πmp/L = B00 .
(1.21)
0
Consideriamo poi la media temporale. Sia (q0 , p0 ) la posizione (in Q) all’istante t = 0, e sia (q(t), p(t)) =
˙
(q0 + t , p0 + αt) la traiettoria definita dalla condizione iniziale: (q(0), p(0)) = (q0 , p0 ). Definiamo il valore
di b all’istante t come: b(t) =
˙ b(q(t), p(t)), e calcoliamo la media temporale (1.12). Se α è irrazionale, segue
facilmente:
Z
1 T
b=
˙ lim
dt b(t) = B00 .
(1.22)
T →∞ T
0
Dunque, se α è irrazionale la media sullo spazio delle fasi e la media temporale sono uguali (4) :
hbi = b .
(1.23)
Dunque, l’integrale di linea (1.12) è uguale all’integrale di superficie (1.2) (qui Γ =
˙ Q). Ciò è conseguenza
p
L
(a)
Fig. 1.1 :
a) Una traiettoria in
b) Per
(b)
p
o
Q.
α irrazionale il moto è ergodico,
ma non porta all’equilibrio.
qo
L
q
del fatto che, per α irrazionale (5) , la traiettoria risulta passare arbitrariamente vicino a ogni punto di Q
([AA app. 1]; si noti che la traiettoria non passa mai due volte per uno stesso punto, altrimenti sarebbe
periodica!): si può dire che la traiettoria ”riempie Q” (6) . Le ”traiettorie ergodiche”, definite sopra, sono
una generalizzazione della traiettoria della fig. 1.1a per α irrazionale.
1.4 Commenti sul teorema ergodico
La condizione cruciale per la validità del teorema ergodico è che (quasi tutte) le traiettorie siano
ergodiche. Per una hamiltoniana generica, tuttavia, tale condizione non può valere, in virtù del fatto
(4)
Si noti che se α è razionale la traiettoria è periodica: infatti, posto: α = r/s, con r, s interi, per t = sL risulta:
(q(t), p(t)) =
˙ (q0 + sL , p0 + rL) = (q0 , p0 ). Quindi la traiettoria ”non riempie Q”; a ciò corrisponde il fatto che le due medie
non sono uguali: b =
(5)
P∞
n=−∞ Bnr,−ns e
2πin(rq0 −sp0 )
6= B00 .
Per il sistema della fig. 1.1a, la superficie dell’energia coincide con la traiettoria! Quindi, la (1.23) è un esempio di
come un integrale di linea possa essere uguale a un integrale di superficie, ma non è un esempio di uguaglianza tra media
temporale e media microcanonica!
(6)
L’uguaglianza tra la media temporale (1.22) (un integrale di linea) e la media sullo spazio delle fasi (1.21) (un integrale
di superficie) è riconducibile, qualitativamente, al fatto che, per una traiettoria come quella del caso ”α irrazionale”, la
frazione di tempo, dt/T , che il punto rappresentativo passa in una regione fissata, dx =
˙ dq dp, è (per T → ∞) dx/L2 :
(dt/T ) = (dx/L2 ) [Re80 § 8.B]. Segue:
b ≈ lim
T →∞
X dt
i
i
T
b(x(ti )) = lim
N →∞
X dx
i
i
L2
b(xi ) ≈ hbi .
(1.24)
1.4
Commenti sul teorema ergodico
8
che esistono costanti del moto indipendenti dalla hamiltoniana (per un sistema con N gradi di libertà
ne esistono 2N − 1). A ogni costante del moto possiamo, in linea di principio, associare una superficie analoga alla Σ(E). È evidente che le traiettorie del sistema devono rimanere confinate sulla intersezione di tante superfici quante sono le costanti del moto indipendenti. Sembrerebbe allora che
le traiettorie non possano essere ergodiche. Quindi il sistema non sarebbe ergodico, e la (1.19) non
sarebbe valida! Per superare il paradosso è necessario studiare le caratteristiche delle costanti del moto
del sistema: se a tutte le costanti del moto corrispondessero superfici cosı̀ complesse, dal punto di
vista geometrico, da rendere ”inefficace” il confinamento della traiettoria sulla loro intersezione (vedi
la fig. 1.2), allora la contraddizione tra esistenza di più costanti del moto ed ergodicità delle traiettorie potrebbe essere risolta. Dal punto di vista fenomenologico, il fatto che le proprietà termodinamiche
calcolate a partire da ρmc risultino verificate suggerisce che la (1.19) sia corretta, e quindi che il teorema ergodico sia valido. Almeno per un sistema, non realistico, ma nondimeno fisicamente significativo,
K
Fig. 1.2 :
H
2
H
Costanti del moto:
K1 : con una superficie ”semplice”
K1
K2 : con una superficie ”complessa”
e cioè per un gas di sfere dure in una scatola, l’ergodicità è stata dimostrata [Mu69 § 1.5]. Per un sistema
realistico la dimostrazione è di fatto impossibile: quindi, per un sistema realistico l’ergodicità deve essere
assunta: è quindi opportuno parlare, nelle applicazioni, non di ”teoria” ma di ”ipotesi” ergodica.
Il teorema ergodico soffre anche di altre importanti limitazioni:
• La (1.19) è priva di ogni riferimento al numero dei gradi di libertà, N , del sistema: in effetti, l’esempio
discusso sopra mostra che esistono sistemi ergodici anche con un solo grado di libertà. D’altra parte, come
vedremo più avanti (vedi ad esempio il § 4.2), la meccanica statistica è efficace, come teoria fisica, solo per
sistemi con N molto grande; quindi, il fatto che la teoria ergodica valga anche per sistemi ”piccoli” sembra
qualificarla più come una condizione necessaria (per la applicabilità della meccanica statistica), che come
una condizione necessaria e sufficiente ([Bal app. A.7], [Ru69 § 1.1]).
• L’ipotesi ergodica non dà alcuna indicazione sul come definire le grandezze di tipo B (pag. 3); per
esse è necessario ricorrere a postulati addizionali (come la (1.11)).
• Il ”numero dei microstati” accessibili a un sistema macroscopico è enorme (per una stima vedi
[Cha43 App. VI]) al punto che una traiettoria può toccarne, nella durata di una misura macroscopica,
solo una frazione estremamente piccola [Bali § 4.1.4]. Alla luce di ciò, l’interpretazione di una variabile
macroscopica come ”media temporale” deve essere approfondita!
• L’operazione di ”media temporale” elimina ogni dipendenza dal tempo; per rendere possibile una
estensione alla teoria dei sistemi non in equilibrio, l’ipotesi ergodica deve essere riformulata. Per di più, i
moti di tipo ergodico non sembrano corrispondere ai moti effettivi di un sistema con molti gradi di libertà,
nel senso che un moto ergodico non comporta alcun tipo di ”rilassamento all’equilibrio”. Per esempio, per
il sistema dell’esempio discusso sopra, la densità di probabilità definita dalla condizione iniziale uniforme:
ρ0 (q, p) = L−2 , è una ρ di equilibrio (nel senso della (1.4)), ma, come risulterà evidente dal modo in cui ρ
evolve nel tempo (§ 2.5), una densità inizialmente non uniforme non arriva, per alcun t > 0, a soddisfare
la (1.4) (vedi la fig. 1.1b). Una interpretazione soddisfacente del processo di rilassamento richiede che
il sistema goda di una condizione più forte della ergodicità: il ”mixing” [Re80 § 8.C]. Risulta che i moti
mixing sono anche ergodici, ma che (in generale) i moti ergodici non sono mixing! Anche da questo punto
di vista, quindi, l’ergodicità appare una condizione necessaria, ma non sufficiente.
1.5
Esercizi
9
1.5 Esercizi
Esercizio 1.1 Densità di probabilità nello spazio delle configurazioni.
Sia ρ(q, p) una densità di probabilità sullo spazio Q × P , dove Q è lo ”spazio delle q” e P è lo ”spazio
delle p”. Mostrare che ρQ (q), definita come:
Z
ρQ (q) =
˙
dp ρ(q, p) ,
(1.25)
P
è la densità di probabilità su Q. Definire la densità di probabilità su P .
Esercizio 1.2 La variabile dinamica locale ”densità microscopica”.
Si consideri un gas ideale unidimensionale di N particelle racchiuse nel segmento (0 < r < L).
a) Mostrare che la variabile microscopica:
ν(q1 , . . . , qN ; r) =
˙
N
X
δ(qi − r) ,
per
0<r<L,
(1.26)
i=1
dove qi (0 < qi < L) è la posizione della particella i-esima, ha il significato di ”densità microscopica nel
punto r”, cioè di ”densità di numero di particelle (nel punto r) nel microstato (q1 , . . . , qN )” . Mostrare che
ν ha la dimensione di una densità (numero di particelle per unità di lunghezza), è non negativa, e il suo
integrale (in r) su un intervallo (l1 , l2 ) è uguale al numero di particelle contenute in (l1 , l2 ).
b) Mostrare che la densità macroscopica del gas, n1 (r), calcolata con la densità di probabilità (su Q:
vedi es. 1.1):
½
(1)
ρQ (q) =
˙
C
0
N
Q
i
e−γqi
se
se
qi ∈ (0, L) , per ogni i ,
qi ∈
/ (0, L) , per almeno un i ,
(1.27)
dove γ =
˙ mg/kB T , e C = γ/(1 − e−γL ), è:
½
n1 (r) =
˙ hνi1 =
CN e−γr
0
se
se
r ∈ (0, L) ;
r∈
/ (0, L) ;
(1.28)
(1)
ρQ descrive quindi un gas ideale in equilibrio a temperatura T , e soggetto a un campo gravitazionale
costante diretto nel verso negativo dell’asse r.
c) Mostrare che, per γ → 0 (cioè per g → 0 e/o T → ∞), risulta: n1 (r) → n2 (r), dove:
½
n2 (r) =
˙ hνi2 =
N/L se
0
se
r ∈ (0, L) ;
r∈
/ (0, L) .
(1.29)
(2)
−N
Mostrare che n2 (r) è la densità macroscopica del gas calcolata con la densità di probabilità: ρQ (q) =
˙ L
(2)
(ρQ descrive quindi un gas ideale in equilibrio e non soggetto a campi esterni).
Esercizio 1.3 Meccanica statistica di una particella in un segmento.
Si consideri una particella puntiforme di massa m confinata nel segmento I =
˙ (−L/2, L/2), e con
velocità v ∈ (−∞, ∞). a) Definire i microstati della particella e lo spazio delle fasi. b) Verificare che la
funzione:
1
ρ(x, v) =
˙
L
r
a −av2
e
,
π
con :
a=
˙
m
,
2kB T
(1.30)
è una densità di probabilità su Γ. c) Calcolare le medie della posizione, della velocità, e dell’energia cinetica.
­ ®
R
R
[Risultati: a) (x, v), Γ =
˙ I × R; b) I dx R dv ρ(x, v) = 1; c) hxi = 0, hvi = 0, m v 2 /2 = kB T /2].
1.5
Esercizi
10
Esercizio 1.4 Un modello di paramagnete.
Considerare un sistema i cui microstati siano {s} =
˙ (s1 , . . . , sN ), dove ognuna delle variabili s può
assumere solo i valori: s1 = ± 1 (i = 1, . . . , N ).
a) Definire l’insieme dei microstati del sistema (lo ”spazio delle fasi”). Si noti che quando (come qui)
lo spazio delle fasi è discreto non si assegna una ”densità di probabilità”, ma una ”probabilità”. Se pi è la
P
probabilità del microstato i-esimo, il valor medio di una variabile a si definisce come: hai =
˙
i pi ai .
b) Siano β e h costanti. Assumere, come probabilità del microstato {s}, la funzione:
p({s}) =
N
h X
i
1 −βE({s})
1
exp βh
si =
˙
e
,
Z
Z
i
con :
E({s}) =
˙ −h
N
X
si ,
(1.31)
i
P
P
P
−βE({s})
dove Z è una costante. Calcolare Z. [Z = {s} e−βE({s}) =
˙
= . . .].
s1 =±1 · · ·
sN =±1 e
P
c) Calcolare, con la (1.31), il valor medio della variabile microscopica: M ({s}) = iN si (”momento
magnetico totale”). [Risultato: hM i = N tanh(βh).]
P
d) Calcolare, con la (1.31), l’entropia termodinamica: S = −kB {s} p{s} ln p{s} (vedi (1.11) e (1.8)).
[Risultato: S = N (ln(2 cosh(βh)) − βh tanh(βh)).] Calcolare il limite di S per h → 0 [S = N ln 2], e per
h → ∞ [S = 0].
e) Calcolare la ”suscettività per campo nullo”:
χ=
˙
∂m ¯¯
,
¯
∂h h=0
con :
m=
˙ lim
N →∞
hM i
N
[risulta :
χ = β] .
(1.32)
Esercizio 1.5 Proprietà dell’entropia statistica.
a) Mostrare che l’entropia di un sistema costituito da due sottosistemi indipendenti, S1 ed S2 , caratP
terizzati rispettivamente da N1 ed N2 microstati discreti con probabilità diverse, pi (con i pi = 1) e
P
qj (con
j qi = 1), è la somma delle entropie dei sottosistemi (”estensività” della (1.8)). [Possiamo
indicare un microstato del sistema complessivo con (i, j); la relativa probabilità è: πi,j =
˙ pi qj . Segue:
P
S=
˙ − i,j πi,j ln πi,j = . . . = S1 + S2 .]
b) Mostrare che l’entropia di un sistema costituito da due sottosistemi indipendenti con microstati
(1)
(2)
continui è la somma delle entropie dei sottosistemi. [Scrivere: ρ(x) = ρ1 (x1 )ρ2 (x2 ), e: Γ◦ = Γ◦ Γ◦ .]
c) Mostrare che p1 = . . . = pN (= N −1 ) rappresenta un estremo per l’entropia (1.8) rispetto a tutti
P
˙ S({p + δp}) − S({p}),
gli insiemi {pi : i = 1, . . . , N } tali che i pi = 1. [Calcolare la variazione: δS =
P
rispetto a variazioni δpi tali che i δpi = 0 (utilizzare un moltiplicatore di Lagrange)].
PN −1
d) Verificare che p1 = . . . = pN (= N −1 ) rappresenta un massimo di S. [Scrivere pN = 1 − 1
pi ,
e considerare S come funzione delle N − 1 variabilli indipendenti (p1 , . . . , pN −1 ); verificare che, per
j = 1, . . . , N − 1, risulta: (∂S/∂pj )N −1 = 0; (∂ 2 S/∂p2j )N −1 < 0.]
Esercizio 1.6 Elementi di area.
a) Scrivere l’elemento di volume nella forma (1.13) per una particella libera (H = p2 /2m). [Le superfici
di energia costante sono le rette p = costante. Quindi: dx = dE dµ, con: dµ = dq/(p/m)].
b) Verificare che per un oscillatore armonico unidimensionale, con hamiltoniana: H =
˙ p2 /2m +
mω 2 q 2 /2, la trasformazione: (q, p) → (Q, P ), con:
H
,
P =
˙
ω
µ
Q=
˙ arctan
mωq
p
¶
,
è canonica [Gol § 9.2]. Verificare che l’elemento di volume si può scrivere: dx = dE dµ, con: dµ = dQ/ω.
2
Fenomeni dipendenti dal tempo
Per i sistemi non in equilibrio il problema teorico centrale è quello della ”irreversibilità”, cioè del
fenomeno per cui un sistema, preparato ad un istante iniziale in una condizione di non equilibrio, e lasciato
poi evolvere autonomamente, raggiunge, dopo un intervallo di tempo opportuno, uno stato di equilibrio
nel quale esso in seguito permane. Qui discutiamo l’irreversibilità alla luce della dinamica microscopica.
2.1 Una equazione irreversibile
L’evoluzione temporale spontanea di un sistema macroscopico presenta, di solito, un andamento irreversibile, nel senso che alcune grandezze fisiche cambiano sempre nel verso che porta ad uno stato di
equilibrio, e mai nel verso contrario: ad esempio, il modulo della differenza delle temperature in due punti
di un mezzo conduttore di calore, termicamente e meccanicamente isolato, non aumenta mai (diminuisce,
o rimane costante). Spesso, una evoluzione irreversibile può essere descritta da opportune equazioni differenziali. Un classico esempio è il fenomeno della ”diffusione”, che può essere descritto da una semplice
equazione, che deriviamo qui di seguito.
Consideriamo un liquido in equilibrio contenente una sospensione molto diluita di N particelle di
massa molto più grande di quella delle molecole del liquido. Sia n = n(r, t) la densità di numero delle
particelle in sospensione: n(x, t) soddisfa la condizione di normalizzazione:
Z
∞
dx n(x, t) = N
(per ogni t) .
(2.1)
−∞
L’osservazione dice che se a un istante risulta: |∇n| 6= 0 (dove ∇ è il gradiente), allora a quell’istante è
presente un flusso (densità di corrente) j di particelle, che soddisfa la ”legge di Fick”:
j = −D ∇n ,
(2.2)
dove D è una costante (1) positiva; la condizione D > 0 esprime il fatto che il flusso è sempre diretto in
modo da ridurre le differenze di densità. La densità e la corrente sono legate anche dalla condizione che il
numero totale di particelle non può cambiare, e cioè dalla ”equazione di conservazione”:
∂n
+∇·j=0
∂t
(2.3)
(∇ · j è la divergenza di j). Segue immediatamente che la densità soddisfa la ”equazione della diffusione”:
∂n
= D ∇2 n .
∂t
(2.4)
Limitiamoci, per semplicità, al caso unidimensionale, e supponiamo che lo spazio fisico accessibile al
sistema coincida con l’intero asse x. La (2.4) diventa allora:
∂n
∂2n
=D 2,
∂t
∂x
(1)
(−∞ < x < ∞) .
(2.5)
D potrebbe dipendere da r e/o da t; in tali casi l’equazione della diffusione assumerebbe una forma diversa (vedi [Cra]).
2.2
L’equazione della diffusione in dimensione 1
12
Consideriamo le soluzioni della (2.5). Sia t0 un istante (”istante iniziale”), e sia: n(x, t0 ) =
˙ f (x), la
”condizione iniziale”, con:
Z ∞
dx f (x) = N .
(2.6)
−∞
La soluzione della (2.5) corrispondente alla data condizione iniziale è (vedi § 2):
·
¸
Z ∞
1
(x − x0 )2
0
0
n(x, t) = p
dx f (x ) exp −
.
4D(t − t0 )
4πD(t − t0 ) ∞
(2.7)
Ad esempio, la soluzione che corrisponde alla condizione iniziale: f (x) =
˙ N δ(x − x0 ) (dove δ è la
delta di Dirac, e x0 è un punto assegnato), è:
¸
·
N
(x − x0 )2
n(x, t) = p
.
(2.8)
exp −
4D(t − t0 )
4πD(t − t0 )
La (2.8) rappresenta l’evoluzione al tempo t di una densità iniziale (al tempo t0 ) ”concentrata in x = x0 ”;
per t → ∞, essa tende ad una densità uniforme.
Come ulteriore esempio, consideriamo la condizione iniziale:
r
α −αx2
f (x) =
˙ N
e
,
(2.9)
π
dove α è un numero (> 0) assegnato. Sostituendo nella (2.7), si trova facilmente:
s
·
¸
1 αβ
αβ
1
2
n(x, t) = N
exp −
x ,
con : β =
˙
,
πα+β
α+β
4D(t − t0 )
(2.10)
cioè:
s
" µ
#
¶−1
β
2
n(x, t) = N
exp − 1 +
βx =
α
s
#
" µ
µ
¶−1
¶−1
1
1
1
x2
1
=N
1+
exp − 1 +
.
π 4D(t − t0 )
4αD(t − t0 )
4αD(t − t0 )
4D(t − t0 )
β
π
µ
β
1+
α
¶−1
Per: t À t0 , e: αD(t − t0 ) ≈ αDt À 1, la soluzione (2.11) diventa:
r
·
¸
1
x2
n(x, t) ≈ N
exp −
.
4πDt
4Dt
(2.11)
(2.12)
È chiaro che, per t → ∞, la funzione (2.11) tende a diventare indipendente da t0 e α, cioè tende a ”perdere
memoria” della condizione iniziale !
Il comportamento ”irreversibile” delle (2.7) è evidente: non solo una densità iniziale ”piccata” (come
la δ) tende a diventare ”piatta”, ma una densità ”quasi piatta” (come la (2.9), se α À 1) tende a diventare
più piatta ancora! Ciò è in contrasto con il comportamento delle soluzioni delle equazioni della dinamica
microscopica (come le equazioni di Hamilton), per le quali l’evoluzione non ha un verso privilegiato: per
ogni soluzione esiste anche la soluzione che descrive il moto in verso contrario!
2.2 L’equazione della diffusione in dimensione 1
Sia t0 un istante arbitrario (qui scriviamo t0 invece di t0 ). Calcoliamo la soluzione della (2.5) per una
condizione iniziale data a t = t0 : n(x, t0 ) =
˙ ft0 (x). Per semplificare la notazione, scrivamo la (2.5) come:
Ln = 0 ,
dove :
L=
˙
∂2
∂
−D 2 .
∂t
∂x
(2.13)
2.3
L’equazione della diffusione in dimensione 1
13
Introduciamo il ”propagatore”, K(x0 , t0 | x, t), definito dalle seguenti proprietà [Bar § 8.3]:

L K(x0 , t0 | x, t) = 0 ,




K(x0 , t | x, t) = δ(x − x0 ) ,




K(x0 , t | x, t) → 0 ,
per
t > t0 ,
per
t0 = t ,
per
|x − x0 | → ∞ .
(2.14)
L’ultima delle (2.14) è la condizione al contorno per l’equazione L K = 0. Si noti che K è soluzione
dell’equazione (della diffusione) omogenea, e quindi non è una funzione di Green [Bar § 8.3.1]. In termini
di K possiamo definire la funzione:
Z
∞
n(x, t) =
˙
dx0 ft0 (x0 ) K(x0 , t0 | x, t) .
(2.15)
−∞
È immediato verificare che, in virtù delle (2.14), la (2.15) soddisfa la (2.5) con la data condizione iniziale:
Ln = 0 ,
n(x, t0 ) = ft0 (x) .
con
(2.16)
Il metodo più conveniente per calcolare il propagatore utilizza la rappresentazione di Fourier:
Z
0
0
∞
K(x , t | x, t) =
−∞
dk A(x0 ,t0 ) (k, t) eikx .
(2.17)
Sostituendo nella (2.16) si trova immediatamente:
¸
∂A
2
LK =
dk
+ Dk A eikx = 0 ,
∂t
−∞
Z
∞
·
∂A
+ Dk 2 A = 0 ,
∂t
cioè :
(2.18)
da cui:
2
A(x0 ,t0 ) (k, t) = B(x0 ,t0 ) (k) e−Dk t .
(2.19)
I coefficienti B si trovano utilizzando la condizione iniziale (2.14), e la rappresentazione:
1
2π
δ(x − x0 ) =
Z
∞
0
dk eik(x−x ) .
(2.20)
−∞
Dalle (2.18) e (2.14) otteniamo facilmente:
B(x0 ,t0 ) (k) =
Segue:
A(x0 ,t0 ) (k, t) =
e quindi
K(x0 , t0 | x, t) =
1
2π
1 Dk2 t0 −ikx0
e
e
.
2π
(2.21)
1 −Dk2 (t−t0 ) −ikx0
e
e
,
2π
Z
∞
dk e−Dk
2
(t−t0 )
(2.22)
0
eik(x−x ) .
(2.23)
−∞
Calcoliamo l’integrale (2.23). Poniamo: ξ =
˙ x − x0 ; τ =
˙ t − t0 , e osserviamo che:
Segue:
³
ξ ´2
ξ2
.
−Dk 2 τ + ikξ =
˙ − Dτ k − i
−
2Dτ
4Dτ
(2.24)
"
·
¸Z ∞
µ
¶2 #
ξ2
ξ
1
exp −
dk exp −Dτ k − i
.
K(x , t | x, t) =
2π
4Dτ −∞
2Dτ
(2.25)
0
0
2.3
L’equazione della diffusione e il moto browniano
14
Posto ancora z =
˙ k − iξ/2Dτ =
˙ k − ik0 , otteniamo:
·
¸ Z ∞−ik0
£
¤
1
ξ2
K(x , t | x, t) =
exp −
dz exp −Dτ z 2 .
2π
4Dτ −∞−ik0
0
0
(2.26)
Utilizzando il teorema di Cauchy, il cammino di integrazione può essere portato sull’asse reale, e segue:
K(x0 , t0 | x, t) =
³
ξ2 ´
1
exp −
2π
4Dτ
Z
∞
−∞
2
dk e−Dτ k =
³
1
ξ2 ´
exp −
2π
4Dτ
r
π
,
Dτ
(2.27)
cioè, più esplicitamente:
¸
·
(x − x0 )2
K(x , t | x, t) = p
.
exp −
4D(t − t0 )
4πD(t − t0 )
0
0
1
(2.28)
Usando la (2.28) nella (2.15) ritroviamo la (2.7).
È chiaro che la soluzione (2.7) è continua e infinitamente differenziabile rispetto a x, anche se la
condizione iniziale presenta discontinuità (vedi però [Bar § 8.3.1]). In altri termini, ogni discontinuità
nella condizione iniziale viene ”smussata” (dopo un intervallo di tempo arbitrariamente piccolo!); questo
comportamento delle soluzioni dell’equazione della diffusione è tipico delle equazioni del tipo ”parabolico”,
ed è una manifestazione del fenomeno della irreversibilità (per contrasto, si noti che le equazioni di tipo
”iperbolico”, come l’equazione delle onde, comportano che le discontinuità non vengano affatto smussate,
ma, anzi, vengano ”propagate” [Bar § 12.2.4]). Si noti ancora che, secondo la (2.28), la velocità di
spostamento (della quantità fisica descritta dalla densità n) risulta infinita! Infatti, basta considerare che
il propagatore all’istante iniziale è esattamente nullo ovunque, tranne che in x = x0 , mentre dopo un
intervallo di tempo arbitrariamente piccolo esso è diventato positivo su tutto l’asse x. Ciò è riconducibile
alla forma della (2.5), che non tiene conto dell’inerzia (del ”soluto”), e quindi non considera gli effetti
di ritardo nell’instaurarsi della corrente. Per fenomeni rapidi (cioè per t − t0 . τ , dove τ è un tempo
caratteristico della dinamica molecolare) l’equazione della diffusione deve essere sostituita dall’ ”equazione
della telegrafia” [Bar § 8.3.2].
2.3 L’equazione della diffusione e il moto browniano
Qui mostriamo che l’equazione macroscopica della diffusione può essere giustificata da una teoria
microscopica in cui si considera il moto delle particelle del gas che diffonde, trattando però il moto stesso
non con i metodi della meccanica ”esatta” (§ 1.2), ma con opportune ipotesi probabilistiche.
Consideriamo un sistema di N particelle, in equilibrio termodinamico ad una temperatura T , e non
interagenti tra di loro. Consideriamo una qualunque delle particelle, e assumiamo di poterne osservare
la posizione solo agli istanti t0 , t0 + τ , t0 + 2τ , ecc., dove τ è un intervallo di tempo sufficientemente
grande da poter trattare lo spostamento della particella in τ come una variabile casuale. Una realizzazione
pratica del sistema suddetto è costituita da un insieme di N particelle di massa M e ”diametro” D,
sospese in un liquido in equilibrio alla temperatura T e cosituito da molecole di massa m e ”diametro”
d, con m, d, ¿ M, D. Le particelle e le molecole hanno la stessa energia cinetica media (≈ kB T : vedi
l’es. 5.5e), ma, per la differenza delle masse, la velocità (media) delle particelle è molto minore di quella
delle molecole. È quindi possibile scegliere, come intervallo τ (vedi sopra) un intervallo piccolo su scala
macroscopica, ma sufficientemente lungo perchè una particella subisca gli urti di un numero molto grande
di molecole. Gli impulsi trasmessi a una particella in urti successivi sono sostanzialmente casuali, e quindi
lo spostamento subito dalla particella in τ può effettivamente essere considerato casuale: il moto risultante
si chiama ”moto browniano”.
2.3
L’equazione della diffusione e il moto browniano
15
Limitiamoci al caso unidimensionale. Supponiamo cioè che le particelle siano disposte su una retta,
che assumiamo come asse x; supponiamo inoltre che il sistema sia infinitamente esteso (cioè che le possibili
posizioni delle particelle siano −∞ < x < ∞). Sia n(x, t) la densità di numero delle particelle: supponiamo
che n sia nota a un istante t, e calcoliamo (2) n all’istante t + τ .
Consideriamo un intervallo dx. Supponiamo che τ sia sufficientemente grande da poter asssumere che
tutte le particelle presenti in dx a t siano uscite da dx a t + τ . Sia ∆ una distanza, e sia φ(∆, τ ) ∆ la
probabilità che una particella subisca, nell’intervallo τ , uno spostamento compreso tra ∆ e ∆ + d∆. Il
numero di particelle nell’unità di lunghezza che subiscono, nell’intervallo τ , uno spostamento compreso tra
∆ e ∆ + d∆ è allora:
dN = n φ(∆, τ ) d∆ .
(2.29)
Assumiamo che φ non dipenda né da t (consistentemente con l’ipotesi di equilibrio termodinamico) né da
x (ciò esprime l’uniformità spaziale del liquido), e che soddisfi le condizioni:
Z ∞
d∆ φ(∆, τ ) = 1 ,
φ(∆, τ ) = φ(−∆, τ ) .
(2.30)
−∞
(ci aspettiamo che φ sia diversa da zero solo per |∆| ”piccoli”). Il numero delle particelle che entrano in
dx nell’intervallo (t, t + τ ) è:
Z ∞
Z ∞
n(x, t + τ ) dx = dx
d∆ n(x + ∆, t) φ(−∆, τ ) = dx
d∆ n(x + ∆, t) φ(∆, τ )
(2.31)
−∞
−∞
(n(x + ∆, t) dx φ(−∆, τ ) d∆ è il numero di particelle nell’intervallo dx nel punto x + ∆ che subiscono,
nell’intervallo τ , uno spostamento compreso tra −∆ e −∆ + d∆). Da (2.31) segue:
Z ∞
n(x, t + τ ) =
d∆ n(x + ∆, t) φ(∆, τ ) .
(2.32)
−∞
Supponiamo ora che il tempo caratteristico della variazione temporale di n sia molto maggiore di τ
(cioè che n(x, t + τ ) differisca di poco da n(x, t)). Assumiamo allora di poter trattare τ come ”piccolo”.
Sviluppando in serie di Taylor otteniamo:
n(x, t + τ ) = n(x, t) + τ
∂n
+ ...
∂t
.
(2.33)
Sviluppiamo poi n(x + ∆, t) in serie di Taylor rispetto a ∆:
n(x + ∆, t) = n(x, t) + ∆
∂n
1
∂2n
+ ∆2 2 + O(∆3 ) .
∂x 2!
∂x
(2.34)
Sostituendo nella (2.32), e usando la (2.33), otteniamo:
∂2n
∂n
=D 2,
∂t
∂x
dove abbiamo definito:
D=
˙
1
2τ
Z
∞
d∆ φ(∆, τ ) ∆2 ,
(2.35)
(2.36)
−∞
e dove abbiamo supposto che φ(∆) decresca in modo sufficientemente rapido da rendere trascurabili gli
integrali:
Z ∞
d∆ φ(∆, τ ) ∆n ,
per : n ≥ 3 .
(2.37)
−∞
(2)
La derivazione illustrata qui è quella sviluppata da A. Einstein [Ei56 pag. 14] nel 1905. La teoria ebbe un grande im-
patto, in quanto fornı̀ un argomento inoppugnabile a favore dell’ipotesi, al tempo ancora dibattuta, della struttura molecolare
della materia [Bru76 cap. 15]. Per un’altra derivazione vedi [Hec pag. 343]).
2.4
Evoluzioni: reversibile vs irreversibile
16
La (2.35) è la equazione della diffusione (per un sistema unidimensionale). La soluzione della (2.35)
corrispondente alla condizione iniziale: n(x, 0) =
˙ N δ(x), dove δ(x) è la delta di Dirac, è (vedi la (2.8)):
n(x, 0) = √
µ
¶
x2
N
exp −
.
4Dt
4πDt
(2.38)
Usando la (2.38) è facile calcolare (3) i seguenti valori medi (sulle N particelle):
­ 2®
x = 2Dt .
hxi = 0 ,
(2.40)
2.4 Evoluzioni: reversibile vs irreversibile
Consideriamo un sistema i cui stati, xr (r = 1, . . . , n), formino un insieme finito. Assumiamo che
l’evoluzione temporale del sistema sia discreta, nel senso che lo stato cambi solo agli istanti: ti = t0 + iτ
(i = 0, 1, 2, . . .), dove τ è un intervallo assegnato. Nel seguito scriveremo: ti =
˙ i. Conviene associare a
n
ogni stato xr un vettore, xr , di R :
xr =
˙ col (01 , . . . , 0r−1 , 1r , 0r+1 , . . . , 0n )
(2.41)
(”col” sta per ”colonna”). Per semplicità, qui e nel seguito prendiamo n = 3: i possibili stati sono allora:
¯ ¯
¯ ¯
¯ ¯
¯1¯
¯0¯
¯0¯
¯ ¯
¯ ¯
¯ ¯
x1 =
˙ ¯¯ 0 ¯¯ , x2 =
˙ ¯¯ 1 ¯¯ , x3 =
˙ ¯¯ 0 ¯¯ .
(2.42)
¯0¯
¯0¯
¯1¯
Introduciamo l’ ”operatore di evoluzione temporale dello stato”, rappresentato da una matrice 3 × 3 (in
generale: n × n), Q =
˙ {qhk }, tale che:
x(i + 1) =
˙ Q x(i) ,
cioè :
Ad esempio, sia Q =
˙ F, con:
xh (i + 1) =
¯
¯0
¯
Q=
˙ F=
˙ ¯¯ 0
¯1
X3
1
0
0
k=1
qhk xk (i) (h = 1, 2, 3) .
(2.43)
¯
0 ¯¯
1 ¯¯ .
0¯
(2.44)
L’azione di F sugli stati xr (r = 1, 2, 3) è:
F x1 = x3 ;
F x2 = x1 ;
F x3 = x2 .
(2.45)
Se all’istante i = 0 lo stato è, ad esempio, x(0) = x1 , l’evoluzione (2.43) (con Q =
˙ F) è
x(0) = x1 ,
x(1) = x3 ,
x(2) = x2 ,
x(3) = x1
(4)
ecc.
:
(2.46)
(l’evoluzione è periodica).
Assumiamo ora che i possibili stati non siano più limitati agli x (vedi (2.42)), ma formino un sinieme
(3)
Z
∞
−ax2
dx e
−∞
(4)
q
=
π
,
a
Z
∞
Z
−ax2
dx x e
−∞
∞
2
dx x2 e−ax =
= 0,
−∞
1
2a
q
π
.
a
(2.39)
La (2.45) potrebbe descrivere un moto casuale sui vertici di un triangolo: una particella, posta su uno dei vertici, a
ogni istante i ”salta”, su uno degli altri due vertici.
2.5
Evoluzioni irreversibili
17
continuo. Più precisamente, assumiamo che, per ogni terna (p1 , p2 , p3 ), dove i pr sono numeri non negativi
che soddisfano la relazione:
X3
pk = 1 ,
(2.47)
k=1
il vettore:
p=
˙ col (p1 , p2 , p3 ) =
˙ p1 x1 + p2 x2 + p3 x3 ,
(2.48)
sia un possibile stato del sistema. Assumiamo che l’evoluzione temporale degli stati p sia
p(i + 1) =
˙ Q p(i) ,
cioè :
ph (i + 1) =
X3
k=1
(5)
qhk pk (i) .
Se, ad esempio: p(0) = (1/2) col (1, 1, 0), e: Q =
˙ F, l’evoluzione di p(0) è:
¯ ¯
¯ ¯
¯ ¯
¯ ¯
¯1¯
¯1¯
¯0¯
¯1¯
¯
¯
¯
¯
¯
¯
1
1
1¯ ¯
1
p(0) = ¯¯ 1 ¯¯ , p(1) = ¯¯ 0 ¯¯ , p(2) = ¯¯ 1 ¯¯ , p(3) = ¯¯ 1 ¯¯ ,
2¯ ¯
2¯ ¯
2¯ ¯
2¯ ¯
0
1
1
0
:
(2.49)
ecc. .
(2.50)
Consideriamo una generica matrice Q, e assumiamo che Q sia indipendente dal ”tempo”. Segue che,
se lo stato a t = 0 è p(0), allora lo stato a t = N è:
p(N ) = QN p(0) .
(2.51)
Diciamo che uno stato p è ”stazionario rispetto a Q”, se vale la relazione:
Qp = p.
(2.52)
Un’evoluzione Q è ”irreversibile” se esiste uno stato stazionario, p∞ (assumiamo che p∞ sia unico), tale
che, per ogni stato iniziale p(0), sia:
lim QN p(0) = p∞ .
(2.53)
N →∞
È facile verificare che C è irreversibile. Ad esempio la applicazione iterata di C a p(0) =
˙ x1 dà la seguente
successione di stati:
¯ ¯
¯ ¯
¯ ¯
¯ ¯
¯ ¯
¯ ¯
¯ ¯
¯1¯
¯0¯
¯2¯
¯2¯
¯6¯
¯ 10 ¯
¯1¯
¯ ¯
¯ ¯
¯ ¯
¯ ¯
¯ ¯
¯ ¯
¯ ¯
1
1
1
1
1
1
¯0¯ ,
¯1¯ ;
¯1¯ ;
¯3¯ ;
¯5¯ ;
¯ 11 ¯ · · · −→ p∞ =
˙ ¯¯ 1 ¯¯ .
(2.54)
¯ ¯
¯ ¯
¯ ¯
¯ ¯
¯ ¯
¯ ¯
2
4
8
16
32
3
¯0¯
¯1¯
¯1¯
¯3¯
¯5¯
¯ 11 ¯
¯1¯
Inoltre, è ovvio che p∞ è stazionario; si dimostra poi (vedi il paragrafo seguente) che lo stato p∞ viene
raggiunto (nel senso della (2.53)) a partire da un p(0) qualunque. Quindi C è irreversibile.
Si noti che l’esistenza di uno stato stazionario non è sufficiente per l’irreversibilità. Infatti, è immediato
verificare che lo stato: p∞ =
˙ col (p, p, p), con p = 1/3 (vedi la (2.54)), è stazionario per per l’evoluzione
descritta da F (vedi (2.50)): F p∞ = p∞ . Tuttavia, p∞ soddisfa la (2.53) solo se p(0) = p∞ . Se
p(0) 6= p∞ , allora FN p(0) non tende a p∞ , e quindi l’evoluzione generata da F non è irreversibile.
L’irreversibilità di C è riconducibile al suo carattere probabilistico. Ad esempio, il primo passaggio
nella sequenza (2.54): p(0) −→ p(1), può essere visto come:
x1 −→ p2 x2 + p3 x3 ,
con :
p2 = p3 = 1/2 .
(2.55)
Quindi, se interpretiamo gli x come microstati e i p come macrostati (si noti che i microstati sono casi
particolari dei macrostati), la (2.55) implica che a t = 0 il sistema è con certezza nel microstato x1 , ma
a t = 1 si trova o in x2 (con probabilità 1/2) o in x3 (con probabilità 1/2). L’esempio (2.54) mostra che
evoluzione definita da C comporta una (progressiva) ”riduzione dell’informazione” su quale sia il microstato
(5)
Q deve soddisfare la condizione:
P
h qhk = 1
(k = 1, . . . , 3).
2.6
Evoluzioni irreversibili
18
del sistema.
Possiamo anche osservare che F fa corrispondere a uno stato, sia di tipo x che di tipo p, uno e un
solo stato (di tipo x o di tipo p)), mentre per C la corrispondenza è biunivoca solo per gli stati di tipo p.
In sintesi, possiamo affermare che F è ”microscopicamente (e anche macroscopicamente) deterministica”,
mentre C è deterministica solo macroscopicamente, o, come diremo nel seguito, ”microscopicamente non
deterministica”. Quanto sopra suggerisce che le evoluzioni microscopicamente deterministiche non sono
irreversibili.
2.5 Evoluzioni irreversibili
Possiamo verificare che C genera un’evoluzione irreversibile. Consideriamo la ”decomposizione spettrale” della matrice C. È facile verificare che gli autovettori ”destri” della matrice C (cioè i vettori che
soddisfano l’equazione: C d = λ d) sono:
¯ ¯
¯1¯
1 ¯¯ ¯¯
d1 =
˙ ¯1¯ ,
3¯ ¯
1
¯
¯
¯ 1 ¯
¯
¯
d2 =
˙ ¯¯ 0 ¯¯ ,
¯ −1 ¯
¯
¯
¯ 1 ¯
¯
¯
d3 =
˙ ¯¯ −2 ¯¯ .
¯ −1 ¯
(2.56)
con i corrispondenti autovalori:
λ1 = 1 ,
λ2 = λ 3 =
˙ − 1/2 ,
(2.57)
I vettori d sono normalizzati secondo la (2.47). Consideriamo anche gli autovettori sinistri (cioè i vettori
che soddisfano l’equazione: s C = λ s; gli s sono ”righe”):
s1 =
˙ |1 1 1| ,
s2 =
˙
1
|1 0 − 1| ,
2
s2 =
˙
1
|1 − 2 1|
6
(2.58)
dove i coefficienti sono scelti in modo da soddisfare la condizione (2.69). Indichiamo con i simboli [ds] le
matrici che si ottengono moltiplicando ”righe per colonne”: ad esempio:
¯ ¯
¯
¯1¯
¯1
¯
¯
1
1¯
[d1 s1 ] =
˙ ¯¯ 1 ¯¯ |1 1 1| = ¯¯ 1
3¯ ¯
3¯
1
1
1
1
1
¯
1 ¯¯
1 ¯¯ .
1¯
Con i simboli sd indichiamo invece i prodotti ”riga per colonna”, cioè i prodotti scalari: sd =
˙
(2.59)
P
h sh d h .
Sono soddisfatte le seguenti relazioni di ortogonalità:
si dj = δij .
(2.60)
È immediato verificare che, per un p arbitrario (che soddisfi la (2.47)), risulta:
[d1 s1 ] p = d1
(2.61)
(la (2.61) sarà usata più avanti). C può essere sviluppata come segue (6) :
C=
X3
k=1
1
1
λk [dk sk ] =
˙ [d1 s1 ] − [d2 s2 ] − [d3 s3 ] ,
2
2
(2.62)
Usando le (2.60) segue:
1
1
[d2 s2 ] − N [d3 s3 ] .
2N
2
P
Si potrebbe scrivere: sr =
˙ hr|, ds =
˙ |si. La (2.71) diventerebbe allora: C =
k λk |kihk|.
CN = [d1 s1 ] −
(6)
(2.63)
2.6
L’equazione di Liouville
19
Otteniamo allora:
lim CN = [d1 s1 ] .
(2.64)
N →∞
Se p(0) è un macrostato iniziale arbitrario, da (2.61) segue:
lim CN p(0) = [d1 s1 ] p(0) = d1 .
N →∞
Risulta inoltre che d1 è stazionario (vedi (2.52)) rispetto a C
(7)
(2.65)
:
C d1 = d1 .
(2.66)
In conclusione, per N → ∞ lo stato p(N ) tende allo stato stazionario d1 indipendentemente dallo stato
iniziale p(0). L’evoluzione (2.62) è dunque irreversibile.
2.6 L’equazione di Liouville
La discussione dei paragrafi precedenti suggerisce che una evoluzione microscopicamente deterministica non può essere irreversible. Ciò sarà confermato, qui di seguito, da una analisi della evoluzione
hamiltoniana. Consideriamo un sistema isolato, con N gradi di libertà, caratterizato da uno spazio delle
fasi accessibile continuo, Γ , con microstati x =
˙ {q, p} =
˙ (q1 , · · · , qN , p1 , · · · , pN ), da una hamiltoniana
H = H(x), e da una densità ρ(x, t). Cominciamo col ricavare l’equazione (differenziale) che definisce
l’evoluzione temporale di ρ(x, t): la ”equazione di Liouville”.
Siano t0 un istante di tempo, e x0 =
˙ {q0 , p0 } un punto di Γ . Indichiamo poi con
x = x(x0 , t0 ; t) =
˙ {q(q0 , p0 , t0 ; t), p(q0 , p0 , t0 ; t)}
(2.67)
la soluzione delle equazioni del moto:
q̇i =
˙
dqi
∂H
=
,
dt
∂pi
ṗj =
˙
dpj
∂H
=−
,
dt
∂qj
(2.68)
con la condizione iniziale: x(x0 , t0 ; t0 ) = x0 . Chiameremo il punto x(x0 , t0 ; t): ”evoluto temporale del
punto x0 nell’intervallo di tempo t − t0 ”. Chiameremo inoltre l’insieme degli evoluti di x0 per ogni t:
”traiettoria passante per x0 all’istante t0 ”. La corrispondenza: x0 → x(x0 , t0 ; t), è biunivoca.
Consideriamo, a un istante t0 , una generica regione γ(t0 ) ⊂ Γ (per semplicità, assumiamo che γ(t0 )
sia connessa). Sia σ(t0 ) la superficie che delimita γ(t0 ). Chiamiamo γ(t) la regione di Γ costituita dagli
evoluti dei punti di γ(t0 ) nell’intervallo t − t0 , e sia σ(t) la superficie che delimita γ(t). Per la biunivocità
dell’evoluzione temporale, i punti di σ(t) sono gli evoluti dei punti di σ(t0 ).
Sia ρ0 (x) una densità di probabilità su Γ assegnata all’istante t0 (densità ”iniziale”), e sia:
Z
P (γ(t0 )) =
˙
dx ρ0 (x) ,
(2.69)
γ(t0 )
la probabilità che il sistema abbia microstato in γ(t0 ) all’istante t0 . A un istante t i punti di γ(t0 ) si sono
spostati fino ad occupare una regione γ(t), e la densità ρ0 (x) si è anch’essa modificata (in generale) fino
a diventare una funzione che indichiamo con ρ(x, t). Tuttavia, la probabilità che il microstato del sistema
cada, all’istante t, in γ(t), cioè:
Z
P (γ(t)) =
˙
dx ρ(x, t) ,
(2.70)
γ(t)
(7)
Per una classificazione delle matrici
Q che ammettono uno stato stazionario, vedi: [Btl § 2.21], o [Fel cap. XVI].
2.6
L’equazione di Liouville
20
deve, per definizione di γ(t), essere uguale a P (γ(t0 )). Ciò implica:
dP
d
=
˙
dt
dt
Z
dx ρ(x, t) = 0 .
(2.71)
γ(t)
Mostriamo ora come dalla (2.71) si può derivare una equazione differenziale per ρ. È conveniente
adottare una notazione vettoriale: indichiamo allora il punto dello spazio con x, e sia u =
˙ ẋ =
˙ (q̇, ṗ) la
velocità del punto x all’istante t. Per definizione, abbiamo:
dP
1
=
˙ lim
τ →0 τ
dt
"Z
#
Z
ρ(x, t + τ ) dx −
ρ(x, t) dx .
γ(t+τ )
(2.72)
γ(t)
Ponendo γ(t + τ ) =
˙ γ(t) + δγ segue:
"ÃZ
#
Z !
Z
dP
1
=
˙ lim
+
ρ(x, t + τ ) dx −
ρ(x, t) dx =
τ →0 τ
dt
γ(t)
δγ
γ(t)
#
"Z
Z
ρ(x, t + τ ) − ρ(x, t)
= lim
dx +
ρ(x, t + τ ) dx =
τ →0
τ
γ(t)
δγ
¶
Z
Z µ
∂ρ
1
∂ρ
=
dx + lim
ρ(x, t) +
τ dx =
τ →0 τ δγ
∂t
γ(t) ∂t
Z
Z
∂ρ
1
=
dx + lim
ρ(x, t) dx .
τ →0 τ δγ
γ(t) ∂t
(2.73)
La regione δγ è quella compresa tra le superfici σ(t) e σ(t + τ ) (fig. 2.1). Sia dσ un elemento infinitesimo
della superficie σ(t): ad esso associamo un vettore di modulo uno, n, normale all’elemento e orientato
verso l’esterno della superficie. Nell’intervallo τ l’elemento dσ descrive un cilindro di altezza: |u(x, t)|τ ,
u
γ (t+dt)
n
dσ
dγ
u
Fig. 2.1 :
Moto nello spazio delle fasi di un volume
γ(t).
γ (t)
n
c L’integrale su δγ è allora uguale all’integrale su σ(t):
e di area della base: dσ cos(nu).
Z
Z
ρ dx =
δγ
Z
Z
~ ,
τ u(x, t) · dσρ
c dσρ =
τ |u(x, t)| cos(nu)
τ u · n dσρ =
σ(t)
σ(t)
(2.74)
σ(t)
~ =
dove dσ
˙ n dσ. La derivata (2.73) diventa allora:
dP
=
dt
Z
γ(t)
∂ρ
dx +
∂t
Z
Z
·
~ =
ρ(x, t) u(x, t) · dσ
σ(t)
γ(t)
¸
¡
¢
∂ρ
+ ∇ · ρ(x, t) u(x, t) dx ,
∂t
(2.75)
dove ∇ · (ρu) è la divergenza del vettore ρu. In virtù della (2.71), la (2.75) deve essere nulla per ogni
regione γ(t): quindi ρ deve soddisfare l’equazione differenziale:
∂ρ
+ ∇ · (ρ u) = 0 ,
∂t
(2.76)
2.7
Il coarse graining
21
che conviene scrivere come:
µ
dove:
¶
∂
Dρ
+ u · ∇ ρ + ρ∇ · u =
˙
+ ρ∇ · u = 0,
∂t
Dt
¸
N ·
X
X dxi ∂
∂
∂
D
∂
∂
=
˙
q̇i
+ ṗi
=
˙
+
+
Dt
∂t
dt ∂xi
∂t i=1
∂qi
∂pi
i
L’operatore differenziale D/Dt è la ”derivata lungo la traiettoria”.
La velocità u soddisfa la condizione:
∇ · u = 0.
(2.77)
(2.78)
(2.79)
Infatti, dalle (2.68) segue:
∇·u =
˙
¸ X
¸
N ·
∂ ṗi
∂ ∂H
∂ ∂H
+
=
−
= 0.
∂qi
∂pi
∂qi ∂pi
∂pi ∂qi
i=1
N ·
X
∂ q̇i
i=1
(2.80)
Dalla (2.80) e (2.76) segue che la densità ρ(x, t) deve soddisfare l’equazione:
Dρ
= 0,
Dt
(2.81)
con la condizione iniziale: ρ(x, t0 ) = ρ0 (x). Un’altra utile espressione della (2.81) è:
∂ρ
+ [ρ, H] = 0 ,
∂t
(2.82)
dove [· , ·] è la parentesi di Poisson. Le (2.81) e (2.82) sono forme equivalenti della ”equazione di Liouville”:
essa è l’equazione fondamentale della meccanica statistica (classica) di non equilibrio. Dato il significato
dell’operatore differenziale D/Dt (vedi la (2.78)), la (2.81) significa che ρ evolve in modo da rimanere
”costante lungo la traiettoria” (8) . Si noti che le ”ρ di equilibrio”, cioè le ρ che soddisfano la (1.4), sono
le soluzioni della (2.82) che sono anche costanti del moto, cioè tali che sia: [ρ, H] = 0. Indicando con x0
il punto tale che la traiettoria, che ”parte” da x0 all’istante t0 , ”arriva” in x dopo un intervallo t − t0 ,
l’evoluzione prevista dalla (2.81) può essere espressa anche come:
ρ(x, t) = ρ0 (x0 ) .
(2.83)
Consideriamo poi il volume, |γ(t)|, della regione γ(t):
Z
|γ(t)| =
˙
dx .
(2.84)
γ(t)
Il volume |γ(t)| è definito da un integrale analogo all’integrale (2.70), con la sola differenza che la funzione
ρ è ora sostituita dalla funzione 1. La derivata temporale di |γ(t)| è allora (vedi la seconda delle (2.75), e
la (2.79)):
Z
d|γ|
=
∇ · u(x, t) dx = 0 , da cui : |γ(t)| = |γ(t0 )| .
(2.85)
dt
γ(t)
La seconda delle (2.85) vale, evidentemente, anche per una regione di volume infinitesimo: indicando
allora con dx0 un elemento di volume all’istante t0 (qui usiamo lo stesso simbolo per la regione e per il suo
volume), e con dx il suo evoluto all’istante t, la seconda delle (2.85) si scrive:
dx = dx0
(8)
(2.86)
Un fluido che si muove mantenendo costante la densità è un fluido ”incomprimibile”; quindi la (2.79) mostra che il
moto del fluido costituito dai punti dello spazio delle fasi (”fluido di fase”) è incomprimibile.
2.7
Il coarse graining
22
(oppure, nella notazione non vettoriale del § 1.1: dx = dx0 ). Le (2.85) e/o (2.86) esprimono il fatto che, per
un sistema hamiltoniano, il volume di una regione dello spazio delle fasi è una costante del moto (”teorema
di Liouville” (9) ).
2.7 Il coarse graining
In termodinamica, le trasformazioni irreversibili di un sistema isolato sono accompagnate da un aumento dell’entropia. Se ci limitiamo a trasformazioni sufficientemente lente, rispetto ai tempi caratteristici
della dinamica microscopica, da poter assumere che il sistema sia, a ogni t, ”quasi in equilibrio” (vedi
anche la nota 3 al § 3.3), diventa fisicamente accettabile introdurre una ”entropia dipendente dal tempo”,
S(t). Scriviamo allora le (1.8) e (1.11) come:
S(t) =
˙ − kB
Xn
r=1
pr (t) ln pr (t) .
(2.87)
dove le p(t) sono ”probabilità dipendenti dal tempo”. Analogamente, la (1.16) diventa:
Z
£
¤
S(t) =
˙ − kB
dµ ρ(x, t) ln Σ0 ρ(x, t) .
(2.88)
Σ(E)
L’evoluzione di S(t) è determinata da quella di p(t). È immediato verificare che le evoluzioni di
tipo deterministico lasciano invariata S(t)! Nel caso dell’evoluzione discreta, è sufficiente considerare
l’evoluzione da un i a i+1 (usiamo le notazioni del § 2.4). Sia p(i) =
˙ (p1 , p2 , p3 ). Segue: p(i+1) =
˙ F p(i) =
(p2 , p3 , p1 ), e quindi:
S(i + 1) =
˙ − kB
X3
k=1
pk (i + 1) ln pk (i + 1) = −kB
X3
h=1
ph (i) ln ph (i) =
˙ S(i) .
(2.89)
L’invarianza di S rispetto a F è dovuta al fatto che la probabilità del microstato ”iniziale”, xr (i), e qualla
del microstato ”finale”( secondo le (2.45)), xs (i + 1), sono uguali: ps (i + 1) = pr (i). Quindi F cambia
l’ordine dei p nell’insieme (p1 , p2 , p3 ), ma non i valori: l’uguaglianza S(i + 1) = S(i) è allora ovvia. Per
un’evoluzione continua (hamiltoniana) il comportamento di ρ(x, t) è analogo (vedi la (2.83)); la verifica
dell’invarianza di S(t) per l’evoluzione hamiltoniana è illustrata nell’es. 2.3.
Γ
Γ
Fig. 2.2:
Filamentazione (con conservazione del volume)
di una regione iniziale
γ.
γ (0)
γ(τ)
Una conferma della contraddizione tra evoluzione microscopicamente deterministica ed irreversibilità
segue, nel caso hamiltoniano, dall’evoluzione di ∂ρ/∂t. È facile verificare che per un sistema con hamiltoniana indipendente da t (cioè per un sistema isolato), l’equazione di Liouville implica che ∂ρ/∂t rimane
costante lungo la traiettoria. Infatti, dalla (2.82) otteniamo:
·
¸
·
¸
·
¸ ·
¸
D ∂ρ
∂ ∂ρ
∂ρ
∂
∂ρ
∂ρ
∂ρ
=
˙
+
, H = − [ρ, H] +
,H = −
,H +
,H = 0
(2.90)
Dt ∂t
∂t ∂t
∂t
∂t
∂t
∂t
∂t
(9)
Il teorema di Liouville può essere dimostrato anche utilizzando il fatto che il moto generato dalle equazioni di Hamilton
equivale ad una trasformazione canonica, e che lo jacobiano di una trasformazione canonica è 1 ([Gol § 9.4], [Re80 § 7.B])
2.8
Il coarse graining
23
(se ∂H/∂t = 0). Ricordiamo ora che un sistema in equilibrio è caratterizzato da una ρ stazionaria (vedi la
(1.4)). La (2.90) mostra che, se ρ è assegnata inizialmente, a un istante t0 , come ”di equilibrio” (∂ρ/∂t = 0,
a t = t0 ), allora essa rimane di equilibrio per ogni t. Analogamente, se ρ è assegnata a t = t0 come ”di
non equilibrio” (∂ρ/∂t 6= 0, a t = t0 ), essa rimane di non equilibrio per ogni t. In altri termini, una ρ di
non equilibrio non tende alla ρ di equilibrio!
Per descrivere processi ireversibili, è dunque necessario che ρ evolva diversamente da come prescritto
dall’equazione di Liouville (consideriamo ora sistemi hamiltoniani), cioè in modo microscopicamente non
deterministico (MnD). Un modo per indurre una evoluzione MnD è suggerito dalla teoria ergodica. Consideriamo un sistema isolato, tale che a un istante t = 0 la corrispondente densità di probabilità, ρ(x, 0),
sia non nulla in una sottoregione dello spazio delle fasi, che nella fig. 2a è indicata con γ(0); indichiamo
con |γ(0)| il volume di γ(0). Per semplicità, assumiamo che ρ(x, 0) sia costante su γ(0), e indichiamo
con ρ0 il relativo valore: ρ0 = 1/|γ(0)|. ρ(x, 0) non soddisfa la condizione di equilibrio (1.4), e il sistema
in questione non è in equilibrio. Sia γ(t) la regione evoluta di γ(0) a un tempo t > 0. La densità di
probabilità al tempo t, ρ(x, t), è costante su γ(t), e il relativo valore, ρt , è, per il teorema di Liouville
(2.85): ρt = 1/|γ(t)| = 1/|γ(0)|.
L’evoluzione descritta sopra è quella, microscopicamente deterministica, prevista dall’equazione di
Liouville. In linea di principio, essa potrebbe osservata: sarebbe sufficiente disporre a t = 0 di un
numero grande, N , di sistemi identici non interagenti (un ensemble di sistemi), distribuiti con densità n0 (numero di sistemi per unità di volume nello spazio delle fasi) uniforme in γ(0); per N →
∞ abbiamo: n0 /N → ρ0 . Al tempo t potremmo osservare la densità nt in γ(t), e, per N → ∞,
troveremmo: νt /N → ρt . Tuttavia, la suddetta osservazione richiederebbe misure capaci di determinare la posizione esatta di un sistema nello spazio delle fasi. Per un sistema macroscopico, misure
di questo tipo, dette ”fine grained” (”a grana fine”), non sono realizzabili (§ 1.2). Consideriamo allora le misure che realisticamente sono realizzabili: quelle di tipo ”coarse grained” (”a grana grossa”).
Fig. 2.3 :
Coarse graining nello spazio delle fasi. Il valore della
densità
ρ è indicato dalla intensità di grigio.
Per descrivere un modello, estremamente schematizzato, di misura coarse grained, cominciamo col
suddividere lo spazio delle fasi in un reticolo di celle, γj , di dimensioni corrispondenti al potere risolutivo
degli strumenti disponibili. Assumiamo che la massima informazione, sulla posizione del sistema nello
spazio delle fasi, ottenibile dalla misura sia: ”in quale cella si trova” (e non: ”in quale punto si trova”).
Consideriamo allora l’ensemble di cui sopra, e assumiamo che la regione iniziale, γ(0), coincida con la
cella γi . L’evoluzione esatta, da γ(0) a γ(t) è tale che (salvo casi eccezionali, come quello rappresentato
nella fig. 1.1b), γ(t) si ”filamenta” (10) , come indicato nella fig. 2b. Se la misura è di tipo coarse grained,
non potremo osservare il ”filamento” γ(t), ma solo una sua immagine ”a grana grossa”, come suggerito
dalla fig. 2.3. Chiamiamo γc (t) la regione costituita dalle celle (della partizione) toccate da γ(t). La ρ
osservata all’istante t non sarà la ρ dell’evoluzione esatta (”costante su γ(t)”), ma sarà una ρc (x, t) (”ρ
coarse grained”), definita su γc (t). Ciò implica che all’istante t la ρ è non nulla su una regione di volume
maggiore del corrispondente volume a t = 0: deve allora esistere almeno un punto di γc (t) in cui il valore di
(10)
La ”filamentazione” nasce dalla instabilità caratteristica (salvo eccezioni) dei moti microscopici dei sistemi fisici: due
traiettorie che partono da punti iniziali anche molto vicini tendono negli istanti successivi ad allontanarsi [Bal app. A.6].
2.8
Esercizi
24
ρ è più piccolo del minimo di ρ in γ(0). L’evoluzione coarse grained quindi non è hamiltoniana: essa è MnD
(fig. 2.3). Sia τ un tempo caratteristico della dinamica microscopica (11) . A un istante t À τ , la regione
iniziale γ(0) si sarà filamentata al punto da ”riempire” tutto lo spazio accessibile (consistentemente con il
comportamento ergodico!): la corrispondente regione γc (t) coinciderà allora con tutto lo spazio accessibile,
e la successiva evoluzione (coarse grained!) non modificherà la situazione (per un esempio numerico, vedi
[Re80 § 8.C]). Il sistema avrà cosı̀ raggiunto l’equilibrio!
2.8 Esercizi
Esercizio 2.1 Una matrice di transizione irreversibile.
Consideriamo un sistema che può trovarsi in due stati. Supponiamo che la sua evoluzione (nel senso
del § 4) sia definita dalla matrice [Fel § XVI.2]:
¯
¯
¯1 − p
α ¯¯
¯
Q=
˙ ¯
,
p
1 − α¯
con : 0 < p, α < 1 .
(2.91)
Calcolare lo stato p∞ tale che Qp∞ = p∞ (stato stazionario).
Soluzione: Gli autovalori della (2.91) sono:
λ1 = 1 ,
λ2 = 1 − α − p ,
(2.92)
e i corrispondenti autovettori destri e sinistri sono:
¯ ¯
¯α¯
d1 = ¯¯ ¯¯ ,
p
Si ottiene:
¯
¯
¯ 1 ¯
¯
¯;
d2 = ¯
−1 ¯
s1 =
¯
1 ¯¯ α
Q = Q1 + (1 − α − p) Q2 =
˙
α+p¯p
1
|1 1| ,
α+p
s2 =
1
|p − α| .
α+p
¯
¯
¯
1 ¯¯ p −α ¯¯
α ¯¯
+ (1 − α − p)
.
p¯
α + p ¯ −p α ¯
(2.93)
(2.94)
Usando il fatto che 1 − α − p < 1, per N → ∞ abbiamo: limN →∞ QN = Q∞ , con
Q∞
Posto:
p∞
¯
1 ¯¯ α
= Q1 =
˙
α+p¯p
¯ ¯
1 ¯¯ α ¯¯
=
,
α+p¯p¯
risulta :
¯
α ¯¯
.
p¯
(2.95)
Q∞ p∞ = p∞ .
(2.96)
Il vettore p∞ è dunque lo stato stazionario cercato.
Esercizio 2.2 Equazione di Liouville classica.
a) Per una particella libera di massa m in moto libero su una retta sia assegnata, all’istante t◦ , la
densità di probabilità:
ρ0 (q, p) =
˙
·
¸
1
1
1
2
exp − 2 (p − p)2 −
(q
−
q)
,
2πQP
2P
2Q2
con
− ∞ < q, p < ∞ ,
(2.97)
dove (q, p, Q, P ) sono costanti. Calcolare la densità di probabilità a un istante t (> t◦ ), e discuterne il
significato fisico.
Soluzione: per calcolare ρ(q, p, t) è necessario (vedi il § 5) determinare il punto (q0 , p0 ) tale che la
(11)
Per un gas in condizioni normali, τ è l’intervallo di tempo medio tra due urti molecolari: τ ≈ 6 · 10−10 sec [Rei § 12.2]).
2.8
Esercizi
25
traiettoria, (q(t), p(t)), che passa per (q, p) all’istante t, passi per (q0 , p0 ) all’istante t0 . La traiettoria che
passa per (q0 , p0 ) all’istante t0 è:
p0
(2.98)
p(t) = p0 ,
q(t) = (t − t0 ) + q0 .
m
(q0 , p0 ) seguono dalla ulteriore condizione: p(t) = p , q(t) = q. Segue:
p
p0 = p ,
q0 = q − (t − t0 ) .
(2.99)
m
Segue infine, applicando la (2.83) (e posto v =
˙ p/m):
·
¸
1
1
1
2
ρ(q, p, t) =
˙ ρ0 (q0 , p0 ) =
exp − 2 (p − p)2 −
q
−
v
(t
−
t
))
.
(2.100)
(q
−
0
2πQP
2P
2Q2
b) Verificare che la (2.100) è soluzione dell’equazione di Liouville.
c) Calcolare, con le ρ di cui sopra, i valori medi hqi al tempo t0 e, rispettivamente, al tempo t.
d) Per la particella libera del punto (a), verificare che se f (q, p) è una funzione derivabile arbitraria,
allora la soluzione dell’equazione di Liouville, con condizione iniziale ρ0 (q, p) = f (q, p), è: ρ(q, p, t) =
f (q − v(t − t0 ) , p).
Esercizio 2.3 Conservazione dell’entropia.
Sia ρ(x, t) una soluzione di una equazione di Liouville per una hamiltoniana indipendente dal tempo.
Definiamo una ”entropia dipendente dal tempo”, S(t), come:
Z
£
¤
S(t) =
˙ − kB
dx ρ(x, t) ln Γ0 ρ(x, t) .
(2.101)
Γ
Mostrare che S(t) non dipende da t.
Soluzione: Ricordiamo che l’evoluzione di ρ è descritta dalla condizione: ρ(x, t) = ρ0 (x0 ) (vedi la
(2.83)), dove x0 è il punto tale che la traiettoria, x = x(x0 ; t), che ”parte” da x0 all’istante t0 =
˙ 0, ”arriva”
in x dopo un intervallo t. Conviene usare i simboli seguenti:
x(x0 ; t) =
˙ Ut x0 ,
(2.102)
dove Ut è l’ ”operatore di evoluzione temporale”; è chiaro che Ut ammette un inverso, che indichiamo con
Ut−1 . Scriviamo allora la (2.83) come:
¡
¢
ρ(x, t) = ρ0 Ut−1 x .
(2.103)
L’entropia S(t) diventa:
Z
S(t) =
˙ − kB
Γ
¡
¢ £
¡
¢¤
dx ρ0 Ut−1 x ln Γ0 ρ0 Ut−1 x .
(2.104)
Nella (2.104), possiamo cambiare variabile di integrazione. Poniamo:
x0 =
˙ Ut−1 x ,
Segue:
Z
S(t) =
˙ − kB
cioè :
x=
˙ Ut x0 .
£
¤
d (Ut x0 ) ρ0 (x0 ) ln Γ0 ρ0 (x0 ) .
(2.105)
(2.106)
Γ
Ricordiamo che l’evoluzione temporale può essere vista come una trasformazione canonica, dalle coordinate
x0 alle Ut x0 , e che il modulo dello jacobiano di una trasformazione canonica è 1 [Re80 § 7.B]. Segue:
¯ µ
¶¯
¯
Ut x0 ¯¯ 0
0
0
d (Ut x ) = ¯¯J
(2.107)
¯ dx = dx
x0
(si noti che la (2.107) è consistente con la (2.86)). Dalla (2.106) segue allora [Pen es. 3.4.1]:
Z
£
¤
S(t) =
˙ − kB
dx0 ρ0 (x0 ) ln Γ0 ρ0 (x0 ) =
˙ S(0) .
Γ
(2.108)
3
Termodinamica
La meccanica statistica di equilibrio è la teoria che ”spiega” i fenomeni descritti dalla termodinamica.
L’opportunità di richiamare, in un corso di meccanica statistica, i concetti base della termodinamica
è quindi ovvia. Esistono diverse formulazioni della termodinamica: qui illustriamo la formulazione ”di
Gibbs”, perchè la sua struttura logica e matematica è quella che più si avvicina a quella della meccanica
statistica (1) .
3.1 La rappresentazione dell’entropia
L’esperienza mostra che per ogni sistema termodinamico esiste un numero massimo di ”variabili
indipendenti” (cioè controllabili dallo sperimentatore indipendentemente l’una dalle altre), tali che ogni
quantità termodinamica del sistema è esprimibile come funzione di esse. In generale sono possibili diverse
scelte per l’insieme delle variabili indipendenti (ad esempio, per un gas: (U, V, N ), (T, V, N ), (T, P, N ),
ecc.). Alle varie scelte corrispondono formulazioni diverse, ma equivalenti, delle proprietà termodinamiche
del sistema, dette ”rappresentazioni”. Cominciamo dalla ”rappresentazione dell’entropia”.
Per concretezza, consideriamo un gas di N molecole di un solo tipo, confinate in un volume V , e isolato
termicamente e meccanicamente; sia U la sua energia interna. Le variabili U, V, N sono indipendenti.
Un dato insieme (U, V, N ) definisce uno ”stato termodinamico” (o, più brevemente, ”stato”) del gas; è
sottinteso che lo stato è ”di equilibrio”, cioè stazionario (cioè tale che tutte le grandezze termodinamiche
sono costanti nel tempo). Un dato empirico fondamentale è che esiste una funzione, S = S(U, V, N ), che
risulta coincidere con l’entropia, e che gode della proprietà seguente:
S1 ) S è una funzione ad un sol valore e derivabile di U, V, N , con:
¯
∂S
∂S ¯¯
=
˙
> 0,
∂U
∂U ¯V,N
¯
∂S ¯¯
∂S
=
˙
> 0.
∂V
∂V ¯U,N
(3.1)
Tutte le variabili termodinamiche del sistema (diverse da U, V, N ) si ottengono da S(U, V, N ) (nel
modo che vedremo).
Per il suo ruolo, S è chiamata ”funzione fondamentale” della rappresentazione dell’entropia (come vedremo,
ogni rappresentazione ha la sua funzione fondamentale). Qui di seguito elenchiamo altre proprietà della
funzione S. È bene sottolineare che esse sono di natura empirica: quindi non si pone, a livello della
termodinamica, il problema di ”giustificarle” (tale compito spetta alla meccanica statistica!).
Adottiamo i seguenti simboli per le derivate di S rispetto alle variabili indipendenti:
1
∂S
P
∂S
µ
∂S
=
˙
,
=
˙
,
=
˙ − .
(3.2)
∂U
T
∂V
T
∂N
T
T, P, µ risulteranno essere, rispettivamente, la temperatura, la pressione, e il ”potenziale chimico”, una
importante quantità collegata con l’equilibrio ”materiale”, cioè con l’equilibrio rispetto allo scambio di
molecole (vedi l’es. 3.3). In virtù delle (3.2), il differenziale della funzione S(U, V, N ) si scrive:
dS =
˙
(1)
P
µ
1
dU + dV − dN.
T
T
T
(3.3)
Un’altra formulazione è quella ”di Clausius”, basata essenzialmente sulla seconda legge della termodinamica [MNV1].
3.1
La rappresentazione dell’entropia
27
Si noti che −µ/T rappresenta la variazione di S conseguente alla aggiunta di una molecola a U, V costanti;
µ può assumere valori negativi, nulli, o positivi (2) . La giustificazione empirica della (3.3) sta nella relazione:
dS =
1 –
(dQ − µ dN ) ,
T
(3.4)
dove
– =
dQ
˙ dU + P dV
(3.5)
(Q è il ”calore”). La (3.5) è l’espressione della ”prima legge della termodinamica” nel caso in cui N sia
– =
costante (se N può variare, la prima legge si scrive: dQ
˙ dU + P dV − µ dN [Cal § 2.1]). Per un sistema
– =
– , dove dW
– è il ”lavoro” (per i gas: dW
– =
generico, la (3.5) si scrive: dQ
˙ dU − dW
˙ − P dV ; per un esempio
di lavoro in un sistema diverso dal gas, vedi [Re80 § 2.D.2]).
I differenziali dS, dU, ecc., corrispondono, fisicamente, alle variazioni (di S, U, ecc.) che si realizzano
quando il sistema è soggetto a opportune trasformazioni infinitesime reversibili (3) (qui assumiamo che la
nozione di ”trasformazione” sia ovvia; per una discussione formale vedi, ad esempio, [Mu70 § 6]). Esistono
anche trasformazioni irreversibili (o spontanee), caratterizzate da variazioni δS tali che sia:
δS >
δQ
.
T
(3.6)
Consideriamo una trasformazione infinitesima reversibile su un sistema con V, N costanti: la variazione
di S è allora: (δS)V,N = (1/T ) (δU )V,N . La variazione dell’energia interna a V, N costanti, (δU )V,N , ora
coincide con il calore scambiato, (δU )V,N = (δQ)V,N . Per una trasformazione infinitesima reversibile a
V, N costanti abbiamo allora: (δQ)V,N = T (δS)V,N . In termini di (δQ)V,N si costruisce una quantità di
cui faremo uso in seguito: la ”capacità termica a V, N costanti”, definita come il rapporto tra la quantità
di calore, δQ, fornita al sistema reversibilmente e a V, N costanti, e la corrispondente variazione della
temperatura, δT :
¯
¯
δQ ¯¯
δS ¯¯
CV,N =
˙ lim
= T lim
.
(3.7)
δT →0 δT ¯V,N
δT →0 δT ¯V,N
Sperimentalmente risulta:
CV,N > 0
(3.8)
(eccezionalmente può essere: CV,N = 0, e nei punti critici può risultare CV,N = ∞ [Sta § 3.2]). La (3.8) è
una condizione di ”stabilità” (§ 7). Consideriamo infatti un sistema, A, in condizioni di poter scambiare
calore con un secondo sistema, B: supponiamo che a un dato istante A e B abbiano la stessa temperatura
(allora A e B sono ”in equilibrio termico”). Supponiamo poi che, a un istante successivo, B ceda ad A una
quantità di calore (infinitesima) δQ: se la (3.8) è verificata, la temperatura di A aumenta (e quella di B
diminuisce). Quindi il calore acquistato da A può rifluire da A a B, e le temperature tendono a ritornare
al valore di equilibrio: il sistema A + B è dunque ”stabile”. Se invece la (3.8) non è verificata (cioè se
risulta C < 0), il sistema A + B risulta ovviamente ”instabile”.
Le (3.2) esprimono T , P , e µ come funzioni di U, V, N :
T = T (U, V, N ) ,
(2)
P = P (U, V, N ) ,
µ = µ(U, V, N ) .
(3.9)
Per esempio, per il gas ideale quantistico (Bose e Fermi) risulta µ < 0 per T opportunamente grande; invece, per T
opportunamente bassa risulta µ = 0 per il gas di Bose (per un gas di fotoni risulta µ = 0 per ogni T : vedi l’es. 3.4), e µ > 0
per il gas di Fermi. Per T → ∞ il gas quantistico ”diventa classico” (cap. 7): quindi per il gas ideale classico risulta µ < 0.
Il segno meno nella definizione di µ (vedi la terza delle (3.2)) assicura che µ ha, rispetto allo scambio di particelle, lo stesso
ruolo di T rispetto allo scambio di calore (es. 3.3d).
(3)
Le trasformazioni reversibili sono trasformazioni ”ideali”: una realizzazione approssimata di una trasformazione re-
versibile è una trasformazione che avviene con tempi caratteristici molto più lunghi dei tempi di rilassamento del sistema, in
modo da consentire al sistema di essere sempre ”quasi in equilibrio” (trasformazioni ”quasi statiche” [Cal § 1.7]).
3.2
Lo stato di equilibrio
28
Le (3.9) sono le ”equazioni di stato”. Qualora S non fosse nota, ma fossero note (ad esempio sperimentalmente) le funzioni (3.9), l’integrazione del differenziale (3.3) permetterebbe di determinare la funzione
S = S(U, V, N ) (per un esempio, vedi l’es. 3.5). Un’altra proprietà di S è:
S2 ) L’entropia è una funzione omogenea di grado uno:
S(λU, λV, λN ) = λ S(U, V, N ) ,
(3.10)
dove λ è un numero arbitrario.
Le variabili U, V, N sono dette ”estensive”, mentre T, P, µ, cosı̀ come U/V , U/N , V /N , ecc., sono dette
”intensive”: in genere sono chiamate ”estensive” le quantità proporzionali a V (o a N , o a U ), ed ”intensive”
quelle che non dipendono separatamente da V (o da N , o da U ), ma solo da combinazioni come V /N o
simili. La (3.10) implica che anche S è estensiva (basta prendere, ad esempio, λ = 1/N ).
Dalla omogeneità dell’entropia segue la importante ”relazione di Eulero”:
S=
1
P
µ
U + V − N.
T
T
T
(3.11)
Infatti, poniamo: U 0 =
˙ λU , ecc., e deriviamo la (3.10) rispetto a λ:
U
∂
S(U 0 , V 0 , N 0 ) + . . . = S(U, V, N ).
∂U 0
(3.12)
Le derivate ∂S(U 0 , ...)/∂U 0 sono funzioni di (U 0 , ...); per λ = 1 esse diventano funzioni di (U, ...). Segue:
¯
¯
∂
1
∂
0
0
0 ¯
U
S(U , V , N )¯
S(U, V, N ) + . . . =
˙ U + . . . = S.
(3.13)
+ ... =
˙ U
0
∂U
∂U
T
λ=1
Dalle (3.11) e (3.3) segue la ”relazione di Gibbs-Duhem” [Cal § 3.2]:
Ud
1
P
µ
+ V d − N d = 0.
T
T
T
(3.14)
La (3.14) può essere immediatamente trasformata in una equazione differenziale che permette poi esprimere
una delle variabili T, P, µ in funzione delle altre (es. 3.1). Un’altra proprietà di S è:
S3 ) L’entropia di un sistema composto di due sottosistemi in equilibrio tra di loro è la somma
delle rispettive entropie: S = S1 + S2 (”additività dell’entropia”).
Nel caso in cui le funzioni S per i due sottosistemi, che assumiamo caratterizzati da U1 , V1 , N1 e, rispettivamente, U2 , V2 , N2 , abbiano la stessa forma (cioè nel caso in cui i due sottosistemi siano dello stesso tipo),
la additività dell’entropia si esprime come:
S(U1 + U2 , V1 + V2 , N1 + N2 ) = S(U1 , V1 , N1 ) + S(U2 , V2 , N2 ) .
(3.15)
3.2 Lo stato di equilibrio
Analizziamo i meccanismi con i quali i valori delle variabili termodinamiche di un sistema in uno
stato di equilibrio si mantengono stazionari. Consideriamo, per esempio, la densità di un gas (in equili-
3.2
Lo stato di equilibrio
29
brio, e non soggetto a forze esterne, come la gravità). È ”ovvio” che la densità ha un valore costante nel
tempo, e uniforme nello spazio. Il meccanismo microscopico che mantiene la densità costante e uniforme
è di natura cinetica. Infatti, se osserviamo la densità ”locale” in un punto (numero di molecole in un
volume ”molto piccolo” contenente quel punto), vediamo che, per effetto dei movimenti, essenzialmente
casuali, delle molecole, essa varia (”fluttua”) da istante a istante. Quindi, istante per istante la densità
non è affatto uniforme. Tuttavia, le molecole collidono tra di loro, e una molecola subisce mediamente
più urti che tendono a farla uscire da una regione ad alta densità, che urti che tendono a farcela entrare.
Di conseguenza, ogni fluttuazione in cui la densità aumenta è seguita da una in cui essa diminuisce, e
viceversa, con la conseguenza che in media (media temporale, nello spirito dell’ipotesi ergodica) la densità
rimane uniforme. Analogamente, se il gas viene preparato in una condizione di non equilibrio in cui la
densità è non uniforme, e poi viene lasciato evolvere autonomamente, le fluttuazioni che tendono a ridurre
la disuniformità sono più frequenti e più ”intense” di quelle che tendono a mantenerla (o ad aumentarla),
per cui la densità tende, in media, all’uniformità.
Il meccanismo macroscopico invocato dalla termodinamica per mantenere costante la densità, è invece
basato sull’entropia. Consideriamo un sistema (il gas) in uno stato di equilibrio, a. Assumiamo che il
sistema sia mantenuto in a da opportuni ”vincoli” (ad esempio, le pareti di un contenitore). Supponiamo
che, ad un certo istante, uno dei vincoli venga modificato, in modo che il sistema cessi di essere in equilibrio (ad esempio, supponiamo che il volume del contenitore venga fatto aumentare, come nella ”espansione
alla Joule” [MNV1 § 11.5]). Supponiamo inoltre che la modificazione del vincolo sia istantanea, e che
dopo di essa il sistema non sia più disturbato. L’osservazione dice che, a partire dall’istante successivo
alla modificazione del vincolo, il sistema esegue una trasformazione irreversibile verso un nuovo stato di
equilibrio, b. Si osserva infine che la variazione di S nella trasformazione è positiva: ∆S =
˙ Sb − Sa > 0.
Quanto osservato sopra per un gas risulta valere in generale: un sistema isolato che non sia in equilibrio
(evitiamo di usare l’espressione ”stato di non equilibrio”!) evolve sempre verso uno stato di equilibrio,
e che nel corso di tale evoluzione la funzione S aumenta; inoltre, l’evoluzione termina quando il sistema
raggiunge lo stato di equilibrio, che risulta essere quello in cui S è ”massima” (nel senso che preciseremo
tra poco). Il meccanismo termodinamico che impedisce ad un sistema di uscire (spontaneamente) da uno
stato di equilibrio è quindi basato sul fatto che in una evoluzione spontanea l’entropia aumenta, e che non
ci può essere evoluzione spontanea a partire da uno stato di equilibrio perchè ”in uno stato di equilibrio
l’entropia è già massima”.
Per chiarire in che senso ”l’entropia è massima in uno stato di equilibrio”, è necessario definire
l’entropia per un sistema che non sia in uno stato di equilibrio. Poichè l’entropia, come qualunque altra grandezza termodinamica, è definita solo per stati di equilibrio, è necessario definire stati di equilibrio
che corrispondano in qualche modo alla condizione di un sistema che non sia in uno stato di equilibrio:
questi sono gli ”stati di equilibrio vincolato” [Cal § 1.9], che definiamo qui di seguito. Con riferimento
al gas di cui sopra, immaginiamo una parete rigida e fissata, ma permeabile alle molecole, che divida il
volume occupato dal gas, V , in due sottovolumi V1 e V2 , con V1 + V2 = V , in modo che, a un determinato
istante, V1 e V2 contengano, rispettivamente, N1 ed N2 molecole, con N1 + N2 = N (e con energie interne
U1 e U2 , con U1 + U2 = U ). Se risulta (N1 /V1 ) 6= (N2 /V2 ), allora, a quell’istante, si è in presenza di
una fluttuazione della densità. In quell’istante il gas non si trova, ovviamente, in uno stato di equilibrio,
e quindi non possiamo calcolare S. Tuttavia, possiamo ”stabilizzare la fluttuazione”, immaginando di
”impermeabilizzare” (a quell’istante) la parete, in modo da ”bloccare” i valori di N1 ed N2 . Come risultato di questa operazione abbiamo ottenuto uno stato di equilibrio ”vincolato” (il ”vincolo” è, in questo
caso, la parete impermeabilizzata). Sottolineiamo che il vincolo è un artificio mentale che permette di
”stabilizzare le fluttuazioni” e quindi di definire S in presenza di una fluttuazione. Si noti che le scale temporali caratteristiche delle fluttuazioni sono molto più lunghe delle scale temporali microscopiche; quindi,
durante una fluttuazione il sistema è in uno stato di ”quasi equilibrio”: trasformare tale stato in un stato
3.3
La trasformata di Legendre
30
di equilibrio effettivo, mediante il vincolo, è quindi giustificato. Per lo stato di equilibrio vincolato risulta:
S = S(U1 , V1 , N1 ) + S(U2 , V2 , N2 ) =
˙ S1 + S2 (vedi la (3.15)). Formuliamo allora il seguente postulato:
S4 ) Lo stato di equilibrio, o, di un sistema (gas) isolato con dati U, V, N , è quello per cui la
funzione S è massima rispetto a tutti gli stati di equilibrio vincolati, a, ottenibili da o mediante
l’interposizione di opportuni vincoli.
Chiamiamo ”trasformazione virtuale” la trasformazione da uno stato di equilibrio a uno di equilibrio
vincolato. Il postulato S4 implica che in ogni trasformazione virtuale di un sistema isolato, da uno stato
di equilibrio o ad uno di equilibrio vincolato a, a U, V, N costanti, la variazione di entropia sia negativa:
(δS)U,V,N =
˙ (Sa − So )U,V,N < 0 .
(3.16)
Sulla base del postulato S4 è facile verificare che le derivate parziali di S (vedi le (3.2)) hanno effettivamente
il significato di, rispettivamente, temperatura (4) , pressione, e potenziale chimico (vedi l’es. 3.3).
3.3 La trasformata di Legendre
La rappresentazione dell’entropia utilizza un insieme di variabili indipendenti che risultano, in laboratorio, di difficile controllo. È quindi opportuno cercare rappresentazioni in cui le variabili indipendenti siano
più ”pratiche” (ad esempio, la temperatura è più ”pratica”, cioè più facilmente controllabile, dell’energia
interna). Supponiamo di conoscere due rappresentazioni diverse, caratterizzate da insiemi di variabili indipendenti che indichiamo con X e, rispettivamente, Y , e dalle relative funzioni fondamentali, A(X) e
B(Y ). Consideriamo dapprima la rappresentazione A(X): per definizione (vedi S1 ) da A(X) devono poter
essere dedotte tutte le grandezze termodinamiche del sistema, compresa B(Y ): quindi, dalla funzione A(X)
si deve poter ottenere la funzione B(Y ). Analogamente, nella rappresentazione B(Y ), dalla funzione B(Y )
si deve poter ottenere la funzione A(X). In altri termini, la relazione tra le funzioni fondamentali di due
rappresentazioni diverse deve essere invertibile. Supponiamo, per concretezza, che sia: X = (S, V, N ) (e
quindi A = U ), e: Y = (T, V, N ) (e quindi B = A). Nel caso considerato la relazione tra S e T è data da
una derivata: T = ∂S/∂U . Risulta allora che la relazione tra B (= A) e A (= U ) deve essere definita come
una ”trasformata di Legendre” (vedi la (3.35).
Limitiamoci al caso di funzioni di una sola variabile [FaMa § 8.1]. Sia allora y = y(x) una funzione
(reale) di una variabile (reale) x. Supponiamo che esista un intervallo I =
˙ (x1 , x2 ) tale che, per x ∈ Ix ,
siano verificate le seguenti condizioni (nel § 5 vedremo che in casi importanti esse non sono verificate):
a) y sia continua e derivabile (almeno) due volte, con derivata seconda continua;
b) la derivata seconda, d2 y/dx2 , sia non nulla; per concretezza, supponiamo che sia:
d2 y
=
˙ yxx (x) > 0.
d x2
(3.17)
Sia p un numero reale, e consideriamo la funzione (di x):
dy
=
˙ yx (x) = p .
dx
(4)
(3.18)
Si noti che la prima delle (3.2), insieme con la (3.1), esclude che la temperatura possa assumere valori negativi. D’altra
parte è possibile che per particolari valori di U risulti: ∂S/∂U < 0; tali valori corrisponderebbero quindi a ”stati” con T < 0,
che tuttavia risultano non essere stati di equilibrio ([Pat § 3.9]; [Cal § 1.9]).
3.4
Altre rappresentazioni
31
In virtù della (3.17), yx (x) è una funzione continua e monotona (crescente), e quindi esiste (per i teoremi
sulle funzioni implicite [FMS cap 11]) un intervallo Ip =
˙ (p1 , p2 ) tale che, per p ∈ Ip , la (3.18) definisce
una funzione:
x = x(p) ,
(3.19)
derivabile e con derivata continua. Indichiamo con C il grafico della funzione y = y(x): per p ∈ Ip , x(p) è
la ascissa del punto di C in cui la retta tangente ha coefficiente angolare p. Indichiamo con −ψ =
˙ − ψ(p)
l’ordinata dell’intersezione con l’asse y della retta tangente a C nel punto (x, x(p) (vedi la fig. 3.1). È
chiaro che risulta:
p=
y(x(p)) + ψ(p)
,
x(p)
(3.20)
da cui:
ψ(p) = px(p) − y(x(p)) .
(3.21)
La (3.21) e la (3.18) definiscono la ”trasformata di Legendre”, ψ(p), di y(x).
y
p = tg θ
i
i
y
(i = 1,2)
p = tg θ
y(x(p))
θ
θ2
1
Fig. 3.1 :
x x
x1
Trasformata di Legendre.
-ψ
2
θ
x(p)
x
Consideriamo ora un piano (p, ψ), e la funzione p = ψ(p). In virtù delle proprietà di x(p) e di
y(x) anche ψ(p) risulta continua e derivabile. Dalle (3.21) e (3.18) si ottiene:
ψp (p) =
˙
dψ
= x(p) + p x0 (p) − yx (x(p))xp (p) = x(p) .
dp
(3.22)
Dalla (3.18) segue ancora:
1 = yxx (x(p)) xp (p) ,
da cui : xp (p) = [yxx (x(p)]−1 .
(3.23)
Allora dalla (3.17) segue infine:
ψpp (p) = [yxx (x(p)]−1 > 0 .
(3.24)
Quindi anche la funzione p = ψ(p) possiede una trasformata di Legendre, che chiamiamo h(x). Ripetendo
il procedimento visto per y(x) otteniamo:
h(x) = x p(x) − ψ(p(x)) ,
(3.25)
dove p(x) è la soluzione, per x ∈ Ix , dell’equazione (analoga alla (3.18)):
x = ψp (p).
(3.26)
Per la (3.22), la (3.26) coincide con la x = x(p). Quindi, le funzioni x = x(p) e p = p(x) sono l’una inversa
dell’altra, cioè: x(p(x)) = x. È facile allora mostrare che h(x) coincide con y(x). Dalla (3.21) segue infatti:
h(x) = x p(x) − [p(x) x(p(x)) − y(x(p(x)))] = x p(x) − [p(x) x − y(x)] =
˙ y(x) .
(3.27)
3.4
Altre rappresentazioni
32
In definitiva: ”la trasformata di Legendre della trasformata di Legendre di y(x) coincide con y(x)”. La
trasformazione di Legendre (5) è dunque una operazione invertibile.
3.4 Altre rappresentazioni
Consideriamo di nuovo la rappresentazione dell’entropia, S(U, V, N ) (per concretezza, consideriamo le
variabili di un gas, e cerchiamo una nuova rappresentazione che abbia come variabili indipendenti T, V, N .
Usiamo il metodo della trasformata di Legendre, assumendo che le condizioni (a) e (b) del § 3 siano
verificate. Cominciamo col considerare la trasformata di Legendre di S rispetto ad U :
S∗ =
˙ T U − S(U )
∂S
T =
˙
∂U
)
S ∗ = T U (T ) − S(U (T )) =
˙ S ∗ (T ) .
=⇒
(3.28)
In virtù della prima delle (3.2), T deve essere identificato con T −1 . La trasformata di Legendre di S rispetto
ad U risulta allora funzione della temperatura inversa: S ∗ (T ) =
˙ S ∗ (T −1 ). È chiaro che sarebbe molto più
naturale una dipendenza da T , piuttosto che da T −1 . Una funzione fondamentale con le caratteristiche
di essere sia una trasformata di Legendre che una funzione di T , può essere ottenuta (vedi la (3.35)),
introducendo dapprima la ”rappresentazione dell’energia interna”.
Osserviamo che, in virtù della prima delle (3.1), la funzione S = S(U, V, N ) può essere invertita
rispetto ad U : sia U = U (S, V, N ) la funzione inversa. Risulta ovviamente:
∂U
=
∂S
µ
∂S
∂U
¶−1
> 0.
(3.29)
Dalla (3.29) segue che anche la funzione U = U (S, V, N ) è invertibile rispetto ad S: la funzione inversa è,
ovviamente, S = S(U, V, N ). Quindi, dalla funzione S = S(U ) si può ottenere la funzione U = U (S), e
viceversa. Allora U = U (S, V, N ) può essere considerata la funzione fondamentale della rappresentazione
in cui le variabili indipendenti sono S, V, N (in questo caso si ottiene una nuova funzione fondamentale
senza ricorrere alla trasformata di Legendre!). Dalla (3.3) segue:
dU = T dS − P dV + µ dN .
(3.30)
Le equazioni di stato nella rappresentazione dell’energia sono allora:
T =
∂U
,
∂S
P =−
∂U
,
∂V
µ=
∂U
.
∂N
(3.31)
Come S, anche U risulta omogenea di grado uno (es. 3.6b): la relativa relazione di Eulero è:
U = T S − P V + µN .
(3.32)
Infine, la relazione di Gibbs-Duhem nella rappresentazione dell’energia si scrive:
S dT − V dP + N dµ = 0 .
(3.33)
La rappresentazione dell’energia interna è adatta a descrivere sistemi ”in equilibrio a S costante”. Dal
punto di vista fisico, tali equilibri non sono molto interessanti, ma la rappresentazione dell’energia interna
(5)
È facile estendere la definizione al caso di funzioni di più variabili: se f è funzione di più variabili, la trasformata di
Legendre di f rispetto ad una di esse è del tipo: f ∗ (y , z) =
˙ supx [xy − f (x , z)] . f ∗ (y , z) è allora la ”trasformata di Legendre
di f (x , z) rispetto a x”.
3.4
Altre rappresentazioni
33
è utile, come vediamo qui di seguito, per derivare la ”rappresentazione dell’energia libera”, A(T ).
Consideriamo allora la trasformata di Legendre di U (S, V, N ) rispetto ad S (6) :
)
U∗ =
˙ TS − U
∂U
T =
∂S
=⇒
U ∗ (T ) = T S(U (T )) − U (T ) ,
(3.34)
dove U (T ) è la funzione che si ottiene invertendo la T = ∂U/∂S. U ∗ (T ) è sia una trasformata di Legendre
che una funzione di T : essa potrebbe dunque essere la funzione fondamentale cercata sopra. Convenzionalmente, si preferisce utilizzare, invece di U ∗ (T ), la funzione:
A(T ) =
˙ − U ∗ (T ) =
˙ U − TS ,
(3.35)
detta ”energia libera (di Helmholtz)” (A dipende anche da V, N ). Sottolineiamo il fatto che abbiamo
ottenuto A(T ) da S(U ) mediante la sequenza di passaggi:
S(U ) −→ U (S) −→ U ∗ (T ) −→ A(T ) ,
(3.36)
e che tutti i passaggi sono invertibili: quindi dalla funzione A(T ) si può riottenere la funzione S(U ). La
rappresentazione (della termodinamica del gas) che assume come variabili indipendenti T, V, N , e come
funzione fondamentale A(T, V, N ), si chiama ”rappresentazione dell’energia libera”. Le equazioni di stato
nella rappresentazione di A seguono immediatamente dal differenziale:
dA = −S dT − P dV + µ dN
(3.37)
(vedi la (3.3) e la (3.30)), e sono:
−S =
∂A
,
∂T
P =−
∂A
,
∂V
µ=
∂A
.
∂N
(3.38)
Si noti anche l’importante relazione (che si ottiene scrivendo la (3.35) come: U = A + T S, e usando la
prima delle (3.38)):
∂(T −1 A)
∂(βA)
1
U=
=
˙
,
con : β =
˙
.
(3.39)
−1
∂T
∂β
kB T
In termini dell’energia libera A è possibile definire lo ”stato di equilibrio” di sistemi molto importanti:
quelli ”in equilibrio termico con una riserva di calore”, dove per ”riserva di calore” (o ”termostato”)
intendiamo un sistema con pareti rigide, fisse, e impermeabili, capace di assorbire e/o cedere quantità di
calore (anche finite) mantenendo costante la propria temperatura. Dato un sistema termodinamico, un
sistema che possa fungere, con buona approssimazione, da riserva di calore per il primo, è un sistema
cosı̀ grande (rispetto al primo) che il passaggio del calore avviene lasciando inalterata ogni sua grandezza
termodinamica (non solo la temperatura): quindi, una riserva di calore assorbe e cede calore in modo
reversibile [Cal § 4.3]. Se T è la temperatura della riserva, la condizione di equilibrio tra il sistema e la
riserva è ovviamente (es. 3.3a), che anche il sistema abbia temperatura T . A volte, per brevità, invece di
scrivere ”sistema in equilibrio in contatto termico con una riserva con temperatura T ”, scriveremo ”sistema
a T costante” (a rigore ciò è improprio, perchè anche un sistema isolato con energia U è ”a T costante”,
con 1/T = ∂S/∂U !).
Consideriamo dunque un sistema a T costante, e supponiamo che il sistema e la riserva formino un
sistema (composto) isolato. Indicando con S l’entropia del sistema, e con Sr quella della riserva (caratte(6)
È facile verificare che la condizione (b) qui è soddisfatta. Dalla prima delle (3.31) segue (è sottinteso che tutte le
derivate qui sono a V, N costanti): ∂ 2 U/∂S 2 = ∂T /∂S. Ricordiamo poi: ∂S/∂T = CV /T > 0 (vedi la (3.8)). Allora la
funzione S = S(T ) può essere invertita, e risulta: ∂T /∂S = 1/(∂S/∂T ) > 0.
3.5
Non applicabilità della trasformata di Legendre
34
rizziamo con l’indice r tutte le grandezze della riserva), la condizione perchè uno stato del sistema composto
sia di equilibrio è che l’entropia totale: St = S + Sr , sia massima rispetto a tutti gli altri stati raggiungibili
mediante trasformazioni virtuali, cioè che sia:
δSt = δ(S + Sr ) < 0 ,
a
(U + Ur ) costante .
(3.40)
Per definizione, la variazione δSr ha luogo in modo reversibile. Possiamo quindi scrivere:
δSr =
1
1
∂Sr
δUr =
˙
δUr = δUr .
∂Ur
Tr
T
(3.41)
La (3.40) diventa allora:
δ(S + Sr ) = δS +
1
1
δUr = (T δS − δU ) < 0 ,
T
T
cioè
δA > 0 ,
(3.42)
dove A =
˙ U − T S. La (3.42) è la condizione di equilibrio cercata: per un sistema a T costante, lo stato di
equilibrio è quello per cui è minima A.
La rappresentazione dell’energia libera risulta particolarmente conveniente per quei fenomeni, come le
transizioni di fase (cambiamenti di stato), in cui la temperatura gioca un ruolo essenziale. Consideriamo,
ad esempio, la transizione gas-liquido. Dalla condizione di minimo dell’energia libera A = U − T S, segue
che a temperatura ”alta” lo stato di equilibrio coincide con lo stato ad alta entropia (il gas), mentre a
temperatura ”bassa” esso coincide con lo stato a bassa energia (il liquido).
Un’altra rappresentazione molto utile è quella ”del potenziale gran canonico”, Ω(T, V, µ), definito come
trasformata di Legendre di A(T, V, N ) rispetto a N . Tale rappresentazione è necessaria per descrivere un
gas in equilibrio con assegnati il volume V , la temperatura T , e in equilibrio rispetto agli scambi di particelle
(equilibrio materiale) a un dato µ (vedi l’es. 3.3c). Ω risulta espresso come:
Ω=
˙ A(T, V, N ) − µN )
=⇒
∂A
µ=
∂N
Ω = Ω(T, V, µ) .
(3.43)
Dalla A = U − T S, e dalla (3.32) segue:
Ω = −P V .
(3.44)
Le equazioni di stato nella rappresentazione del potenziale gran canonico seguono dal differenziale:
dΩ = −S dT − P dV − N dµ .
(3.45)
Anche qui, si trova (vedi l’es. 3.10) che per un ”sistema a T e µ costanti” (cioè per un sistema in equilibrio
termico con una riserva di calore con temperatura T e in equilibrio materiale con una riserva di particelle
con potenziale chimico µ), lo stato di equilibrio è quello per cui è minimo Ω.
Citiamo infine la rappresentazione del ”potenziale termodinamico” (o ”energia libera di Gibbs”),
G = G(T, P, N ), definito come la trasformata di Legendre di A rispetto a −V :
G=
˙ P V + A(T, V, N ) )
=⇒
∂A
P =−
∂V
G = G(T, P, N ) .
(3.46)
Le equazioni di stato nella rappresentazione del potenziale di Gibbs seguono dal differenziale:
dG = −S dT + V dP + µ dN .
(3.47)
3.6
La trasformata di Legendre generalizzata
35
Per un sistema ”a T e P costanti” (cioè in equilibrio termico con una riserva di calore con temperatura T
e con un equilibrio meccanico con una riserva di volume (definita in modo analogo alla riserva di calore)
con pressione P ) lo stato di equilibrio è quello per cui è minimo G [Cal cap. 6].
3.5 Non applicabilità della trasformata di Legendre
In termodinamica è facile incontrare problemi in cui le condizioni (a) e/o (b) del § 3 non sono verificate.
Consideriamo, ad esempio, un gas reale: come è ben noto, esiste una ”temperatura critica”, Tc , tale che
l’equazione di stato (per T < Tc , ed N fissato) ha la forma della figura 3.2a. Consideriamo l’energia libera
di Helmholtz: A = A(T, V, N ), e ricordiamo la seconda delle (3.38):
P =−
∂A
=
˙ P (T, V, N )
∂V
(3.48)
(la (3.48) è l’equazione di stato). Scegliendo un valore di V , V0 , e integrando rispetto a V la (3.48),
possiamo determinare la dipendenza di A da V (per dati T , N ):
Z
V
A(T, V, N ) = A(T, V0 , N ) −
dV 0 P (T, V 0 , N ) .
(3.49)
V0
Nella fig. 3.2b riportiamo il grafico di A(V ). Risulta evidentemente:
∂2A
∂P
< 0,
˙
2 =
∂V
∂V
∂2A
∂P
−
=
˙
= 0,
∂V
∂V 2
−
per :
V ∈
/ [V1 , V2 ] ;
per :
V ∈ [V1 , V2 ] .
(3.50)
Per V ∈
/ [V1 , V2 ] (T, N sono fissati) le condizioni (a) e (b) sono verificate. Nell’intervallo (V1 , V2 ), invece, la
P
Fig. 3.2 :
a) l’isoterma P (T, V, N );
b) l’energia libera A(T, V, N ).
A
V1
g
V2
V
(liq.)
(a)
(b)
Ps
(c)
c) L’energia libera di Gibbs:
g=
˙ G/N = g(T, V ).
(gas)
V1
V2
V
Ps
P
condizione (3.17) non è verificata, e quindi la funzione P = P (V ) non ammette inversa.
Un altro caso frequente è quello di una funzione il cui intervallo di definizione contenga un punto in cui
la funzione stessa non è derivabile. Ad esempio, per descrivere la termodinamica del gas di prima si può
utilizzare, oltre che A(T, V, N ), anche il potenziale termodinamico: G = G(T, P, N ), dove P è la pressione
(vedi la (3.46)). Dalla (3.47) segue:
∂G
=V .
∂P
(3.51)
Ponendo: g =
˙ G/N , v =
˙ V /N (e ricordando che la derivata parziale rispetto a P è calcolata ad N costante),
scriviamo la (3.51) come:
∂g
1
=v =
˙
,
∂P
n
(3.52)
dove n =
˙ N/V è la densità (numero di particelle per unità di volume). È ben noto che per N fissato e
T < Tc , esiste un valore di P , Ps (Ps è la pressione del vapore saturo, alla temperatura data), tale che
3.6
La trasformata di Legendre generalizzata
36
per P > Ps il ”gas” è nella fase liquida, mentre per P < Ps il ”gas” è nella fase gassosa (per P = Ps c’è
coesistenza tra le due fasi). Nella fase liquida la densità è maggiore che in quella gassosa: nl > ng . Segue:
1
1
>
,
ng
nl
¯
¯
∂g ¯¯
∂g ¯¯
>
.
∂P ¯P <Ps
∂P ¯P >Ps
cioè :
(3.53)
La funzione G non è derivabile rispetto a P in Ps (vedi la fig. 3.2c). Anche in questo caso, la trasformata
di Legendre di G (rispetto a P ) non può essere calcolata con la (3.24).
3.6 La trasformata di Legendre generalizzata
Definiamo la nozione di ”convessità” di una funzione di una variabile. Sia I un intervallo aperto di
R, e sia f : I → R una funzione reale; f è ”convessa” se, per ogni x1 , x2 ∈ I e ogni λ ∈ (0, 1) è:
f (λx1 + (1 − λ)x2 ) ≤ λ f (x1 ) + (1 − λ) f (x2 ) .
(3.54)
In termini geometrici, la (3.54) implica che una corda P Q (vedi la fig. 3.3) sta sopra il tratto del grafico di
f compreso tra P e Q, o coincide con esso. f è ”strettamente convessa” se per ogni x1 , x2 (con x1 6= x2 )
la (3.54) vale come disuguaglianza (cioè se la curva non contiene tratti rettilinei).
Qui di seguito elenchiamo, senza dimostrazioni, le proprietà delle funzioni convesse che ne giustificano
l’uso in termodinamica. Se f : I → R è una funzione convessa, allora:
(a)
y
Fig. 3.3 :
a) funzione convessa;
(b)
b) funzione strettamente convessa;
Q
(c)
P
c) funzioni concave.
x
1) f è continua su I.
2) Se f è derivabile due volte su un intervallo (a, b) ∈ I, allora f è convessa se e solo se la derivata
seconda è non negativa: f 00 ≥ 0, e strettamente convessa se e solo se:
f 00 > 0 .
(3.55)
3) La funzione f ∗ (y) : I ∗ → R, definita come (7) :
f ∗ (y) =
˙ sup [xy − f (x)] ,
x
(3.56)
dove I ∗ =
˙ {y : f ∗ (y) < ∞}, è convessa [RV § 15, teor. A]. f ∗ (y) è chiamata ”funzione convessa coniugata a
f ”, oppure ”trasformata di Legendre (sottinteso: ”generalizzata”) di f ”. La proprietà fondamentale della
trasformata di Legendre è la ”invertibilità”, definita come segue:
4) La trasformata di Legendre f ∗∗ della trasformata di Legendre f ∗ di una funzione convessa coincide
con la funzione f :
f ∗∗ (x) =
˙ sup [yx − f ∗ (y)] = f (x) .
(3.57)
y
La trasformata di Legendre può essere definita anche per le funzioni ”concave”, dove f è concava se e
solo se −f è convessa. Le proprietà delle funzioni concave sono analoghe a quelle delle funzioni convesse.
(7)
Qui indichiamo con (f, y, f ∗ ) le quantità che nel § 3 erano indicate come (y, p, ψ).
3.7
Le condizioni di stabilità
37
Ad esempio, se f : I → R è una funzione concava, allora:
1’) f è continua su I.
2’) Se f è derivabile due volte su un un intervallo (a, b) ∈ I, allora f è concava se e solo se f 00 ≤ 0, e
strettamente concava se e solo se:
f 00 < 0 .
(3.58)
3’) Se f (x) è concava, la trasformata di Legendre di f , definita come:
f ∗ (y) =
˙ inf [xy − f (x)] ,
(3.59)
x
è concava.
4’) La trasformata di Legendre della trasformata di Legendre di una funzione concava coincide con la
funzione: f ∗∗ (x) = f (x).
La trasformata di Legendre di una funzione strettamente convessa (o concava) può essere calcolata
facilmente. Consideriamo ad esempio un intervallo I 0 in cui f è derivabile due volte, e in cui è verificata
la (3.55) (per la (3.58) si procede in modo analogo). Allora la funzione y = y(x) =
˙ ∂f /∂x è crescente, e
∗0
quindi esiste un intervallo I in cui la funzione inversa, x = x(y), è definita. La (3.56) equivale allora, per
y ∈ I ∗ 0 , alle equazioni:
)
f ∗ (x) =
˙ xy − f (x)
=⇒ f ∗ = x(y) y − f (x(y)) =
˙ f ∗ (y) .
(3.60)
y(x) =
˙ ∂f /∂x
La (3.60) è la forma della trasformata di Legendre che di solito è usata nella meccanica analitica. Due
esempi sono [RV probl. 15B] (la funzione esponenziale è strettamente convessa in virtù della (3.55)):
f (x) = x2
(I = R) ,
f (x) = ex
(I = R) ,
f ∗ (y) = y 2 /4
½
y log y − y , y > 0
f ∗ (y) =
0,
y=0
(I ∗ = R) ;
(I ∗ = [0, ∞)) .
Dove la (3.60) non è applicabile, bisogna ricorrere alla definizione (3.56). Consideriamo ad esempio
una f (x) convessa su un intervallo (a, b), e sia xv ∈ (a, b) un punto angoloso (in cui f non è derivabile).
f
(b)
f(x)
Fig. 3.4 :
a) La trasf. di L. generalizzata.
θ
t1
(a)
xy
b) L’esempio (3.61).
f(x)
xy - f(x) (< 0)
x y - f(x ) =
0
0
supx [xy - f(x)]
t2
θ = arctg y
x
x0
(b)
xv
x
Siano t1 e t2 le rette tangenti in xv− e, rispettivamente, xv+ , (vedi la fig. 3.4b), e siano y− e y+ (con:
y± =
˙ (df /dy)± , e: y− < y+ ) i relativi coefficienti angolari. La trasformata di Legendre è allora:
f ∗ (y) = yxv − f (xv ) ,
per :
y− ≤ y ≤ y+ .
(3.61)
Quindi, a un punto in cui f è non derivabile corrisponde un tratto rettilineo di f ∗ . Due esempi sono:
f (x) = |x| ,
I = R,
f ∗ (y) =
0,
I ∗ = [−1, 1] ;
f (x) = K ,
I = {c} ,
f ∗ (y) =
cy − K ,
I∗ = R
(3.62)
(nel secondo esempio, K è una costante e c (la coordinata di) un punto).
3.7
Le condizioni di stabilità
38
3.7 Le condizioni di stabilità
Studiamo la condizione che S sia massima nello stato di equilibrio (§ 3.2). Consideriamo un gas isolato,
in uno stato (U, V, N ), e supponiamo che il volume V sia costituito da due volumi V1 e V2 (V1 + V2 = V ),
separati da una parete diatermica e mobile che, per semplicità, assumiamo impermeabile alle molecole: i
numeri, N1 ed N2 (N1 + N2 = N ), di molecole contenute in V1 e, rispettivamente, V2 , sono allora fissati
(nel seguito di questo paragrafo omettiamo di indicare la dipendenza dal numero di molecole e intendiamo
che tutte le derivate sono calcolate a N costante). Siano inoltre U1 ed U2 (U1 + U2 = U ) le rispettive
energie. La condizione di equilibrio è che ogni variazione virtuale:
δU1 =
˙ U1 − U10 ;
δU2 =
˙ U2 − U20 ;
δV1 =
˙ V1 − V10 ;
δV2 =
˙ V2 − V20 ,
δU1 + δU2 = 0 ;
δV1 + δV2 = 0 ,
(3.63)
con
(3.64)
(con ”0 ” indichiamo i valori relativi allo stato di equilibrio) comporti una diminuzione dell’entropia rispetto
al valore di equilibrio S 0 =
˙ S(U 0 , V 0 ) = S10 (U10 , V10 ) + S20 (U20 , V20 ).
Sviluppiamo S fino al secondo ordine nelle variazioni (3.63). Consideriamo, per esempio, S1 (per S2
vale una formula analoga): scrivendo la derivata seconda mista come:
(·
· 2 ¸0
µ
¶¸0 ·
µ
¶¸0 )
∂ S
1
∂
∂S
∂
∂S
,
(3.65)
=
˙
+
∂U ∂V 1
2
∂V ∂U 1
∂U ∂V
1
lo sviluppo in serie di Taylor di S1 (U1 , V1 ) diventa:
·
¸0
·
¸0
·
·
¸0
¸0
∂S
∂S
1 ∂2S
1 ∂2S
2
δU1 +
δV1 +
(δU
)
+
(δV1 )2 +
1
∂U 1
∂V 1
2 ∂U 2 1
2 ∂V 2 1
(·
µ
¶¸0 ·
µ
¶¸0 )
∂
∂S
∂
∂S
1
+
δU1 δV1 + . . . ,
+
2
∂V ∂U 1
∂U ∂V
1
S1 = S10 +
(3.66)
dove i termini omessi sono di ordine superiore al secondo. L’entropia totale, S = S1 + S2 , può allora essere
sviluppata come:
(
)
·
¸0
X · ∂S ¸0
∂S
0
S=S +
δUα +
δVα +
∂U α
∂V α
α=1,2
(·
)
µ ¶¸0
·
µ ¶¸0
1 X
∂
1
∂
1
+
δUα +
δVα δUα +
(3.67)
2 α=1,2
∂U T
∂V T
α
α
(·
)
µ ¶¸0
µ ¶¸0
·
1 X
P
P
∂
∂
+
δUα +
δVα δVα + . . . ,
2 α=1,2
∂U T
∂V T
α
α
dove abbiamo utilizzato la prima e la seconda delle (3.2). Le condizioni di equilibrio, T10 = T20 e P10 = P20 ,
insieme alle (3.64), implicano che il termine del primo ordine nella (3.67) è nullo; introducendo poi le
variazioni δTα e δPα (si ricordi che T e P sono, per le (3.2), funzioni di (U, V )), la (3.67) diventa:
¾
½
¾
¸
·½
Pα
1 X
1
δUα + δ
δVα + . . . =
S = S0 +
δ
2 α=1,2
Tα
Tα
1 X 1
= S0 +
(−δTα δSα + δPα δVα ) + . . . =
(3.68)
2 α=1,2 Tα
1 X
= S0 +
(−δTα δSα + δPα δVα ) + . . . ,
2T α=1,2
3.7
Le condizioni di stabilità
39
dove abbiamo utilizzato la δU + P δV = T δS (vedi la (3.30)), e dove abbiamo posto, a meno di termini di
ordine superiore (T =
˙ T10 = T20 è la temperatura di equilibrio):
Tα =
˙ Tα (Uα , Vα ) ≈ Tα (Uα0 , Vα0 ) =
˙ T.
(3.69)
Supponiamo ora di poter esprimere Vα e Sα in funzione di Tα e Pα . Per le variazioni δVα e δSα
otteniamo allora:
)
(·
¸0
·
¸0
∂V
∂V
δT +
δP
,
δVα =
∂T P
∂P T
α
(·
)
(·
)
(3.70)
¸0
·
¸0
¸0
·
¸0
∂S
∂S
∂S
∂V
δSα =
δT +
δP
=
δT −
δP
,
∂T P
∂P T
∂T P
∂T P
α
α
dove abbiamo utilizzato la ”relazione di Maxwell” [Cal § 7.1]:
·
¸
·
¸
∂S
∂V
=−
,
∂P T
∂T P
(3.71)
che segue dalla condizione che il differenziale (3.47) sia esatto.
Alcune delle derivate che figurano nelle (3.70) hanno un significato fisico diretto, che giustifica la
adozione di nomi e simboli particolari:
·
¸
1 ∂V
comprimibilità isoterma :
κT =
˙ −
;
(3.72)
V ∂P (T,N )
·
¸
1 ∂V
espansività termica :
αP =
˙
;
(3.73)
V ∂T (P,N )
¸
·
∂S
;
(3.74)
capacità termica a V costante : CV =
˙ T
∂T (V,N )
·
¸
∂S
capacità termica a P costante : CP =
˙ T
.
(3.75)
∂T (P,N )
Consideriamo, per esempio, la (3.72), e scriviamola come:
δV
= −κT δP ;
(3.76)
V
la (3.76) significa che la ”variazione di volume per unità di volume” conseguente a una (piccola) variazione
di P è proporzionale a δP , con coefficiente κT . Per questo, κT e le altre quantità introdotte sopra sono
chiamate ”funzioni risposta”.
Sostituendo le (3.70) - (3.75) nella (3.68) segue:
½
¾
1 X
1
S = S0 +
− CP (δTα )2 + 2V αP δPα δTα − V κT (δPα )2 + . . . .
(3.77)
2T α=1,2
T
Ricordiamo poi l’identità (es. 3.11):
CP − CV = T V
αP2
.
κT
Da (3.77) e (3.78) segue allora:
¾
½
1 X CV
1
2
S = S0 −
(δTα )2 +
(V αP δTα − V κT δPα ) + . . .
=
2T α=1,2 T
V κT
α


÷
!2
¸
·
¸

X C
1
1
∂V
∂V
V
= S0 −
(δTα )2 +
δTα +
δPα
+ ...
=

2T α=1,2  T
V κT
∂T P
∂P T
α
¸
X ·C
1
1
V
(δTα )2 +
(δVα )2 + . . . .
= S0 −
2T α=1,2 T
V κT
α
(3.78)
(3.79)
3.8
Esercizi
40
Se lo stato di equilibrio è un massimo per S, deve risultare S > S 0 per ogni variazione (δTα , δVα ) (8) .
Devono quindi essere soddisfatte le ”condizioni di stabilità”:
(CV )α > 0 ,
(κT )α > 0 ,
(α = 1, 2) .
(3.81)
Per i sistemi termodinamici le (3.81) risultano sperimentalmente verificate.
3.8 Esercizi
Esercizio 3.1 Il potenziale chimico del gas ideale.
Si considerino le equazioni di stato del gas ideale monoatomico, nella forma:
1
3 kB
=
;
T
2 u
P
k
= B ,
T
v
dove u =
˙
U
V
, v=
˙
.
N
N
(3.82)
Si consideri poi la relazione di Gibbs-Duhem (3.14), scritta nella forma
d
µ
1
P
= ud + vd .
T
T
T
(3.83)
Usando le (3.82) nella (3.83), e integrando, mostrare che il potenziale chimico nello stato (u, v) è:
"
µ ¶ 32 µ ¶− 52 #
µ ³µ´
3
u
v
U
V
N
−
= − kB ln
− kB ln
=
˙ − kB ln
T
T 0
2
u0
v0
V0 U0
No
(3.84)
dove ”0” è uno stato di riferimento, e (u0 , v0 ) =
˙ (U0 /N0 , V0 /N0 ) sono valori relativi a ”0” [Cal § 3.4]. Si
noti che la (3.84) implica:
"
µ ¶3 #
µ
V U 2
= −kB ln α
+β
(3.85)
T
N N
con α, β costanti indipendenti dallo stato.
Esercizio 3.2 L’entropia e l’energia interna del gas ideale.
a) Verificare che l’entropia del gas ideale monoatomico rispetto allo stato ”0” (vedi l’es. 3.1) è:
"
µ ¶ 32 µ ¶− 52 #
N
S0
U
V
S(U, V, N ) = N
+ N kB ln
N0
V0 U0
N0
con :
³µ´
S0
5
=
˙ kB −
.
N0
2
T 0
(3.86)
[Sostituire le (3.82) e (3.84) nella (3.11) [Cal § 3.4]]. Scrivere la (3.86) nella forma:
"
V
S(U, V, N ) = N kB ln
N
µ
U
N
¶ 32 #
+ cost. ,
(3.87)
e verificare la proprietà (3.10) (omogeneità).
b) Verificare che la (3.86) è additiva. [Scrivere S in termini di (T, P ); supporre poi che il volume V
contenente N molecole sia diviso in due sottovolumi V1 e V2 contenenti N1 e, rispettivamente, N2 molecole,
(8)
Ammettendo anche variazioni di N la (3.79) diventa [Re80 § 2.H.2]:
S = S0 −
1
2T
X ·C
V
α=1,2
T
h
(δTα )2 +
1
∂µ
(δVα )2 +
V κT
∂N
alle (3.81) bisogna allora aggiungere la condizione: [∂µ/∂N ]0
(P,T )
i0
(P,T )
> 0 (es. 3.12).
¸
(δNα )2 + . . . ;
(3.80)
3.8
Esercizi
41
e separati da una parete diatermica, mobile, e permeabile alle molecole; supporre che i due gas siano in
equilibrio reciproco ... ]
c) Verificare che l’energia interna del gas ideale monoatomico è:
µ
¶¸
µ ¶− 23 µ ¶ 53
·
S
V
N
2
S0
U =
˙ U0
exp
−
.
(3.88)
V0
N0
3kB N
N0
Esercizio 3.3 Significato fisico di (T, P, µ) (9) .
a) Considerare un sistema isolato, composto da due sottosistemi separati da una parete rigida e fissata,
e impermeabile alle molecole, ma permeabile al calore (”diatermica”). Calcolare la variazione dell’entropia
rispetto a trasformazioni virtuali dU1 e dU2 (con dU1 + dU2 = 0) delle energie dei sottosistemi; mostrare
che nello stato di equilibrio è: T1 = T2 [Cal § 2.4].
b) Considerare il sistema del punto (a), e sostituire la parete rigida e fissata, impermeabile e diatermica,
con una rigida e mobile, impermeabile e diatermica, e mostrare che nello stato di equilibrio è: T1 = T2 , e
P1 = P2 [Cal § 2.7].
c) Considerare il sistema del punto (a), e sostituire la parete rigida e fissata, impermeabile e diatermica
con una rigida e fissata, permeabile e diatermica, e mostrare che nello stato di equilibrio è: T1 = T2 , e
µ1 = µ2 [Cal § 2.8].
d) Per lo stesso sistema del punto (c), mostrare che, facendo evolvere il sistema a partire da uno stato
di equilibrio vincolato con T1 = T2 e µ1 > µ2 , segue dN1 < 0. [Quindi: µ ha, nei confronti dell’equilibrio
rispetto agli scambi di molecole, la stessa funzione di T rispetto agli scambi di calore].
Esercizio 3.4 Potenziale chimico per particelle ”non conservate”.
Si consideri un gas di particelle, che possono essere create e distrutte (ad esempio, il ”gas di fotoni”, o
”radiazione di corpo nero”, in cui i fotoni vengono emessi ed assorbiti dalle pareti della cavità), in equilibrio
materiale con una riserva di particelle (nel caso dei fotoni la riserva è costituita dalle pareti della cavità).
Il numero totale di particelle, N1 + N2 , non è costante, e quindi la condizione: δN1 + δN2 = 0 (usata
nell’es. 3.3c) non è verificata. Mostrare che la condizione di equilibrio ora è: µ1 = µ2 = 0.
Esercizio 3.5 L’entropia del gas ideale.
Ricavare la (3.86) integrando il differenziale (3.3). [Sostituire in (3.3) le (3.82) e la (3.84).]
Esercizio 3.6 La rappresentazione dell’energia.
a) Derivare le (3.31) utilizzando il fatto che U = U (S) è inversa della S = S(U ), e le (3.2).
b) Mostrare che l’omogeneità di grado uno di U (vedi la (3.32)) segue da quella di S, e implica la
”estensività”: U = N f (s, v, µ), con s =
˙ S/N, v =
˙ V /N .
c) Mostrare che da: T = T (S, V, N ), e (per (V, N ) costanti) da:
· 2 ¸−1
∂2U
∂ U
∂U
dT =
dS
,
segue
:
C
=
.
(3.89)
V
∂ S2
∂ S2
∂S
Esercizio 3.7 Trasformazioni adiabatiche reversibili di un gas ideale monoatomico.
Si consideri una trasformazione infinitesima, adiabatica, reversibile, e a N costante, di un gas ideale.
Vale allora la condizione: dU + P dV = 0, cioè: du − (P/n2 )dn = 0 (dove: n =
˙ N/V ), cioè anche, per le
(3.82): (3/2) dT + T dV /V = 0.
a) Mostrare che la relazione tra T e V in una trasformazione del tipo suddetto è: T V 2/3 = costante.
b) Mostrare che per la stessa trasformazione vale anche la relazione: P n−5/3 = costante.
(9)
I calcoli dell’es. 3.3 coinvolgono solo i termini del primo ordine nello sviluppo di S rispetto agli incrementi delle varia-
bili indipendenti. La condizione che lo stato di equilibrio di un sistema isolato corrisponda effettivamente ad un massimo
dell’entropia, e non semplicemente ad un estremo, si traduce in condizioni sui termini del secondo ordine (§ 7).
3.8
Esercizi
42
Esercizio 3.8 ∆S per un gas ideale.
Calcolare la variazione dell’entropia, ∆S, per un gas ideale con N costante nei seguenti casi:
a) una espansione adiabatica irreversibile da V1 a V2 in cui il lavoro è nullo [Rei § 5.1]) (espansione
”alla Joule”) [∆S = N kB ln(V2 /V1 )];
b) una trasformazione reversibile in cui U varia da U1 a U2 a V costante [∆S = (3/2)N kB ln(U2 /U1 )].
Esercizio 3.9 L’energia libera di Helmholtz.
a) Verificare che l’energia libera di H. di un gas ideale monoatomico con molecole puntiformi è:
"
µ ¶ 32 #
V No
T
N T
− N kB T ln
A(T, V, N ) = Ao
,
No To
N Vo To
con Ao =
˙
3
k No To − So To ,
2 B
(3.90)
dove So , Vo , No sono le costanti che figurano nella (3.86), e To è definito in termini di Uo ed No dalla prima
delle (3.82). Ricavare le equazioni di stato nella rappresentazione di A.
b) Considerare la trasformata di Legendre:
−
A
1
=S−U ,
T
T
1
∂S
=
,
T
∂U
(3.91)
che definisce −A/T come trasformata di Legendre di S(U ) rispetto a U (quindi −A/T risulta funzione di
1/T ). Mostrare che la trasformata inversa è:
S=−
A
1
− U,
T
T
U=
∂(A/T )
∂(1/T )
(3.92)
(la (3.92) definisce S(U ) come trasformata di Legendre di −A/T rispetto a 1/T ).
Esercizio 3.10
Il potenziale gran canonico
Mostrare che lo stato di equilibrio di un sistema in equilibrio termico con una riserva di calore con
data T , e in equilibrio materiale con una riserva di particelle con dato µ, è caratterizzato dal minimo del
potenziale gran canonico (3.43).
[Soluzione: considerare il sistema (isolato) costituito dal sistema in oggetto e dalle due riserve, e
scrivere l’entropia totale come: St =
˙ S + Sp + Sc , dove Sp [Sc ] è l’entropia dfella riserva di particelle
[di calore]. Procedere come per l’energia libera di Helmholtz (vedi la (3.42)), imponendo la condizione:
δSt < 0, e utilizzando le formule: ∂Sp /∂Np = −µ/T , ∂Sc /∂Uc = 1/T .]
Esercizio 3.11
Proprietà delle funzioni implicite ([Re80 § 2.B] ; [Cal app. A.5]).
Si considerino tre variabili, x, y, z, tra le quali esista una relazione del tipo F (x, y, z) = 0. Mostrare
che valgono le seguenti relazioni:
µ
a)
µ
b)
∂x
∂y
¶ µ
z
∂y
∂z
¶
∂x
∂y
µ
+
x
¶
∂x
∂z
·µ
=
z
∂y
∂x
¶ ¸−1
;
(3.93)
z
¶
µ
=0,
oppure
y
∂x
∂y
¶ µ
z
∂y
∂z
¶ µ
x
∂z
∂x
¶
= −1 .
(3.94)
y
Considerare poi un’altra variabile, w, funzione di x, y: w = w(x, y), e mostrare che vale la relazione:
µ
c)
∂x
∂w
¶
µ
=
z
∂x
∂y
¶ µ
z
∂y
∂w
¶
.
z
(3.95)
3.8
Esercizi
43
Infine, scrivendo x = x(y, w) e considerando z costante, mostrare che vale la relazione:
µ
d)
∂x
∂y
¶
µ
=
z
∂x
∂y
¶
µ
+
w
∂x
∂w
¶ µ
y
∂w
∂y
¶
.
(3.96)
z
Dimostrazioni:
a,b) Scriviamo ([Re80 § 2.B] ; [Cal § 7.5]) la relazione tra x, y, z come x = x(y, z); consideriamo
poi la funzione inversa y = y(x, z), e la funzione composta x = x(y(x, z), z); differenziando quest’ultima
otteniamo:
µ ¶
µ ¶
µ ¶ ·µ ¶
µ ¶
¸ µ ¶
∂x
∂x
∂x
∂y
∂y
∂x
dx =
dy +
dz =
dx +
dz +
dz ;
∂y z
∂z y
∂y z
∂x z
∂z x
∂z y
se teniamo z costante (dz = 0) segue
µ
1=
¶ µ
∂x
∂y
z
∂y
∂x
¶
⇒
(a) .
z
Se invece teniamo costante x (dx = 0) segue:
µ
0=
∂x
∂y
¶ µ
z
∂y
∂z
¶
µ
+
x
∂x
∂z
¶
⇒
(b) .
y
c) Consideriamo ancora la x = x(y, z), e supponiamo che sia y = y(w, z); differenziando la funzione
composta x = x(y(w, z), z) otteniamo:
µ
dx =
∂x
∂y
¶
µ
dy +
z
∂x
∂z
¶
µ
dz =
y
∂x
∂y
¶ ·µ
∂y
∂w
z
¶
µ
∂y
∂z
dw +
z
¶
¸ µ ¶
∂x
dz +
dz ;
∂z y
w
se teniamo z costante (dz = 0) segue:
µ
dx|z =
∂x
∂y
¶ µ
z
∂y
∂w
¶
dw|z
⇒
(c) .
z
d) Consideriamo la funzione x = x(y, w), e supponiamo che sia w = w(y, z); differenziando la funzione
composta x = x(y, w(y, z)) segue:
µ
dx =
∂x
∂y
¶
µ
dy +
w
∂x
∂w
¶
µ
dw =
y
∂x
∂y
¶
µ
dy +
w
¶ "µ
∂x
∂w
y
∂w
∂y
dy
⇒
¶
µ
dy +
z
∂w
∂z
#
¶
dz
;
y
se teniamo z costante (dz = 0) segue:
µ
dx|z =
∂x
∂y
¶
µ
dy +
w
∂x
∂w
¶ µ
y
∂w
∂y
¶
(d) .
z
Tutte le relazioni tra derivate parziali qui illustrate possono essere dedotte in modo più generale ed elegante
con il ”metodo degli jacobiani” ([Cal app. A.5], [Mu70 § 25]).
Esercizio 3.12 Un identità per le funzioni risposta.
Derivare la seguente identità tra le funzioni risposta:
CP − CV = T V
αP2
.
κT
[Soluzione: vedi, ad esempio, [Re80 § 2.G.2], [Sta § 2.3], [Hu87 p. 21], ...].
(3.97)
3.8
Esercizi
44
Esercizio 3.13 Una disuguaglianza termodinamica.
Derivare la disuguaglianza (∂N/∂µ)(T ,V ) > 0. Soluzione: dalla (3.94) otteniamo:
µ
∂N
∂µ
"µ
¶
=−
(T ,V )
∂µ
∂V
¶
µ
(N,T )
∂V
∂N
#−1
¶
.
(3.98)
(µ,T )
Osserviamo poi che dalla condizione che dA (vedi la (3.37)) sia un differenziale esatto segue:
µ
∂µ
∂V
¶
µ
=−
(T ,N )
∂P
∂N
¶
µ
,
da cui :
(T ,V )
"µ
¶
∂N
∂µ
=
(T ,V )
∂P
∂N
¶
µ
(T ,V )
∂V
∂N
¶
#−1
.
(3.99)
(µ,T )
Osserviamo che dalla relazione di Gibbs-Duhem (vedi la (3.14)), segue µ = µ(P, T ); dalla (3.96) otteniamo:
µ
∂N
∂V
¶
µ
=
(P,T )
∂N
∂V
¶
µ
+
(µ,T )
∂N
∂µ
¶
µ
(T ,V )
∂µ
∂V
¶
;
(3.100)
(P,T )
in particolare, a P, T costanti anche µ è costante; la (3.100) diventa allora:
µ
∂N
∂V
¶
µ
=
(P,T )
∂N
∂V
¶
=n
(3.101)
(µ,T )
(n =
˙ N/V è la densità). Usando la (3.93), e sostituendo la (3.101) nella seconda delle (3.99), otteniamo:
µ
∂N
∂µ
µ
¶
=
(T ,V )
∂N
∂P
¶
(T ,V )
µ
∂N
∂V
µ
¶
=n
(µ,T )
∂N
∂P
¶
.
(3.102)
(T ,V )
Per N fissato, P, V e T sono legati da una qualche equazione di stato, che possiamo scrivere come
F (P, V, T ) = 0 ; possiamo allora usare la (3.94), per cui la (3.102) diventa:
µ
∂N
∂µ
¶
(T ,V )
" µ
#
µ
¶
µ
¶
¶
∂N
∂V
∂V
=n −
= −n2
=
˙ n 2 V κT > 0 .
∂V (P,T ) ∂P (N,T )
∂P (N,T )
(3.103)
Esercizio 3.14 Positività della comprimibilità isoterma.
Mostrare qualitativamente, con un argomento analogo a quello per la (3.8), che la positività di κT,N
(vedi la (3.72)), è una condizione necessaria per la stabilità di un sistema in equilibrio rispetto allo ”scambio
di volume”.
4
Meccanica statistica microcanonica
Secondo la termodinamica nella rappresentazione dell’entropia, lo stato di equilibrio di un sistema
isolato è quello in cui l’entropia è massima rispetto a tutte le trasformazioni virtuali a energia costante. In
questo capitolo deriveremo la densità di probabilità ρ che descrive un sistema isolato usando la condizione
di massimo del ”funzionale entropia” S[ρ]: ritroveremo cosı̀ la ρ microcanonica, ρmc , già suggerita dalla
teoria ergodica. La teoria microcanonica fornisce un contesto utile per introdurre un altro degli strumenti
fondamentali della meccanica statistica: il ”limite termodinamico”.
4.1 La distribuzione microcanonica
Un metodo per determinare la funzione di distribuzione per un sistema isolato è suggerito dal modo
con cui la termodinamica caratterizza lo stato di equilibrio (di un sistema isolato). Consideriamo, al
solito, un gas costituito di molecole di un solo tipo, e ricordiamo che lo stato di equilibrio termodinamico
è caratterizzato dal postulato S4 (pag. 30: ”massimo dell’entropia”). Qui di seguito mostriamo che una
condizione di ”massimo dell’entropia” può essere formulata anche nell’ambito della meccanica statistica, e
che da essa si può derivare la densità microcanonica (1.17).
Cominciamo col definire ”densità di probabilità di un gas isolato in equilibrio” la ρ, che indicheremo
con ρmc , tale che l’entropia S[ρ]:
Z
S=
˙ S[ρ] =
˙ − kB
dµ ρ ln(Σ0 ρ)
(1.16)
Σ(E)
sia massima in ρ = ρmc rispetto a tutte le ρ = ρmc + δρ che soddisfano la condizione di normalizzazione:
Z
K[ρ] =
˙
dµ ρ − 1 = 0 .
(4.1)
Σ(E)
La densità ρmc deve allora soddisfare la condizione che sia nulla la variazione di S[ρ] al primo ordine in δρ
(per ogni δρ compatibile con la (4.1)), cioè che sia:
δS =
˙ S[ρmc + δρ] − S[ρmc ] = O[(δρ)2 ] .
(4.2)
Calcoliamo ρmc con il metodo dei moltiplicatori di Lagrange (1) . Poniamo:
S 0 [ρ] =
˙ S[ρ] + λ0 K[ρ] ,
(4.3)
dove λ0 è il moltiplicatore. Definiamo ρmc (funzione di λ0 ) mediante la condizione che S 0 [ρ] abbia un
estremo in ρmc , con λ0 fissato, rispetto a tutte le ρmc + δρ con δρ arbitraria. Condizione necessaria per
l’estremo è che sia:
δS 0 =
˙ S 0 [ρmc + δρ] − S 0 [ρmc ] = O[(δρ)2 ] .
(1)
(4.4)
In effetti, qui si usa una versione del metodo dei moltiplicatori di L. in cui si cercano gli estremi di un f unzionale (in
uno spazio di f unzioni). I metodi appropriati sono quelli del calcolo variazionale, il cui strumento principale è la ”derivata
funzionale” (vedi, ad esempio: [BDFN app. L]).
4.2
Il limite termodinamico
La (4.4) implica:
46
Z
−kB
·
λ0
dµ ln(Σ0 ρmc ) + 1 −
k
Σ(E)
B
¸
δρ = 0 .
(4.5)
Perchè la (4.5) sia vera per δρ arbitraria, si deve annullare il coefficiente di δρ nell’integrando. ρmc è allora
determinata dalle due equazioni:
Z
λ0
ln(Σ0 ρmc ) + 1 −
= 0;
dµ ρmc = 1 .
(4.6)
kB
Σ(E)
Ricavando λ0 dalla seconda delle (4.6), si ottiene la ρ (normalizzata) per la quale S[ρ] ha un estremo:
Z
−1
ρmc (x) = Σ(E)
(x ∈ Σ(E) ,
con : Σ(E) =
˙
dµ
(4.7)
Σ(E)
(si ricordi che Σ(E) indica sia la superficie Σ(E), che l’area della stessa) (2) .
Risulta dunque che la densità di probabilità per un sistema isolato, ρmc , è ”costante sulla superficie
dell’energia”, consistentemente con l’ipotesi ergodica (§ 1.3). Dalla (1.10), calcolata per ρ = ρmc , otteniamo
l’entropia microcanonica per un sistema isolato, che indichiamo con Smc (E):
Smc (E) = kB ln [Σ(E)/Σ0 ] .
(4.8)
Esempi della (4.8) saranno illustrati nel paragrafo 3.
4.2 Il limite termodinamico
Finora non abbiamo ancora tenuto conto di una condizione che è sottintesa in ogni considerazione
termodinamica, e cioè che il sistema in esame sia ”grande”. La necessità di questa condizione può essere
illustrata con considerazioni elementari. Consideriamo ad esempio la relazione:
s = s(u, v) ,
(4.9)
che segue dalla (3.10) prendendo λ = 1/N , e definendo:
s=
˙
S
,
N
u=
˙
U
,
N
v=
˙
V
.
N
(4.10)
La (4.9) è una relazione tra sole quantità intensive, e quindi non dipende da quanto il sistema è ”grande”
(per un altro esempio di relazioni tra sole quantità intensive vedi le (3.82)). È facile verificare che la
possibilità di ridursi alle sole quantità intensive vale solo a determinate condizioni. Studiamo un gas
(classico) in cui N atomi interagiscono con forze a coppie, funzioni della distanza tra gli atomi della
coppia (questa situazione è tipica dei gas ”neutri”), e consideriamo il ruolo del range delle forze. L’energia
potenziale del gas è:
V ({q}) =
˙ V (q1 , . . . , qN ) =
˙
1 XN
vij ,
i6=j=1
2
con :
vij =
˙ v(|qi − qj |)
(4.11)
(assumiamo che le funzioni v siano le stesse per tutte le coppie). Assumiamo che le configurazioni
(q1 , . . . , qN ) con densità di probabilità non nulla (”configurazioni permesse”) siano caratterizzate da una
densità n (n =
˙ N/V ) finita: ciò è assicurato se, come di solito avviene, l’energia ha, per distanze molto
piccole, un andamento del tipo ”hard core”. Assumiamo ancora che il range r0 della forza sia ”corto”. Più
precisamente, se indichiamo con L una lunghezza caratteristica macroscopica (ad esempio una dimensione
(2)
È possibile verificare, con un calcolo analogo a quello dell’es. 1.5c, che la (4.7) corrisponde ad un massimo di S[ρ].
4.3
L’entropia microcanonica: esempi
47
lineare del contenitore del gas), assumiamo che sia: r0 ¿ L (di fatto, r0 risulta dell’ordine di qualche
decina di diametri atomici). Per forze a corto range possiamo assumere: vij = 0, se |qi − qj | > r0 . Allora,
per le configurazioni permesse, il numero dei termini non nulli nella somma (4.11) è uguale a N α/2, dove:
α ≈ n(4/3)πr03 . Se poi la media hvij i è la stessa per tutte le coppie di atomi, e scriviamo hvi =
˙ hvij i, la
media di V è (come ordine di grandezza):
hV i =
1
N α hvi ∝ N .
2
(4.12)
La media dell’energia potenziale è dunque proporzionale ad N . La media dell’energia cinetica, K, è
anch’essa proporzionale ad N . Segue: U =
˙ hK + V i ∝ N . Quindi, se le forze interatomiche hanno corto
range, l’energia interna è estensiva. Per contro, è facile vedere che se le forze avessero range ”infinito”
(come la attrazione gravitazionale in un sistema di masse), la media dell’energia potenziale sarebbe proporzionale a N (N − 1) ≈ N 2 , e quindi non sarebbe estensiva.
Studiamo l’influenza esercitata sulle proprietà termodinamiche di un gas dalla forma del suo contenitore. Limitiamoci a considerare contenitori di forma ”normale”, cioè tale che esista una lunghezza L in
modo che il volume del contenitore stesso, V , soddisfi la condizione: V ∝ L3 . L’influenza di cui sopra
dovrebbe essere riconducibile ad un comportamento degli atomi diverso a secondo che essi si trovino vicino
alle pareti oppure all’interno del volume. Una tale diversità potrebbe essere prodotta da una diversità tra le
forze atomo-parete e le forze atomo-atomo. Assumiamo che, per quasi tutte le configurazioni, il contributo
(alle proprietà termodinamiche del gas) degli atomi vicini alle pareti sia proporzionale al loro numero, Np ,
cioè al numero degli atomi contenuti in un ”cilindro” di base L2 e altezza r0 : Np ∝ nr0 V 2/3 , dove n è la
densità. L’esperienza indica che, per gas racchiusi in contenitori di forma normale, la forma del contenitore
non ha alcuna influenza sulle proprietà termodinamiche. Ciò implica che il rapporto Np /N ∝ r0 V −1/3 (si
ricordi che N = nV ∝ V ) è trascurabile, il che è possibile solo se V è ”molto grande”. Assumiamo dunque
che la meccanica statistica sia applicabile solo a sistemi ”grandi”. Per esprimere in termini matematici
tale ipotesi è necessario applicare il limite termodinamico (o limite macroscopico), che definiamo qui di
seguito.
La definizione precisa del ”limite termodinamico”, che indicheremo con L, dipende dal tipo di equilibrio cui è soggetto il sistema: per un gas isolato esso è definito come:
¸
·
U N
,
= cost. ;
(4.13)
L=
˙
lim , con :
V V
U,V,N →∞
invece, per un gas in equilibrio termico a T (temperatura) data (§ 5.1) esso è definito come:
·
¸
N
L=
˙
lim , con : T,
= cost. ;
V
V,N →∞
infine, per un gas in equilibrio termico e chimico a (T, µ) dati (§ 5.4) esso è definito come:
·
¸
L=
˙
lim , con : T, µ = cost. .
(4.14)
(4.15)
V →∞
In generale, L consiste nel ”far tendere all’infinito la dimensione del sistema, mantenendo inalterate le
quantità intensive”, come la densità, la temperatura, il potenziale chimico, gli eventuali campi esterni,
ecc.. Il ruolo, nella teoria, del limite termodinamico può essere riassunto come segue [Gr72 § II.A.1]:
LT) L’esperienza mostra che i gas (e più in generale: i sistemi termodinamici) si comportano come
se U, V, N fossero infinitamente grandi. Per un dato sistema, la condizione di ”essere infinitamente
grande” viene realizzata applicando, alle espressioni matematiche che rappresentano le proprietà
del sistema, il limite termodinamico.
4.3
L’entropia microcanonica: esempi
48
Il limite termodinamico di una quantità ”estensiva” (E, S, . . . ) produce un infinito: L hHi = ∞ !
È quindi essenziale che esso venga applicato ad espressioni in cui figurano solo quantità ”intensive”, cioè
rapporti tra quantità estensive (3) : ad esempio, ci si può aspettare che sia: L (hHi/ V ) < ∞.
4.3 L’entropia microcanonica: esempi
In questo paragrafo calcoliamo l’entropia microcanonica per due sistemi con microstati continui. Cominciamo con il caso di un sistema di N oscillatori armonici indipendenti, che per semplicità assumiamo
unidimensionali e di massa 1. La hamiltoniana del sistema è
(4)
:
N
¢
1 X¡ 2
pi + ωi2 qi2 .
2 i=1
H =
˙
(4.16)
Sia E l’energia del sistema. Notiamo che l’area della superficie dell’energia, Σ(E), può essere ottenuta da
un’altra grandezza, più facile da calcolare: il volume, Γ (E), della regione limitata da Σ(E): Γ (E) =
˙ {x :
0 ≤ H(x) ≤ E}. Infatti, Γ (E) è:
Z
Z
Γ (E) =
˙
dx =
H≤E
Z
E
dE
Z
0
dµ =
˙
Σ(E 0 )
0
E
dE 0 Σ(E 0 ).
(4.17)
0
Dalla (4.17) otteniamo allora Σ(E) come:
Σ(E) =
∂Γ
.
∂E
(4.18)
Riscriviamo la hamiltoniana (4.16) ponendo: xi =
˙ ωi qi , xN +i = pi , per: i = 1, . . . N . La superficie
√
dell’energia: Σ(E), diventa la superficie di una sfera di raggio R =
˙ 2E nello spazio euclideo R2N . Nelle
QN
Q2N
QN
N
−N
=
˙
nuove coordinate, l’elemento di volume è: dx =
˙
i=1 ωi . Il
j=1 dxj , con: ω
i=1 dqi dpi = ω
volume, Γ (E), della regione limitata dalla superficie dell’energia è allora:
Z
N
Y
Γ (E) =
˙
Z
dqi dpi = ω
H≤E i=1
2N
Y
−N
x21 +...x22N ≤R2 j=1
dxj .
(4.19)
Sia Γn (R), per un generico intero n, il volume della sfera di raggio R (con centro nell’origine) in Rn :
Z
Γn (R) =
˙
n
Y
x21 +...x2n ≤R2 j=1
dxj .
(4.20)
Poniamo: Γn (R) =
˙ Cn Rn , dove la costante Cn risulta essere (vedi § 4):
Cn = π n/2 [(n/2)!]−1 .
(4.21)
Γ (E) = ω −N Γ2N (R) =
˙ ω −N C2N R2N ,
(4.22)
Otteniamo allora:
(3)
Dal punto di vista matematico, si pone il problema delle condizioni che garantiscano che, per esempio, E =
˙ hHi risulti
estensiva: per esempio, risulta che la eventuale forza attrattiva tra le molecole deve annullarsi, al crescere della distanza, in
modo opportunamente rapido [Ru69 § 3.2.3].
(4)
Se qi sono le ”ampiezze dei modi propri”, e pi i corrispondenti momenti coniugati, la hamiltoniana del sistema di
oscillatori è equivalente a quella di un solido ideale d-dimensionale di N/d atomi puntiformi [RiCa § 16.2].
4.3
L’entropia microcanonica: esempi
49
cioè, usando la (4.21):
1 (2π)N N
E .
ωN N !
Calcoliamo ora Smc . Usando la (4.23) nella (4.18) otteniamo:
Γ (E) =
Σ(E) =
˙
(4.23)
∂Γ
N (2π)N N −1
= N
E
.
∂E
ω
N!
(4.24)
Usando poi la approssimazione di Stirling per il fattoriale:
√
N ! ≈ N N e−N 2πN ,
possiamo scrivere (per N À 1):
1
Σ(E) = √
2πN
µ
per :
2πe E
ω N
¶N
N À 1,
(4.25)
N
.
E
(4.26)
Notiamo che Σ(E) ha dimensione: [Σ] = (azione)N /energia. Poniamo allora: Σ0 =
˙ hN ε−1 , dove h ed ε
sono due costanti con la dimensione di una azione e, rispettivamente, di una energia. Segue:
"µ
¶N #
√
Σ(E)
2πe E
εN
= kB ln
+ kB ln
− kB ln 2πN .
(4.27)
Smc =
˙ kB ln
Σ0
hω N
E
Nel limite termodinamico, qui definito come:
·
L=
˙
lim ,
¸
con :
E/N = cost. ,
(4.28)
E,N →∞
otteniamo l’entropia (microcanonica) ”per oscillatore”:
µ
¶
Smc
1 E
smc =
˙ L
= kB ln
+ s0 ,
N
hω N
con :
s0 =
˙ ln (2πe).
Per N ”sufficientemente grande”, possiamo scrivere l’entropia del sistema di N oscillatori come:
µ
¶
1 E
Smc = N kB ln
+ N s0 .
hω N
(4.29)
(4.30)
Come ulteriore esempio, consideriamo un gas ideale di N molecole puntiformi di massa m, tutte dello
stesso tipo, in un volume V =
˙ L3 , e con energia E. La hamiltoniana del sistema è:
H =
˙
3N
1 X 2
p .
2m i=1 i
(4.31)
Ora Γ (E) è il prodotto:
Γ (E) = V N Γ3N (R) ,
(4.32)
√
dove Γ3N (R) è il volume della sfera di raggio R =
˙ 2mE nello spazio euclideo, di dimensione 3N , dei
momenti. Dalla (4.22) segue:
π (3N/2)
Γ (E) = V N
(2mE)(3N/2) ;
(4.33)
(3N /2)!
Σ(E) = 2πmV N
(2πmE)(3N/2−1)
(2πmE)(3N/2−1)
≈ 2πmV N
,
(3N/2 − 1)!
(3N/2)!
(4.34)
dove abbiamo usato la condizione: N À 1. In virtù della formula di Stirling (4.25) segue:
Σ(E) ≈ 2πmV
N
¸3N/2
·
(3N/2−1)
N
(2πmE)
1
4πmeE
1
√
√
=V
.
(3N/2) −3N/2
3N
E
(3N/2)
e
3πN
3πN
(4.35)
4.4
L’entropia microcanonica: esempi
50
Dalle (4.8) e (4.35), ponendo: Σ0 =
˙ h3N ε−1 , e trascurando (per N À 1) i termini costanti e quelli in ln N ,
e ln(ε/E), segue:
" µ
¶3/2 #
Σ(E)
4πm E
3
Smc =
˙ kB ln
= N kB ln V
+ N kB .
(4.36)
2
Σ0
3h N
2
L’espressione (4.36) dell’entropia del gas ideale presenta una interessante anomalia. Infatti, l’entropia
(4.36) non è una funzione omogenea (vedi la (3.10)) delle variabili estensive, e quindi non possiede una
delle proprietà essenziali dell’entropia termodinamica. Inoltre, l’entropia (4.36), divisa per N , non ammette
limite termodinamico (la (4.36) porta a previsioni fisicamente inaccettabili: vedi l’es. 4.4c). La difficoltà
può essere ”superata”, introducendo una ”area effettiva” della superficie dell’energia: Σeff (E) =
˙ Σ(E)/N !,
e definendo l’entropia in termini di Σeff :
·
Smc
Σeff (E)
=
˙ kB ln
Σ0
¸
·
¸
1 Σ(E)
=
˙ kB ln
.
N ! Σ0
(4.37)
Dalle (4.35) e (4.37) segue immediatamente, usando ancora la (4.25):
"
Smc
V
= N kB ln
N
µ
4πm E
3 h2 N
¶3/2 #
5
+ N kB .
2
(4.38)
La (4.38) è omogenea, ed è fisicamente corretta (vedi la (3.86)). Inoltre, Smc /N ha ora un limite termodinamico ben definito. Infatti, posto:
E
V
=
˙ u,
=
˙ v,
(4.39)
N
N
e definendo il limite termodinamico come: L =
˙ [E, V, N → ∞, con: u, v costanti], risulta:
" µ
¶3/2 #
Smc
4πm
5
L
= kB ln v
u
+ kB .
2
N
3h
2
(4.40)
Invece di introdurre il fattore N ! tramite Σeff , possiamo, equivalentemente, usare, al posto delle (1.10)
e (4.1), le formule:
Z
Z
S[ρ] =
˙ − kB
dµeff ρ ln(Σ0 ρ) ,
dµeff ρ = 1 ,
(4.41)
Σ
Σ(E)
con: dµeff =
˙ dµ/N ! (vedi l’es. 4.5). L’uso di dµeff invece di dµ, o di Σeff al posto di Σ, non può essere
giustificato (se non per il fatto che ”funziona”!). Quindi la (4.41) o la (4.37) non sono, nell’ambito della
meccanica statistica classica, giustificabili. La situazione cambia nell’ambito della meccanica statistica
quantistica. Infatti, molecole identiche godono della proprietà che microstati che differiscono per una
permutazione di due molecole sono identici (”indistinguibilità” delle molecole): la necessità di usare dµeff
invece di dµ è evidentemente un riflesso di tale proprietà (5) .
Il fattore N ! deve essere usato in modo appropriato. Ad esempio, se le N molecole del gas sono
racchiuse in due sottovolumi impermeabili, V1 e V2 , contenenti rispettivamente N1 ed N2 molecole (con:
N1 +N2 = N ), l’indistinguibilità vale solo per le molecole di V1 e, rispettivamente, di V2 : il fattore che deve
comparire nell’espressione del ”volume effettivo” è allora N1 ! N2 ! , e non N ! . L’indistinguibilità non gioca
alcun ruolo nemmeno per sistemi in cui le particelle sono, per qualche motivo, distinguibili. Ad esempio,
gli oscillatori che figurano nella (4.16) non sono particelle in uno spazio fisico [RiCa l.c.], e quindi non si
pone la possibilità che si permutino tra di loro! Quindi gli oscillatori devono essere considerati distinguibili,
e il fattore N ! non deve comparire.
Osserviamo infine che i modelli di sistemi ideali, come il solido ideale o il gas ideale, sono basati su
ipotesi contraddittorie! Infatti, nello spirito della teoria ergodica, lo spazio delle fasi accessibile utilizzato
(5)
L’uso di dµeff invece di dµ è chiamato ”correct Boltzmann counting”.
4.5
Altre espressioni dell’entropia microcanonica
51
per calcolare l’entropia deve essere lo spazio effettivamente accessibile al sistema. Consideriamo ad esempio
l’area (4.34): il suo uso nella (4.36) è giustificato solo se l’energia di ogni molecola assume tutti i valori
compatibili con il valore dell’energia totale. Tuttavia, se le molecole sono indipendenti ognuna di esse
mantiene la propria energia ”iniziale”, e quindi lo spazio effettivamente visitato è solo un sottoinsieme
(proprio) di Σ ! L’uso di Σ è giustificato solo se tutte le configurazioni possibili sono effettivamente
accessibili: ciò richiede che esistano collisioni tra le molecole e che esse siano sufficientemente frequenti, in
contraddizione con l’ipotesi che il gas in discussione sia ideale. In realtà, nessun gas è ideale: tuttavia, un
gas reale può venire a trovarsi in condizioni (alte temperature e/o basse densità) in cui le interazioni possono
essere per certi versi ignorate. Per un gas in tali condizioni, è lecito approssimare la hamiltoniana vera
con la (4.31), e quindi approssimare la superficie vera dell’energia con una superficie sferica. Tuttavia, le
interazioni non sono trascurate del tutto: la loro esistenza continua a manifestarsi nell’ipotesi che lo spazio
delle fasi accessibile sia l’intera superficie dell’energia. Quindi, il calcolo illustrato sopra non rappresenta
una teoria errata del gas ideale, ma una teoria approssimata del gas reale.
4.4 Volume della sfera n-dimensionale
Sia f (R) una generica funzione (integrabile) su Rn , funzione della sola distanza dall’origine. Possiamo
scrivere l’integrale di f (R) su tutto Rn come [Hu87 § 6.5]:
Z +∞
Z +∞
Z ∞
dx1 · · ·
dxn f (R) =
dR Σn (R) f (R) ,
(4.42)
−∞
−∞
0
dove Σn (R) è l’area della sfera di raggio R. Notiamo che:
Z
Γn (R) =
˙
R
dR0 Σn (R0 ) ,
da cui :
dΓn
= n Cn Rn−1 .
dR
Σn (R) =
0
(4.43)
Prendiamo f (R) =
˙ exp(−R2 ). Usando la (4.43), cambiando variabile di integrazione (t = R2 ), e integrando
per parti, otteniamo:
Z +∞
Z +∞
Z ∞
Z ∞
2
2
2
dx1 · · ·
dxn e−R =
dR Σn (R) e−R =
˙ n Cn
dR Rn−1 e−R =
−∞
−∞
0
0
(4.44)
Z ∞
³n´
³n
´
n
n
n/2−1 −t
= Cn
Cn Γ
= Cn Γ
+1 =
˙ Cn (n/2)!
dt t
e =
˙
2
2
2
2
0
(non si confonda la ”funzione” Γ(n) (6) con il ”volume” Γn ). Invece, calcolando direttamente otteniamo:
¸n
·Z +∞
Z +∞
Z +∞
2
2
dx e−x
= π n/2 .
(4.45)
dxn e−R =
dx1 · · ·
−∞
−∞
−∞
Dal confronto tra la (4.45) e la (4.44) segue la (4.21): Cn = π n/2 [(n/2)!]−1 .
4.5 Altre espressioni dell’entropia microcanonica
Il limite termodinamico permette di correggere una debolezza della teoria microcanonica. Infatti,
dobbiamo osservare che la condizione di isolamento ”perfetto” del sistema, cioè la condizione che il valore
(6)
¢
½ n ¡n
·
− 1 · ··· · 2 · 1
2 ¡2
¢
(n/2)! =
˙ Γ(n/2 + 1) =
n
3 1 √
n
2
·
2
− 1 · ··· ·
2
·
2
·
π
(n pari) ;
(n dispari) .
4.5
Altre espressioni dell’entropia microcanonica
52
dell’energia sia definito con precisione (H = E), non è realistica. È dunque opportuno riformulare la teoria
”attenuando” la condizione di isolamento: supponiamo allora che l’energia sia definita a meno di ∆, dove
∆ è una costante di valore imprecisato, ma comunque piccolo rispetto ad E (∆ ¿ E), e sostituiamo la
condizione H = E con la condizione:
E−∆≤H ≤E.
(4.46)
Chiameremo ”∆-isolato” un sistema che soddisfa la (4.46). Lo spazio delle fasi accessibile è ora lo ”strato
dell’energia”, Γ∆ (E):
Γ∆ (E) =
˙ {x : E − ∆ ≤ H(x) ≤ E} ,
(4.47)
e S[ρ] deve essere definita come:
Z
S[ρ] = −kB
dx ρ ln(Γ0 ρ) ,
(4.48)
Γ∆
dove Γ0 è una costante da determinarsi. Come prima, determiniamo ρmc imponendo la condizione che S[ρ]
sia massima per ρ = ρmc . Il calcolo è analogo a quello per i sistemi isolati, e il risultato è (es. 4.1b):
−1
ρmc (x) = Γ∆ (E)
(per
x ∈ Γ∆ (E)) ,
(4.49)
dove Γ∆ (E) indica il volume dello strato Γ∆ (E):
Z
Γ∆ (E) =
˙
dx .
(4.50)
Γ∆ (E)
∆
Usando la (4.49) nella (4.48) otteniamo l’entropia microcanonica per un sistema ∆-isolato, Smc (E):
∆
Smc (E) = kB ln (Γ∆ (E)/Γ0 ) .
(4.51)
Abbiamo dunque due espressioni per l’entropia del gas: la (4.8) e la (4.51). Le due espressioni sono
diverse, consistentemente con il fatto che esse si riferiscono a due gas in condizioni microscopiche diverse.
Tuttavia, l’esperienza mostra che, anche se l’energia di un sistema macroscopico è determinata solo a meno
di ∆ (nel senso della (4.46)), le sue proprietà termodinamiche non sono influenzate dal valore di ∆. In
particolare, per un sistema macroscopico l’entropia (4.51) deve essere uguale all’entropia (4.8), e quindi
”indipendente da ∆”. Infatti, usando la condizione ∆ ¿ E, e la (4.18), possiamo scrivere:
Γ∆ (E) = Γ (E) − Γ (E − ∆) ≈
∂Γ
∆=
˙ Σ(E) ∆.
∂E
(4.52)
Posto Γ0 =
˙ Σ0 E0 , dove E0 è un’altra costante, dalla (4.51) e dalla (4.18) segue:
∆
Smc = kB ln
Σ(E)
∆
∆
+ kB ln
=
˙ Smc + kB ln
.
Σ0
E◦
E◦
(4.53)
Supponiamo ora che, nel limite termodinamico, ∆ rimanga costante (ma anche se fosse, per esempio:
∆ ∝ N , la conclusione sarebbe la stessa), e supponiamo che L (Smc /N ) esista (negli esempi del § 3 ciò
risulta vero: vedi la (4.40)). Segue:
∆
Smc
Smc
L
=L
.
(4.54)
N
N
Quindi, nel limite termodinamico, l’entropia per molecola di un gas isolato (condizione poco realistica) è
dunque uguale a quella di un gas nella condizione (più realistica) di ∆−isolamento.
Il limite termodinamico permette di introdurre una ulteriore espressione dell’entropia microcanonica.
Cominciamo col considerare, in uno spazio di dimensione n, due sfere concentriche di raggi R e, rispettivamente: R − ∆ =
˙ (1 − ∆/R) R =
˙ εR, con ∆ ¿ R, e quindi ε / 1 (e R − ∆ ¿ R). Indichiamo con Γ (R)
4.7
Le condizioni di stabilità
53
il volume di una sfera di raggio R. Il rapporto tra il volume dello strato (compreso tra le superfici delle
due sfere) e il volume della sfera esterna è:
Γ∆ (R)
Γ (R) − Γ (εR)
=
˙
= 1 − εn .
Γ (R)
Γ (R)
(4.55)
Per n → ∞ abbiamo: Γ∆ (R)/Γ (R) → 1; quindi, il ”volume dello strato diventa uguale al volume della
sfera”. Assumendo che il risultato sia valido anche per i volumi Γ (E) e Γ∆ (E), e assumendo: ∆ ¿ E, nel
Γ
limite termodinamico risulta: Γ∆ (E)/Γ (E) → 1. Definiamo allora la ”entropia microcanonica Smc
(E)”
come:
Γ
Smc
(E) =
˙ kB ln(Γ (E)/Γ0 ).
(4.56)
∆
Γ
coincide con Smc , e quindi con Smc :
Da quanto sopra segue che, nel limite termodinamico, Smc
Γ
L
∆
Smc
S
Smc
= L mc = L
.
N
N
N
(4.57)
Nel caso del gas ideale, per esempio, l’uso della (4.56) consentirebbe di derivare la (4.40) direttamente
dalla (4.33), senza passare per la (4.34). Più significativamente, la (4.56) consente (vedi il paragrafo
seguente) una facile verifica del fatto che l’entropia microcanonica possiede tutte le proprietà dell’entropia
termodinamica.
4.6 Additività dell’entropia microcanonica
La termodinamica studia grandezze, come l’entropia, l’energia interna, ecc., che sono interpretate dalla
meccanica statistica come valori medi di opportune grandezze microscopiche. Quello che la termodinamica
non può studiare, invece, sono gli scostamenti delle grandezze dai loro valori medi (”fluttuazioni”). Queste
possono essere studiate nel modo più conveniente nella meccanica statistica canonica (§ 5.3): qui possiamo
tuttavia vederne una anticipazione, considerando l’entropia di un sistema globalmente isolato (e quindi
microcanonico), ma diviso in due sottosistemi in interazione [Hu87 § 6.2].
Consideriamo un gas isolato e in equilibrio, composto da due gas separati da una parete rigida e
impermeabile, ma che permette ai due gas di scambiarsi energia (calore). La hamiltoniana del sistema
complessivo è: H = H1 + H2 + H 0 , dove H 0 rappresenta l’interazione tra i due gas. La presenza di H 0 è
necessaria, se si vuole che le energie dei due gas non rimangano costanti (se i due gas non interagiscono la
additività è banale: vedi l’es. 1.5a,b). Nel limite termodinamico, tuttavia, H 0 può essere trascurata, se le
forze tra le molecole sono a corto raggio d’azione. In tal caso, infatti, l’energia di interazione è proporzionale
alla superficie della parete che separa i due gas, mentre le energie H1 ed H2 sono proporzionali ai rispettivi
numeri di molecole, cioè ai volumi. Nel limite termodinamico il rapporto tra superficie e volume tende a
zero, e possiamo assumere: H 0 /H1 , H 0 /H2 → 0 [Bal § 4.3]. Possiamo quindi scrivere H = H1 + H2 . I
due gas hanno allora energie ben definite, (E1 , E2 ), che assumono, nello spazio delle fasi Γ (E) (dove E è
l’energia totale del sistema), tutti i valori compatibili con la relazione:
E1 + E2 ≤ E .
(4.58)
Mostriamo che ai due gas si possono associare entropie Smc (1) ed Smc (2), tali che l’entropia del gas
complessivo, Smc , risulta essere: Smc = Smc (1) + Smc (2) (”additività di Smc ”). In virtù dell’identità
4.7
Le condizioni di stabilità
54
(4.57), useremo, per l’entropia microcanonica, l’espressione (4.56). Calcoliamo il volume Γ (E) relativo al
gas complessivo. Risulta:
Z
Z
Z
Γ (E) =
˙
dx =
dx1
dx2 =
Z
H≤E
=
H1 ≤E
H2 ≤E−E1
Z E
dx1 Γ2 (E − E1 ) =
(4.59)
dE1 Σ1 (E1 ) Γ2 (E − E1 ) .
H1 ≤E
0
Dividiamo l’intervallo (0, E) in E/∆ intervalli di lunghezza ∆, e calcoliamo l’integrale (4.59) come:
Z
dE1 Σ1 (E1 ) Γ2 (E − E1 ) ≈
0
≈
E/∆
X
X
E/∆
E
Γ (E) =
˙
∆ Σ1 (Ei ) Γ2 (E − Ei ) ≈
i=1
X
(4.60)
E/∆
Γ∆ 1 (Ei ) Γ2 (E − Ei ) ≈
i=1
Γ1 (Ei ) Γ2 (E − Ei ) ,
i=1
dove la ∆ Σ1 (Ei ) ≈ Γ∆ 1 (Ei ) ≈ Γ1 (Ei ) segue dalla (4.52) e dalla (4.55). I volumi Γ (E) sono funzioni molto
rapidamente crescenti di E (vedi, ad esempio, la (4.33)): quindi Γ1 (E1 ) è funzione molto rapidamente
crescente (di E1 ), e Γ2 (E − E1 ) è funzione molto rapidamente decrescente (di E1 ). Possiamo quindi
assumere che il prodotto Γ1 (E1 )Γ2 (E − E1 ) presenti un massimo, cioè che uno dei termini della somma
(4.60) sia più grande di tutti gli altri. Supponiamo che il termine più grande sia il j-esimo. Posto E 1 =
˙ Ej ,
possiamo allora scrivere:
Γ1 (E 1 ) Γ2 (E − E 1 ) ≤ Γ (E) ≤
(1)
E
Γ1 (E 1 ) Γ2 (E − E 1 ) .
∆
(4.61)
(2)
˙ N1 + N2 . Dividendo
Poniamo Γ0 =
˙ Γ0 Γ0 ; siano poi (N1 , N2 ) i numeri di molecole dei due gas, con N =
la (4.61) per Γ0 , prendendo il logaritmo, e introducendo fattori N in modo opportuno, otteniamo:
"
#
"
#
N1 1
Γ1 (E 1 )
N2 1
Γ2 (E − E 1 )
1
Γ (E)
ln
+
ln
≤
ln
≤
(1)
(2)
N N1
N N2
N
Γ0
Γ0
Γ0
#
#
"
"
(4.62)
N2 1
1
E
N1 1
Γ1 (E 1 )
Γ2 (E − E 1 )
+
.
≤
ln +
ln
ln
(1)
(2)
N
∆
N N1
N N2
Γ
Γ
0
0
Prendiamo il limite termodinamico, qui definito come nella (4.13) con la ulteriore condizione che i rapporti
Ni /N =
˙ ni (i = 1, 2) rimangano costanti. Posto:
"
#
·
¸
Γi (E i )
1
Γ (E)
1
=
˙ si , (i = 1, 2) , e : L
L
ln
ln
=
˙ s,
(4.63)
(i)
Ni
N
Γ0
Γ
0
Γ
dove le s sono le ”entropie per particella” (s =
˙ S/N ; scriviamo S al posto di Smc
), otteniamo:
s = n 1 s1 + n 2 s2 .
(4.64)
Consideriamo valori di (N, N1 , N2 ) abbastanza grandi da essere ”già nel limite termodinamico”. Allora,
moltiplicando la (4.64) per N , e ponendo Si =
˙ Ni si (i = 1, 2), e S =
˙ N s, la (4.64) implica:
S(E) ≈ S1 (E 1 ) + S2 (E 2 ) .
(4.65)
La (4.65), o, più rigorosamente, la (4.64), esprimono la additività dell’entropia microcanonica. Inoltre,
la (4.65) implica che il volume Γ (E) è, approssimativamente: Γ (E) ≈ Γ1 (E 1 ) Γ2 (E 2 ), dove (E 1 , E 2 )
è la ripartizione (dell’energia) più probabile. Le altre ripartizioni (E1 , E2 ) sono realizzate in volumi di
spazio delle fasi molto più piccoli. La ”fluttuazione dell’energia”, cioè, per il sottosistema 1 (ad esempio):
4.7
La distribuzione di Maxwell
55
­
®
(E1 − E 1 )2 , sarà calcolata in seguito (vedi la (5.29).
Il termine massimo della somma (4.60), corrispondente alla ripartizione più probabile dell’energia, è
individuato dalla condizione:
¯
¯
∂
[Γ1 (E1 ) Γ2 (E2 )]¯¯ = 0 .
∂E 1
E1
(4.66)
Dalla (4.66) segue immediatamente:
µ
Poniamo:
·
¸¶
µ
·
¸¶
1
∂Γ1 (E1 )
1
∂Γ2 (E2 )
=
.
Γ1 (E1 )
∂E1
Γ2 (E2 )
∂E2
E1
E2
"
#¯
1
Γi (E) ¯¯
1
∂
k ln (i) ¯
=
˙
=
˙
¯
Ti
∂E B
T (E i )
Γ0
(i = 1, 2) .
(4.67)
(4.68)
Ei
La (4.67) equivale allora alla condizione:
T1 = T2 .
(4.69)
La (4.69) autorizza l’identificazione di T con la temperatura, e la (4.68) diventa
1
∂S
=
.
T
∂E
(4.70)
In modo analogo si possono derivare le altre due relazioni (3.2). Quanto sopra è una ulteriore conferma
della validità dell’identificazione di Smc con l’entropia termodinamica.
4.7 La distribuzione di Maxwell
Mostriamo come la distribuzione di Maxwell può essere derivata, per il gas ideale, dalla distribuzione
microcanonica. Secondo la meccanica statistica microcanonica di un sistema isolato, tutti i punti sulla
superficie dell’energia di un gas ideale di N molecole, che per semplicità consideriamo puntiformi e di
massa m, corrispondono a stati ugualmente probabili. D’altra parte, da considerazioni cinetiche sappiamo
[Pat § 6.4], che la densità di probabilità per la velocità di una molecola di un gas è la ”distribuzione di
Maxwell”: f (v) = fx (vx )fy (vy )fz (vz ), dove:
r
fx (vx ) =
˙
a −avx2
e
,
π
con
a=
˙
m
2kB T
(4.71)
(e analogamente per fy e fz ), oppure, per il modulo v =
˙ |v|:
f (v) = 4π
³ a ´3/2
π
2
v 2 e−av .
(4.72)
(per una derivazione della (4.71) vedi l’es. 4.6). La (4.71) e la (4.72) mostrano che la molecola ”preferisce”
le velocità basse, in apparente contraddizione con l’uguale probabilità per tutti gli stati possibili ricordata
sopra. Qui di seguito mostriamo (per il gas ideale) che non sussiste alcuna contraddizione, e che, anzi, è
possibile derivare la distribuzione di Maxwell dalla distribuzione microcanonica.
Consideriamo dapprima un esempio. Sia S un insieme di N particelle, distribuite uniformemente su
un disco, D, di raggio R, nel piano (x, y): la densità di particelle è allora: σ 0 (x, y) =
˙ N/πR2 (se (x, y) ∈ D),
e la densità di probabilità per la posizione di una particella è: σ(x, y) =
˙ σ 0 /N = 1/πR2 . Consideriamo
poi l’insieme L, ottenuto proiettando la posizione di ognuna delle particelle di S sull’asse x, e associando
4.7
La distribuzione di Maxwell
56
a ognuna delle proiezioni una particella: L è quindi un insieme di N particelle sull’asse x. Il numero delle
particelle di L contenute in un segmento dx è:
Z
λ0 (x) dx = dx
y+
dy σ 0 (x, y) ,
con
y± =
˙ ±
p
R2 − x2 ,
(4.73)
y−
e la densità di probabilità per una delle particelle proiettate è
λ(x) =
˙
λ0
2 p 2
=
R − x2 .
N
πR2
(4.74)
Analogamente, nel caso in cui l’insieme S sia concentrato sulla sola circonferenza di D, la densità σ è:
σ(x, y) =
˙
³p
´
1
δ
x2 + y 2 − R
2πR
(4.75)
(dove δ(z) è la delta di Dirac di argomento z), mentre la densità λ diventa:
λ(x) =
1
.
π R2 − x2
√
(4.76)
Consideriamo ora lo stesso problema in uno spazio con un numero di dimensioni molto grande. Supponiamo che l’insieme S di N punti sia concentrato, con densità uniforme, sulla superficie di una sfera di
raggio R in uno spazio di dimensione n.Questo è, in particolare, il caso della superficie dell’energia, H = E,
p
di un gas ideale di N molecole puntiformi di massa m: in tal caso abbiamo n =
˙ 3N , e R = 2E/m. La
densità di probabilità nello spazio n-dimensionale è:
¶
µq
1
(4.77)
σ(x1 , · · · , xn ) =
˙
δ
x21 + · · · + x2n − R ,
Sn
dove Sn = nCn Rn−1 (Sn è l’area della superficie della sfera, e Cn è dato dalla (4.21)). Sia S 0 l’insieme
ottenuto proiettando S su un sottospazio di dimensione n0 < n; poniamo:
¢ ¡
¢
¡
2
2
˙ r0 + r00 .
r2 =
˙ x21 + · · · + x2n = x21 + · · · + x2n0 + x2n0 +1 + · · · + x2n =
(4.78)
La densità di S 0 , f (x1 , · · · , xn0 ), segue integrando σ(xn0 +1 , · · · , xn ) sulle coordinate:
1
=
Sn
Z
³p
dxn0 +1 · · · dxn δ
r0 2 + r00 2 − R
´
.
(4.79)
Conviene introdurre coordinate polari nello spazio (xn0 +1 , · · · , xn ). Poniamo n00 =
˙ n − n0 , e scriviamo:
00
dxn0 +1 · · · dxn =
˙ dxn0 +1 · · · dxn0 +n00 = dΩn00 (r00 )n
−1
dr00 ,
(4.80)
00
dove dΩn00 è l’elemento di angolo solido in Rn . Integrando sugli angoli segue:
Z
00
00
con : Sn00 =
˙ n00 Cn00 (r00 )n −1 .
(r00 )n −1 dr00 dΩn00 = dr00 Sn00 ,
(4.81)
Integrando sugli angoli il secondo membro della (4.79) otteniamo allora:
f (x1 , · · · , xn0 ) =
n00 Cn00 1
n Cn Rn−1
Z
dr00 (r00 )n
00
−1
³p
δ
´
r0 2 + r00 2 − R .
(4.82)
Notiamo poi che risulta:
³p
δ
´
´
³
p
R
r0 2 + r00 2 − R = p
δ r00 − R2 − r0 2 .
R2 − r 0 2
(4.83)
4.8
Esercizi
57
La (4.82) diventa allora:
f=
³
´(n00 −1)/2
n00 Cn00 1
R
2
02
p
R
−
r
.
n Cn Rn−1 R2 − r0 2
(4.84)
Poniamo ora n = 3N ed n0 = 3. È facile vedere che, supponendo N À 1, e usando la formula di Stirling
(4.25), risulta:
"µ
· 00
¸
¶3/2 #
µ
¶3/2
3N
n Cn00
3N
n00 Cn00
≈ ln
ln
,
cioè
≈
.
(4.85)
n Cn
2π
n Cn
2π
Segue allora (ponendo N − 1 ≈ N , e simili):
µ
µ
¶3N/2 µ
¶3/2
·
µ
¶¸3N/2
x1 2
x1 2
3N
1
f (x1 ) =
1− 2
≈
exp − 2
.
(4.86)
R
2π
R3N
R
p
p
Scrivendo infine v al posto di x1 , e ponendo R = 2E/m = 3N kB T /m (dove E ed m sono, rispettivamente, l’energia totale del gas e la massa di una molecola), segue:
3N
2π
¶3/2
1
R3N
µ
f (v) =
˙ fx (vx )fy (vy )fz (vz ) =
m
2πkB T
¶3/2
µ
¶
mv 2
exp −
.
2kB T
(4.87)
4.8 Esercizi
Esercizio 4.1 Sistemi isolati.
a) Calcolare l’energia interna del sistema descritto dalla (4.7). [Risultato: U =
˙ hHi = E.]
b) Derivare la (4.49). [Applicare il metodo variazionale alla (4.48).]
Esercizio 4.2 Additività dell’entropia microcanonica.
Mostrare che, per un sistema costituito da due sottosistemi indipendenti (cioè: non interagenti né
meccanicamente né termicamente), l’entropia microcanonica risulta la somma delle entropie microcanoniche dei sottosistemi: S = S1 + S2 . [Si mostri che Σ(E) = Σ1 (E1 ) Σ2 (E2 ) (dove: E = E1 + E2 ), e si ponga
(1) (2)
Σ◦ =
˙ Σ◦ Σ◦ .]
Esercizio 4.3 Sistemi ideali.
a) Ricavare dalla (4.30) la temperatura e la capacità termica del sistema di oscillatori (4.16)
[C =
˙ dQ/dT =
˙ dE/dT =
˙ T (dS/dT ). Risultato: C = N kB .] Mostrare che per un sistema di oscillatori armonici indipendenti tridimensionali, risulta: C = 3N kB .
b) Ricavare dalla (4.38) la temperatura del gas ideale.
c) Ricavare dalla (4.38) l’equazione di stato P = P (T, V, N ) per il gas ideale.
d) Ricavare dalla (4.38) il potenziale chimico del gas ideale, e confrontare con la (3.85).
Esercizio 4.4 Miscele di gas ideali.
Si scriva la (4.38) come
" µ
¶ 32 #
µ
¶
5
V 3
5
V 2πmkB
2
T
+ N kB =
˙ N kB ln
T
+ NK
S = N kB ln
2
N
h
2
N
2
(4.88)
e si considerino i due seguenti stati termodinamici:
α) due volumi V1 e V2 , con V1 + V2 = V , contenenti due gas di N1 e, rispettivamente, N2 molecole
4.8
Esercizi
58
dello stesso tipo, con N1 + N2 = N , entrambi con la stessa temperatura e la stessa pressione;
β) un volume V contenente le N molecole descritte in (α), cioè la miscela dei due gas.
a) Calcolare, sulla base della (4.88), e ricordando che per ipotesi valgono le condizioni:
V
V1 + V2
V1
V2
=
=
=
,
N
N1 + N2
N1
N2
l’entropia nei due stati, e mostrare che Sα = Sβ [Poichè, per ipotesi, le molecole dei due gas sono identiche,
il sistema può passare da α a β, e viceversa, semplicemente inserendo e, rispettivamente, estraendo una
separazione in grado di dividere V in V1 e V2 ; quindi la trasformazione è reversibile.]
b) Considerare due situazioni, α0 e β 0 , analoghe a quelle descritte sopra, ma con gas costituiti di
molecole di tipo diverso. Mostrare che, secondo la (4.88), ora risulta Sα0 < Sβ 0 . Quindi, il miscelamento
di due gas diversi produce un aumento dell’entropia: mostrare che l’origine dell’aumento stànell’aumento
del volume disponibile ai gas, e non nel miscelamento.
c) Calcolare l’entropia di miscelamento di due gas ideali, costituiti da molecole dello stesso tipo, sulla
base della (4.36), e verificare che, contrariamente al risultato del punto (b), essa risulta positiva (”paradosso
di Gibbs” [Hu87 § 6.6]).
d) Mostrare che per un gas ideale (in equilibrio) di N molecole, di cui N1 sono di un gas ideale di tipo
Pr
1, ecc. , Nr di un gas ideale di tipo r, con i=1 Nr = N , in un volume V alla temperatura T , la pressione
è la somma delle ”pressioni parziali”:
P =
r
X
Pi ,
con
Pi = Ni
i=1
kB T
Ni
=
˙
P .
V
N
(4.89)
Esercizio 4.5 Elemento di area effettivo.
Cercare la ρ che rende S[ρ] (vedi la (4.41)) estrema rispetto a tutte le ρ che soddisfano la seconda
delle (4.41). Calcolare la corrispondente Smc . [Risultati: ρmc = N !/Σ(E); Smc = Σ(E)/N !Σ0 .]
Esercizio 4.6 Distribuzione di Maxwell.
Si supponga che la probabilità che, a un dato istante, la velocità di una molecola di un gas ideale
abbia la componente x compresa tra vx e vx + dvx , ecc., sia:
fx (vx ) fy (vy ) fz (vz ) dvx dvy dvz .
(4.90)
Si supponga inoltre che, in assenza di forze esterne, la densità di probabilità sia la stessa nelle tre direzioni
dello spazio (vx , vy , vz ), cioè che le tre funzioni (fx , fy , fz ) siano la stessa funzione, f , eqche il numero
(4.90) sia lo stesso per tutti i valori di vx , vy , vz che cadono nello strato (v, v + dv) dove v = vx2 + vy2 + vz2 :
quindi il numero (4.90) dipende solo dal modulo v, e sia
f (vx ) f (vy ) f (vz ) =
˙ φ(v) ,
(4.91)
dove φ è una funzione da determinare.
a) Si consideri una variazione di, per esempio, vx e vy , a vz costante, tale che v rimanga costante:
dv =
vx dvx + vy dvy
=0,
v
(4.92)
e si mostri che f (vx ) ed f (vy ) soddisfano l’equazione
df (vx )
1
df (vy )
1
=
.
vx f (vx ) dvx
vy f (vy ) dvy
(4.93)
4.8
Esercizi
59
Mostrare che la (4.93) è risolta dalle
2
f (vx ) = c e−avx ,
2
f (vy ) = c e−avy
(4.94)
(per f (vz ) si procede in modo analogo), dove c e a sono costanti positive da determinare.
b) Dalla condizione di normalizzazione
Z
Z
∞
dvx f (vx )
−∞
derivare: c =
Z
∞
∞
dvy f (vy )
−∞
dvz f (vz ) = 1 ,
(4.95)
−∞
p
a/π. Calcolare l’energia cinetica media di una molecola:
ε=
˙
Z
¢® 1 ³ a ´3/2 ∞
1 ­¡ 2
3m
m vx + vy2 + vz2 = m
,
4π dv v 4 f (v) =
2
2
π
4a
0
(4.96)
e uguagliandola al risultato termodinamico (per il gas ideale): ε =
˙ E/N = 3kB T /2, derivare: a = m/2kB T
(J.C. Maxwell (1860), cit. in [Bru76 vol. 1, § 5.1]).
5
Meccanica statistica canonica
Come strumento per la derivazione delle proprietà termodinamiche di un sistema fisico concreto, il
metodo microcanonico si rivela assai poco efficiente: infatti, la geometria della superficie dell’energia è,
per sistemi non ideali, cosı̀ complessa da rendere di fatto impossibile il calcolo di Σ(E) (o di Γ (E)). Anche
dal punto di vista fenomenologico, la meccanica statistica microcanonica è di interesse limitato, perchè la
difficoltà di sperimentare sui sistemi isolati rende difficili le verifiche empiriche della teoria. In effetti la
condizione più facile da realizzare in laboratorio non è quella di isolamento, ma quella di equilibrio (termico, materiale, ecc.) con opportune ”riserve” (riserve di energia per i sistemi a T costante, di particelle
per i sistemi a µ costante, ecc.). Quindi, sia per il trattamento matematico che per il confronto con gli
esperimenti, è di solito più conveniente utilizzare la meccanica statistica canonica, che studia sistemi che
assumono tutti i valori dell’energia (equilibrio termico), o, limitatamente ai gas, quella gran canonica, che
studia gas in equilibrio termico e che assumono tutti i valori del numero di molecole (equilibrio materiale).
Naturalmente, le proprietà di un sistema termodinamico (come, ad esempio, l’equazione di stato) non
dipendono, di solito, dalla condizione (di isolamento, o di equilibrio termico con una riserva di calore, o
altro) del sistema. Si pone quindi il problema di dimostrare che le diverse ”meccaniche statistiche” (microcanonica, canonica, gran canonica) portano alle stesse proprietà fisiche (”problema dell’equivalenza”).
5.1 La distribuzione canonica (metodi variazionali)
La meccanica statistica canonica studia sistemi (in equilibrio) per i quali la hamiltoniana può assumere
valori arbitrari, cioè per i quali lo spazio delle fasi accessibile coincide con l’intero spazio delle fasi. Fisicamente, ciò può essere realizzato mettendo i sistemi in interazione (”contatto termico”) con una riserva di
calore: l’interazione fàsı̀ che la hamiltoniana del sistema non sia costante del moto, e possa assumere valori
diversi. Le variazioni dell’energia del sistema devono aver luogo rispettando la condizione dell’equilibrio
termodinamico. Matematicamente, ciò può essere espresso in due modi:
A) assegnando il valore di T ;
B) assegnando il valore di hHi.
A) Assumiamo che sia assegnata la temperatura, T . Ricordiamo la condizione di equilibrio per un
”sistema a T costante” (vedi § 3.4), e postuliamo il seguente
Principio del minimo dell’energia libera: La densità di probabilità nello spazio dei microstati di un
sistema in equilibrio termico con una riserva di calore è quella che rende minimo il funzionale ”energia
libera (di Helmholtz)”.
Definiamo la ”energia libera (di Helmholtz) nello stato ρ”:
Z
Z
A[ρ] =
˙ U [ρ] − T S[ρ] =
Γ
dx H ρ + T kB
dx ρ ln(Γ0 ρ) .
Γ
(5.1)
5.1
La distribuzione canonica (metodi variazionali)
61
ρc è allora quella per cui A[ρ] è minima rispetto a tutte le ρ =
˙ ρc + δρ compatibili con la condizione di
normalizzazione:
Z
dx ρ = 1 .
(5.2)
Γ
Come nel § 4.1, consideriamo il funzionale:
A0 [ρ] =
˙ A[ρ] + λ0 K[ρ] ,
(5.3)
dove λ0 è un moltiplicatore di Lagrange. Determiniamo allora ρc dalla condizione (analoga alla (4.4)):
δA0 =
˙ A0 [ρc + δρ] − A0 [ρc ] = O[(δρ)2 ] .
Annullando il termine del primo ordine in δρ, si ottiene (1) :
Z
1 −βH
1
ρc =
e
dx e−βH ,
,
con : Z =
˙
Γ0 Z
Γ0 Γ
con :
(5.4)
β=
˙
1
.
kB T
(5.5)
Calcolando A[ρ] con ρ = ρc otteniamo
A=
˙ A(T, V, N ) = −kB T ln Z .
(5.6)
Le (5.5) e (5.6) sono le relazioni fondamentali della meccanica statistica canonica (cosı̀ come le (4.8) sono
le relazioni fondamentali della meccanica statistica microcanonica).
Per un gas di N particelle identiche risulta, da considerazioni analoghe a quelle del § 4.3, che l’elemento
di volume da utilizzare per le integrazioni sullo spazio delle fasi (per il calcolo della funzione di partizione,
o dei valori medi) deve essere l’ elemento di volume effettivo, dxeff =
˙ dx/N ! :
Z
Z
1
1
Z =
˙
dxeff e−βH(x) =
˙
dx e−βH(x) .
(5.7)
Γ0 Γ
Γ0 N ! Γ
La distribuzione canonica per un gas di N particelle identiche si scrive allora:
Z
1 −βH(x)
ρc (x) =
˙
e
,
con :
dxeff ρc (x) = 1 .
Γ0 Z
Γ
(5.8)
B) Assumiamo che sia assegnato il valor medio di H:
hHi = U .
(5.9)
La distribuzione canonica, ρc , può essere determinata generalizzando il metodo del ”massimo dell’entropia”
(§ 4.1). Formuliamo il seguente
Principio del massimo dell’entropia: La densità di probabilità nello spazio dei microstati di un sistema
è quella che, tra tutte quelle compatibili con i vincoli assegnati, rende massima l’entropia.
Nel § 4.1 l’unico vincolo era la normalizzazione delle ρ; qui abbiamo anche la condizione (5.9). Definiamo
allora il funzionale (indichiamo con Γ lo spazio delle fasi del sistema):
Z
U [ρ] =
˙ hHi − U =
˙
dx ρ H − U .
(5.10)
Γ
(1)
Un metodo approssimato per verificare che ρc corrisponde effettivamente ad un minimo di A[ρ] potrebbe essere quello
di: a) assumere che ρc sia definita su un Γ f inito (bisogna assumere: ρc = 0 per H opportunamente grande); b) discretizzare
Γ: Γ = ∪γi (i = 1, . . . , N ); c) assumere H (e ρc ) uniforme in ognuno dei γi , e scrivere A[ρ] come una somma finita (del tipo
(1.8)); d) seguire il metodo dell’es. 1.5d.
5.2
La distribuzione canonica (altra derivazione)
62
Consideriamo il funzionale:
S 00 [ρ] =
˙ S[ρ] + λ U [ρ] + λ0 K[ρ] ,
(5.11)
dove λ e λ0 sono moltiplicatori di Lagrange. Determiniamo ρc dalla condizione:
δS 00 =
˙ S 00 [ρc + δρ] − S 00 [ρc ] = O[(δρ)2 ] .
(5.12)
Annullando il termine del primo ordine in δρ, si ottiene:
ρc =
1 λH/k
B ,
e
Γ0 Z
con :
Z =
˙
1
Γ0
Z
dx eλH/kB .
(5.13)
Γ
Calcoliamo hHi con ρ = ρc . Posto: γ =
˙ λ/kB , segue:
Z
∂
dx H ρc =
ln Z .
hHi =
˙
∂γ
Γ
(5.14)
Usando: hHi =
˙ U , e ricordando la (3.39), possiamo identificare:
γ=
˙ −β,
ln Z =
˙ − βA .
(5.15)
Ritroviamo cosı̀ le (5.5) e (5.6).
5.2 La distribuzione canonica (altra derivazione)
Nel paragrafo precedente abbiamo ricavato la distribuzione canonica da postulati (”minimo di A”, e
”massimo di S con la condizione hHi = U ”) diversi da quelli introdotti nei capitoli precedenti. Tuttavia,
un postulato era già stato formulato (sotto varie forme: ”massimo di S” (senza la condizione hHi = U ),
”principio di equiprobabilità degli stati” (P2 , pag. 4), ”ipotesi ergodica”), e sarebbe desiderabile basare
tutta la teoria su quello solo. Qui di seguito mostriamo che la distribuzione canonica può essere dedotta
dalla sola teoria microcanonica, senza dover ricorrere ad ulteriori postulati (2) .
Consideriamo un sistema, s, e una riserva di calore, r, e supponiamo che l’ ”unione” di s ed r costituisca
un sistema isolato in equilibrio, che indichiamo con s + r, con energia E. Supponiamo che s [r] occupi un
volume Vs [Vr ] e sia costituito di Ns [Nr ] molecole, con: Ns ¿ Nr , e: Vs ¿ Vr , e siano Hs e Hr le rispettive
hamiltoniane. Supponiamo che s ed r siano separati da una parete diatermica (ma fissa e impermeabile).
Dal punto di vista microscopico, s e r sono sistemi interagenti: supponiamo però che la hamiltoniana di
interazione, Hsr , pur presente, in modo da consentire scambi di energia, sia ”trascurabile” rispetto ad Hs
ed Hr . Scriviamo quindi la hamiltoniana totale come:
H ≈ Hs + Hr ,
(5.16)
dove Hs e Hr possono assumere tutti i valori, Es ed Er , compatibili con la condizione: Es + Er = E.
Sia xs un microstato di s. Introduciamo una funzione ρs (xs ), sullo spazio delle fasi, Γ (s) , di s, tale che
ρs (xs ) dxs è la probabilità di trovare s in un volume dxs , indipendentemente dal microstato di r (ρs è
(r)
calcolata qui di seguito). Sia poi Γδ (Er ) è la regione (nello spazio delle fasi di r) costituita dai punti xr
(r)
tali che: Er =
˙ Hr (xr ) = E − Hs (xs ), per xs ∈ dxs . La regione Γδ (Er ) è uno ”strato” (vedi la (4.47)):
il suo volume può però (vedi la (4.55)) essere sostituito dal volume di tutta la regione, Γ (r) (Er ), interna
(2)
La distribuzione canonica potrebbe essere semplicemente postulata (come, per esempio, in [Geo]): ciò è giustificato sia
perchè nessuna delle derivazioni proposte risulta del tutto soddisfacente, sia perchè i riscontri sperimentali sono tali da non
lasciare dubbi sulla sua validità.
5.3
La fluttuazione dell’energia
63
alla superficie Hr = Er . Dalla equiprobabilità dei microstati del sistema isolato s + r, segue allora che
ρs (xs ) dxs è proporzionale a Γ (r) (Er ) dxs :
(r)
ρs (xs ) dxs ∝ Γδ (Er ) dxs ≈ Γ (r) (Er ) dxs ,
da cui : ρs (xs ) = C Γ (r) (Er ),
(5.17)
dove C è una costante, che sarà determinata dalla condizione di normalizzazione. Supponiamo ora che sia
Es ¿ Er (in generale possono esistere microstati in cui Es ≥ Er ; dobbiamo quindi assumere che la relativa
(densità di) probabilità sia trascurabile), e sviluppiamo in serie di Taylor rispetto ad Es . Trascurando i
termini in (Es )2 , segue:
¸
∂Γ (r)
Es =
∂Er E
¶
µ
· (r) ¸
1
∂Γ
(r)
Es ≈ Γ (r) (E) exp [−β 0 Es ] ,
= Γ (E) 1 − (r)
Γ (E) ∂Er E
·
Γ (r) (Er ) =
˙ Γ (r) (E − Es ) ≈ Γ (r) (E) −
dove abbiamo posto:
· (r) ¸
∂Γ
∂
Γ (r) (E)
1
β =
=
˙
ln
.
˙ (r)
∂E
Γ0
Γ (E) ∂Er E
0
(5.18)
(5.19)
Ricaviamo Γ (r) (Er ) dalla (5.18), e sostituiamo nella (5.17); normalizzando segue (omettiamo l’indice s):
Z
0
1
1
−β 0 H
ρ=
e
,
con
:
Z
=
˙
dx e−β H .
(5.20)
0
Γ0 Z
Γ0 Γ
L’entropia corrispondente alla (5.20) è:
Z
­ ®
S=
˙ − kB dx ρ ln(Γ0 ρ) = kB ln Z 0 + kB β 0 H .
(5.21)
Posto U =
˙ hHi, e confrontando con la relazione termodinamica: A = U − T S, seguono le identificazioni:
β 0 = (kB T )−1 ,
−kB T ln Z 0 = A ,
(5.22)
e: Z 0 coincide con la funzione di patrizione (5.5) (nel caso dei gas è necessario introdurre il fattore N !,
come nella (5.7)).
5.3 La fluttuazione dell’energia
In questo paragrafo accenniamo ad un importante problema che nasce dal confronto tra la meccanica
statistica e la termodinamica. Cominciamo coll’osservare che, secondo la termodinamica, un gas (per esempio) può essere descritto mediante diversi insiemi di variabili indipendenti: (U, V, N ), (T, V, N ), (T, V, µ),
ecc.. A seconda dei casi, può essere conveniente scegliere un insieme piuttosto che un altro: per esempio, se
stiamo considerando un sistema in equilibrio termico con un termostato, è naturale scegliere come variabile
indipendente T , piuttosto che U . Tuttavia, i vari insiemi di variabili indipendenti sono equivalenti, nel
senso che essi forniscono descrizioni identiche. Dal punto di vista matematico, l’equivalenza è garantita
dalle proprietà delle trasformate di Legendre. Dal punto di vista fisico, l’equivalenza è confermata dal fatto
che le proprietà termodinamiche di un sistema non dipendono dalla scelta delle variabili: per esempio, le
due seguenti forme dell’equazione di stato del gas ideale:
P =
2U
=
˙ P (U, V, N ) ,
3V
hanno lo stesso contenuto fisico.
P =
N kB T
=
˙ P (T, V, N ) ,
V
(5.23)
5.4
Il problema dell’equivalenza
64
Secondo la meccanica statistica, invece, l’equivalenza è garantita solo sotto opportune condizioni.
Consideriamo, ad esempio, la relazione tra l’energia libera di Helmholtz e l’entropia. La meccanica statistica
canonica calcola l’energia libera di Helmholtz come: A(T ) =
˙ − T ln Z(T ) (in questo paragrafo scegliamo
unità di misura tali che kB = Σ0 = Γ0 = 1). Analogamente, l’espressione microcanonica dell’entropia è:
S(E) = ln Σ(E). Scriviamo Z come:
Z
Z =
˙ Z(β) =
˙
Z
dx e
−βH(x)
Z
∞
=
dE e
Z
−βE
dµ =
˙
0
Σ(E)
∞
dE e−βE Σ(E) .
(5.24)
0
Dalla (5.24) (3) segue che nella meccanica statistica canonica l’energia libera è legata all’entropia da una
relazione di tipo integrale:
−
A
= ln
T
·Z
∞
¸
dE e−βE Σ(E)
·Z
∞
=
˙ ln
0
¸
dE eS(E)−βE .
(5.25)
0
La (5.24) è diversa dalla relazione termodinamica (vedi la (3.35)):
−A/T = S − U/T .
(5.26)
Pertanto, l’energia libera derivata dalla meccanica statistica canonica, e l’entropia derivata dalla meccanica
statistica microcanonica, non sono legate da una trasformata di Legendre, e quindi la meccanica statistica
canonica e quella microcanonica non sono equivalenti! Questa conclusione non deve sorprendere, dato che
le proprietà ”meccaniche”, e quindi ”meccanico-statistiche”, di un sistema devono essere diverse a secondo
che il sistema sia isolato o no. Nel § 4 mostreremo che, sotto opportune condizioni, la (5.25) implica la
(5.26)! Qui ci limitiamo a considerare il problema dal punto di vista della ”fluttuazione dell’energia”:
­
2
(H − hHi)
®
­
®
=
˙ (H − U )2 .
(5.27)
Consideriamo la meccanica statistica microcanonica di un sistema isolato con hamiltoniana H, e
sia H = E. È ovvio che il valor medio (microcanonico) di H, cioè l’energia interna, coincide con E:
­
®
hHi =
˙ U = E. Inoltre, la probabilità che H abbia valori diversi da hHi è nulla: (H − U )2 = 0. Nella
meccanica statistica microcanonica la fluttuazione dell’energia è quindi nulla. La meccanica statistica
canonica, invece, considera il sistema come in equilibrio termico con una riserva di calore: a un sistema di
questo tipo è associata una temperatura ben definita, ma non una energia ben definita. È facile calcolare la
fluttuazione dell’energia secondo la meccanica statistica canonica. Infatti, consideriamo le seguenti formule
(che si verificano facilmente):
hHi = −
Segue:
­
2
(H − hHi)
®
­ 2®
1 ∂2Z
H =
.
Z ∂β 2
1 ∂Z
,
Z ∂β
µ
­ ® ­ ®2
∂
= H2 − H =
∂β
1 ∂Z
Z ∂β
¶
=
˙ −
∂U
∂U
= T2
=
˙ T 2 CV ,
∂β
∂T
(5.28)
(5.29)
dove CV è la capacità termica a V, N costanti (qui di seguito scriviamo C). Per la meccanica statistica
canonica, la fluttuazione dell’energia è allora diversa da zero! Consideriamo, tuttavia, la fluttuazione
(quadratica) ”relativa” (di H):
(3)
­
2
(H − U )
U2
®
= T2
C
.
U2
(5.30)
La (5.24) mostra che Z(β) è la trasformata di Laplace di Σ(E) (risulta inoltre che Σ(E) ha il significato di ”densità
degli stati”). In linea di principio, la (5.24) può essere invertita in modo da esprimere Σ(E) come trasformata di Laplace
inversa di Z(β) (per un semplice esempio, vedi [KiES Example 12.1]).
5.4
Il problema dell’equivalenza
65
Nel limite termodinamico segue allora:
­
®
(H − U )2
1
L
∝L
= 0.
U2
N
(5.31)
Quindi, se C < ∞, la fluttuazione relativa dell’energia tende, nel limite termodinamico, a zero. La (5.31)
assicura che l’energia interna ha un valore ”ben definito” (nel senso che, nel limite termodinamico, la
fluttuazione di H è trascurabile rispetto al valor medio di H) anche per la meccanica statistica canonica.
Questo risultato conferma che la descrizione canonica può essere equivalente a quella microcanonica.
5.4 Il problema dell’equivalenza
Consideriamo il problema dell’equivalenza, tra la meccanica statistica canonica e quella microcanonica,
dal punto di vista della relazione tra la (5.25) e la (5.26) (il problema dell’equivalenza è uno dei temi teorici
cruciali per i fondamenti della meccanica statistica: i cenni che ne facciamo qui servono solo ad illustrare
il problema, per una discussione adeguata vedi, ad esempio, [Ru69 § 3.4]). Scriviamo la (5.25) come:
A
− = ln
T
·Z
¸
∞
dE e
−Φ(E)
,
con : Φ(E) =
˙ βE − S(E) .
(5.32)
0
La funzione Φ(E) è la differenza di due funzione positive crescenti monotonicamente. Possiamo allora
ipotizzare che Φ(E) presenti un minimo (unico), in corrispondenza con un valore E = U (da determinarsi).
Sviluppiamo Φ(E) in serie di Taylor intorno ad U , limitandoci al termine del secondo ordine:
Φ(E) = Φ(U ) +
∂Φ
1 ∂2Φ
(E − U ) +
(E − U )2 + · · · .
∂U
2 ∂U 2
(5.33)
L’unica giustificazione del fatto di trascurare i termini di ordine superiore al secondo è che in questo
modo, se la derivata seconda è positiva, l’integrale nella (5.32) esiste. Tuttavia, l’integrale deve esistere:
quindi, qualche meccanismo di convergenza deve essere in atto! Possiamo assumere che le conclusioni cui
arriveremo siano indipendenti dai dettagli del meccanismo. La derivata prima di Φ è nulla (per ipotesi):
da cui:
¯
¯
∂Φ
∂Φ(E) ¯¯
∂S(E) ¯¯
=
˙
=β−
= 0,
∂U
∂E ¯E=U
∂E ¯E=U
(5.34)
¯
1
∂S(E) ¯¯
=
.
T
∂E ¯E=U
(5.35)
La (5.35) permette di determinare U (in funzione di T e delle altre variabili del problema). Usando la
(5.35), e scrivendo: ∂S(E)/∂E =
˙ 1/T (E), otteniamo poi:
·
¸
·
¸
·
¸
∂2Φ
∂ ∂S(E)
∂
1
1 ∂T (E)
=
−
=
˙
−
=
.
∂E ∂E E=U
∂E T (E) E=U
T 2 (E) ∂E E=U
∂U 2
(5.36)
Chiamando E = E(T ) la funzione inversa della T = T (E), abbiamo:
∂T (E)
=
∂E
µ
∂E(T )
∂T
¶−1
=
˙
1
,
C(E)
(5.37)
dove C è la capacità termica (a (V, N ) costanti). Dalla (5.35) segue: T (U ) = T . La (5.36) diventa allora:
∂2Φ
1
1
˙ 2 .
2 = T 2 C(U ) =
T C
∂U
(5.38)
5.5
La distribuzione gran canonica
66
Poichè C > 0 (vedi la (3.8)), la (5.38) è positiva, consistentemente con l’ipotesi che U sia un minimo di Φ.
Z diventa allora:
Z
∞
Z = e−Φ(U )
·
dE exp −
0
¸
1
2
(E
−
U
)
.
2 T 2C
(5.39)
Supponiamo ancora che U e C siano tali da poter estendere il limite inferiore, nell’integrale (5.39), a −∞.
Segue:
Z
Z ≈ e−Φ(U )
∞
·
dE exp −
−∞
¸
√
1
2
(E
−
U
)
= e−Φ(U ) 2πT 2 C .
2
2T C
(5.40)
Dalla (5.40) otteniamo:
−
√
√
U
A(T )
=
˙ ln Z(T ) ≈ −Φ(U ) + ln 2πT 2 C =
˙ S(U ) − + ln 2πT 2 C .
T
T
(5.41)
Supponiamo che sia: C < ∞ (la condizione C < ∞ può essere violata, ad esempio, nei punti critici [Sta §
3.2]). Allora C è estensivo: infatti, dalla estensività di U (U ∝ N ) segue: C =
˙ ∂U/∂T ∝ N . Poichè anche
S è estensiva, prendendo il limite termodinamico (§ 4.2), dalla (5.41) segue:
L
A
U − TS
=L
,
N
N
(5.42)
che equivale alla (5.26). Possiamo concludere che, se C < ∞, e nel limite termodinamico, l’espressione
microcanonica dell’entropia e l’espressione canonica dell’energia libera diventano compatibili, cioè che la
meccanica statistica canonica e quella microcanonica sono ”equivalenti”.
5.5 La distribuzione gran canonica
Il passaggio dalla descrizione microcanonica a quella canonica è motivato dalla opportunità di eliminare la condizione: H = E. È spesso utile e/o necessario rimuovere anche la condizione che il numero
delle particelle sia fissato. Sistemi per i quali l’operazione è necessaria sono quelli in equilibrio rispetto
allo scambio di particelle (equilibrio materiale): ad esempio, sistemi di molecole di specie diversa in cui
avvengono reazioni chimiche, oppure sistemi in cui le particelle vengono emesse e riassorbite, come i fotoni
nella ”radiazione di corpo nero”. Per altri sistemi, come ad esempio i gas quantistici di particelle di massa
m > 0, l’operazione non è, in linea di principio, necessaria, ma nondimeno essa risulta conveniente (vedi
il cap. 7). La teoria adatta a studiare i sistemi suddetti è la meccanica statistica ”gran canonica”, che
introduciamo qui di seguito.
Per descrivere un sistema (classico) con un numero di particelle indefinito è necessario introdurre uno
”spazio delle fasi generalizzato”, Γ , definito come l’unione di tutti i ΓN (N = 0, 1, . . .): Γ =
˙ ∪N ΓN , dove
ΓN è lo spazio degli stati con N particelle, e definire una densità di probabilità su Γ , funzione di N e di
xN (con xN ∈ ΓN ): ρ =
˙ ρ(N, xN ), chiamata ”distribuzione gran canonica”. Prima di definire, per una tale
ρ, il ”valor medio”, osserviamo che la meccanica statistica gran canonica è rilevante solo per i gas, e che
per essi si presenta, come per le teorie microcanonica e canonica, il problema della indistinguibilità delle
molecole (anche qui consideremo solo il caso di gas costituiti da molecole dello stesso tipo). Calcoliamo
(N )
allora gli integrali sui vari ΓN con gli elementi di volume effettivi (vedi (4.41) e (5.7)): dxeff =
˙ dx(N ) /N !
dove dx(N ) è l’elemento di volume in ΓN . Ad esempio, la condizione di normalizzazione di ρ(N, xN ) si
esprime come:
∞ Z
X
N =0
ΓN
(N )
dxeff ρ(N, xN ) = 1 .
(5.43)
5.5
La distribuzione gran canonica
67
Si noti che, rispetto alla (5.8), nella (5.43) N si comporta come una ”variabile in più”, e quindi ”l’integrale
sulle x” della (5.8) è sostituito ”dall’integrale sulle x e dalla somma su N ”. Per una data ρ(N, xN ),
definiamo il valor medio di una variabile b(N, xN ) come:
∞ Z
X
­ ®
b =
˙
N =0
(N )
ΓN
dxeff b(N, xN ) ρ(N, xN ) .
(5.44)
In particolare, consideriamo la variabile microscopica ”numero delle molecole”, N . Per un sistema in
equilibrio materiale la variabile macroscopica ”numero delle molecole” è il valor medio hN i:
hN i =
˙
∞ Z
X
N =0
ΓN
(N )
dxeff N ρ(N, xN ) =
∞
X
N =0
Z
(N )
N
ΓN
dxeff ρ(N, xN ) .
(5.45)
La distribuzione gran canonica, ρgc (N, xN ), può essere determinata col metodo variazionale, ricordando la definizione termodinamica di stato di equilibrio per un sistema in equilibrio termico e materiale
(vedi l’es. 3.10):
Principio del minimo del potenziale gran canonico: La densità di probabilità nello spazio dei microstati
di un sistema in equilibrio termico con una riserva di calore e in equilibrio materiale con una riserva
di particelle è quella che rende minimo il potenziale gran canonico (3.43).
Indichiamo con HN la ”hamiltoniana del sistema quando esso si trova in un microstato con N particelle”.
Si trova facilmente (vedi l’es. 5.9a):
ρgc (N ; xN ) =
1
e−β(HN (xN )−µN ) ,
Γ0 (N )Z
(5.46)
dove assumiamo: Γ0 (N ) =
˙ h3N , e dove Z è la ”funzione di gran partizione”:
Z =
˙
∞
X
N =0
1
Γ0 (N )
Z
(N )
ΓN
dxeff e−β(HN −µN ) .
(5.47)
Una utile rappresentazione di Z si ottiene introducendo la ”fugacità”: z =
˙ exp(βµ), e scrivendo Z come:
Z
∞
∞
X
X
eβµN
(N )
Z =
˙ Z(T, V, z) =
dxeff e−βHN =
˙
z N ZN ,
Γ0 (N ) ΓN
N =0
(5.48)
N =0
dove ZN è data dalla (5.7), e dove: Z0 =
˙ 1, consistentemente col fatto che l’energia libera di un gas di 0
particelle deve essere nulla: A0 =
˙ − kB T ln Z0 = 0. Si noti che le variabili indipendenti nella (5.48) sono
(T, V, z), invece di (T, V, µ). Calcolando il potenziale gran canonico Ω[ρ] (vedi l’es. 5.9b), per ρ =
˙ ρgc (con
z, invece di µ, come variabile indipendente), otteniamo:
Ω=
˙ Ω[ρgc ] =
˙ Ω(T, V, z) = −kB T ln Z .
(5.49)
Deriviamo le equazioni di stato. Ricordando la (3.44), possiamo scrivere:
P V = kB T ln Z ,
(5.50)
che dà la pressione come funzione di (T, V, z). Per ottenere l’equazione di stato del gas nella forma più
¡
­ ®¢
­ ®
usuale: P = P T, V, N , è necessario esprimere z in funzione del numero medio di particelle, N . La
probabilità, p(N ), che il sistema abbia N particelle è:
Z
1
(N )
p(N ) =
˙
dxeff ρgc (xN , N ) = z N ZN .
(5.51)
Z
ΓN
5.7
La teoria di Lee-Yang
68
Il numero medio di particelle si può allora calcolare come:
∞
­ ® X
∂
N =
N p(N ) = z
ln Z .
∂z
(5.52)
N =1
Si noti che la (5.52) coincide con la relazione termodinamica: N = −∂Ω/∂µ (vedi la (3.45)). La (5.52)
esprime il valor medio di N in funzione di (T, V, z). La (5.50) e la (5.52) si possono considerare una
rappresentazione parametrica dell’equazione di stato:
1
ln Z ,
βV
(5.53)
­ ® ­ ®
∂
2)
N =
˙ N (T, V, z) = z
ln Z .
∂z
¡
­ ®¢
L’equazione di stato del gas nella forma: P = P T, V, N , segue invertendo la (5.53)(2) per ricavare:
¡
­ ®¢
z = z T, V, N , e poi sostituendo nella (5.53)(1). Il calcolo può essere fatto solo nei casi in cui Z è nota
esplicitamente (come esempi, vedi l’esercizio 5.7b, e il par. 7.8).
1)
P =
˙ P (T, V, z) =
5.6 La fluttuazione del numero di particelle
Consideriamo la fluttuazione di N per un fluido (gas, o liquido, o gas e liquido coesistenti) in equilibrio
materiale con dato µ, e in equilibrio termico con data T . Procedendo come per la (5.51) otteniamo:
∞
∞
X
­ 2®
1 ∂ ∂
1 X 2 N
N z ZN = z
z
Z.
N =
˙
N 2 p(N ) =
˙
Z
Z ∂z ∂z
Dalla (5.52) segue:
(5.54)
N =1
N =1
­ 2 ® ­ ®2
∂
N − N =z
∂z
µ
1 ∂Z
z
Z ∂z
¶
=z
∂hN i
∂hN i
= kB T
.
∂z
∂µ
(5.55)
Ricordiamo poi la formula (vedi (3.103)):
∂hN i
= n2 V κ T ,
∂µ
(5.56)
dove κT è definita nella (3.72). La (5.55) diventa allora:
2
­ 2®
hN i
2
N − hN i = kB T
κT .
V
(5.57)
Se la comprimibilità isoterma κT è finita, allora la fluttuazione risulta finita. Quindi, nel limite
termodinamico (che nella teoria gran canonica si esprime come: L =
˙ V → ∞), la ”fluttuazione quadratica
media relativa” è nulla:
"­
®#
(N − hN i)2
L
= 0.
(5.58)
2
hN i
Analogamente a quanto discusso nel § 4, la (5.58) suggerisce che, se κT < ∞, allora la meccanica statistica
canonica e la gran canonica sono equivalenti [Hu87 § 7.6].
Se κT è infinita, come avviene (nel limite termodinamico) nel punto critico della transizione gas-liquido
(dove l’isoterma P = P (V ) presenta un flesso orizzontale), o nella regione della coesistenza gas-liquido, la
fluttuazione è infinita, e l’equivalenza potrebbe non sussistere.
La fluttuazione al punto critico dà luogo al fenomeno della ”opalescenza critica”, consistente in una
diffusione anomala della luce, che conferisce al fluido un aspetto lattescente [Sta fig. 1.6]. Nella regione di
5.7
La teoria di Lee-Yang
69
coesistenza l’opalescenza non si verifica perchè la gravità determina la separazione delle due fasi: il fluido
risulta cosı̀ costituito da due fluidi (il gas e il liquido) omogenei, in cui la fluttuazione assume valori finiti.
5.7 La teoria di Lee-Yang
Le isoterme di un gas reale presentano, per T < Tc , un tratto orizzontale (vedi la fig. 3.2a), ai cui
estremi la funzione P (V ) è (continua ma) non derivabile. La presenza di ”anomalie”, come la suddetta non
derivabilità, o altro, nelle funzioni termodinamiche, è l’elemento più caratteristico della fenomenologia delle
transizioni di fase, e l’individuazione del meccanismo matematico capace di generare tali anomalie è un
problema teorico di grande interesse. Tale meccanismo dovrebbe essere implicito nella teoria: ad esempio,
nella meccanica statistica canonica, P (V ) dovrebbe potersi ottenere, con le sue anomalie, dalla funzione
di partizione ZN (T, V ) =
˙ Z(T, V, N ) (mediante la (5.5) e la seconda delle (3.38)). È chiaro tuttavia che
sarebbe necessario calcolare ZN in modo esatto, perchè eventuali espressioni approssimate di ZN (vedi,
ad esempio [Re80 § 9.H.1]) non solo danno valori numerici approssimati delle grandezze termodinamiche,
ma, ciò che più importa per il presente problema, possono introdurre proprietà analitiche spurie (come ad
esempio il tratto con ∂P/∂V > 0 nelle isoterme di Van der Waals [Re80 § 9.H.2]). D’altra parte, il calcolo
esatto di ZN è di fatto impossibile, per un gas non ideale. Ciò rende la meccanica statistica canonica
inadatta ad affrontare il problema delle anomalie.
La meccanica statistica gran canonica risulta invece più efficace. Cominciamo col ricordare che la
funzione di gran partizione per un gas in un volume V , con temperatura T e fugacità z è (vedi la (5.48)):
Z=
∞
X
z N ZN .
(5.59)
N =0
L’energia potenziale della forza tra due molecole di un gas reale contiene una parte repulsiva del tipo
(approssimativamente) ”sfera dura”, con raggio r0 , e una parte attrattiva con range finito (vedi fig. 5.1).
V(r)
Fig. 5.1 :
r0
Un potenziale realistico.
r
La parte repulsiva fa sı̀ che, per ogni valore, V , del volume, esista un numero, Nmax =
˙ N (V ), tale che
se il numero delle molecole fosse maggiore di Nmax , allora la distanza tra i centri di almeno una coppia
di molecole sarebbe minore di r0 . Allora, l’energia potenziale di interazione sarebbe +∞, e risulterebbe:
ZN = 0 (per N > Nmax ). Nmax è quindi il numero massimo di molecole che possono essere contenute in
V ; si noti che Nmax non dipende nè da T nè µ, ma solo da V . Segue che, per un dato V , Z diventa un
polinomio (in z) di grado Nmax (con coefficienti positivi):
Z=
N
max
X
z N ZN .
(5.60)
N =0
Una Z modello è la seguente ([UhF § III.4], [Re80 § 9.G]):
Z =
˙
(1 + z)V (1 − z V )
.
1−z
(5.61)
5.7
La teoria di Lee-Yang
70
Si noti che la (5.61) è un polinomio di grado 2V −1 (assumiamo che V sia il volume in unità tali da renderlo
adimensionale) con coefficienti positivi. Quindi la (5.61) è del tipo (5.60) con Nmax (V ) = 2V − 1 (4) . La
pressione P (z) e il volume per particella v(z) seguono dalle (5.53). Consideriamo separatamente i due
intervalli: z < 1, e z > 1. Si ottiene:
£
¤
 V ln(1 + z) + ln(1 − z V ) − ln(1 − z) /V
P (z)
= £
¤

kB T
V ln(1 + z) + ln(z V − 1) − ln(z − 1) /V
(z < 1) ;
(5.62)
(z > 1) .
£
¤
 V z/(1 + z) − V z V /(1 − z V ) + z/(1 − z) /V
1
=
¤
v(z)  £
V z/(1 + z) + V z V /(z V − 1) − z/(z − 1) /V
(z < 1) ;
(5.63)
(z > 1) .
È anche facile verificare che P (z) e v(z) sono continue in z = 1, con:
P (1) = V −1 [V ln 2 + ln V ] ,
v(1) = 1/2 .
(5.64)
Risulta poi che le due funzioni P (z) e v(z) sono monotonicamente crescenti, e che [v(z)]−1 è invertibile
([v(z)]−1 ha un flesso verticale in z = 1: vedi fig. 5.2a). Sostituendo z = z(v) in P (z) si ottiene P in funzione
di v: P = P (v). Risulta che P (v) è continua e derivabile, con un flesso orizzontale in v = v(1) (fig. 5.2b).
____
1
v (z)
Fig. 5.2 :
a) la funzione (5.63);
b) la funzione
P(v)
V<
(b)
___
1
vL
___
1
vg
V=
(a)
P = P (v).
1
z
vL
vg
v
Si noti la somiglianza tra il grafico della funzione P (v) e l’isoterma di un gas reale. Tuttavia, P (v) risulta
derivabile ovunque: dobbiamo allora concludere che, per V finito, il tratto orizzontale e la non derivabilità
di P (v) nei suoi estremi non si manifestano.
Consideriamo allora il limite V → ∞. In tale limite risulta:

ln(1 + z)
(z < 1) ;
P (z) 
=

kB T
ln(z + 1) + ln z
(z > 1) .

 z/(1 + z)
1
=
v(z) 
(2z + 1)/(1 + z)
(5.65)
(z < 1) ;
(5.66)
(z > 1) .
P (z) è continua in z = 1, mentre v −1 (z) ora è discontinua: il grafico di v −1 (z) presenta, nel punto z = 1,
un tratto verticale . Per z < 1 e z > 1 la funzione v = v(z) è invertibile; se poi definiamo z = 1 per
vl < v < vg , otteniamo una funzione z = z(v) definita per ogni z. Sostituendo z(v) in P (z) otteniamo
infine la funzione:
(4)

ln[v(1 − v)/(2v − 1)2 ]



P (v) 
= ln 2

kB T



ln[v/(v − 1)]
(1/2 < v < 2/3) ;
(2/3 < v < 2) ;
(5.67)
(2 < v) .
Per V = 2v, con v dispari (ad esempio), segue: (1 − z 2v ) =
˙ (1 − z v ) (1 + z v ) = (1 − z)(1 + z + z 2 + . . . + z v −1 ) (1 + z v ).
5.8
Esercizi
71
Il grafico della (5.67) ha lo stesso andamento delle isoterme del gas reale per T < Tc !
La comparsa della discontinuità in z = 1 è determinata dal comportamento, nel piano z complesso,
degli zeri della funzione di gran partizione. Osserviamo infatti che, per V finito, Z è, come abbiamo visto
sopra, un polinomio in z di grado Nm :
Z =
˙ 1 + zZ1 + · · · + z Nm ZNm .
(5.68)
I coefficienti Zi (i = 0, . . . , N ) sono positivi: quindi l’equazione Z = 0 non ha radici reali. Si dimostra
allora ([YL52], [Hu87 § 9.3]) che P (z) e v(z) sono funzioni analitiche in una regione del piano z (complesso)
che contiene l’intero asse reale, e che la funzione P (v) è derivabile per 0 < v < ∞: ciò equivale a dire
che per V finito non c’è coesistenza gas-liquido. Invece, per V → ∞, gli zeri di Z aumentano di numero
(Nm cresce) e si muovono nel piano z. Può accadere che un punto, z0 , dell’asse reale diventi punto limite
di una successione di zeri. Si dimostra allora che le suddette proprietà di analiticità valgono per <z < z0
e per <z > z0 , ma non in un intorno di z0 . Il tipo di singolarità in z0 è individuabile solo con uno
studio dettagliato: se, tuttavia, esso consiste in una discontinuità della derivata prima, allora abbiamo
la situazione delle figg. 5.2. Nel caso della funzione (5.61), gli zeri sono facilmente individuabili: essi
coincidono con il punto z = −1 (V volte) e con le radici dell’unità:
z = e2πik/V ,
per :
k = 1, 2, . . . , V − 1 .
(5.69)
Gli zeri (5.69) sono distribuiti uniformemente sul cerchio di raggio 1; per V → ∞ la loro densità aumenta,
e il punto z0 =
˙ 1 diventa un punto limite.
Il comportamento nel limite termodinamico degli zeri della funzione di gran partizione è dunque il
meccanismo matematico che genera le anomalie delle funzioni termodinamiche nella transizione gas-liquido
(”teoria di Yang-Lee”). È bene notare che la conoscenza degli zeri della funzione di gran partizione equivale
alla conoscenza della funzione stessa: dal punto di vista pratico, quindi, la teoria di Yang-Lee, per quanto
elegante, non è, in generale, di grande utilità.
5.8 Esercizi
Esercizio 5.1 Funzione di partizione e quantità termodinamiche.
Verificare le relazioni (vedi la prima delle (3.38) e la (3.39)):
S = kB
∂
∂A
(T ln Z) =
˙ −
;
∂T
∂T
U =
˙ hHi = −
∂
∂
ln Z =
˙
(βA) .
∂β
∂β
(5.70)
Esercizio 5.2 Entropia di un sistema canonico discreto.
Si consideri un sistema in equilibrio a temperatura T , e caratterizzato da microstati discreti con
energie non degeneri Er (r = 1, 2, . . .). Mostrare che l’entropia, S = (U − A)/T , può essere scritta come:
P
S = −kB r pr ln pr , con: pr =
˙ Z −1 e−βEr .
Esercizio 5.3 Energia media di un sistema ideale.
Si consideri un sistema classico, in equilibrio termico ad una temperatura T , i cui microstati corrispondono (uno a uno) ai punti di uno spazio cartesiano di dimensione n con coordinate (x1 , ...xn ), dove
Pn
ad ogni microstato corrisponde l’energia: E({x}) = i=1 αi x2i (αi > 0 per ogni i).
a) Calcolare la funzione di distribuzione canonica e l’energia media. [Risultato: hEi = (n/2)kB T .]
R Q
b) hEi risulta indipendente dagli αi : dimostrarlo a partire dalla definizione: hEi = ( i dxi ) ρc H.
5.8
Esercizi
72
Esercizio 5.4 Sistemi ideali.
a) Derivare l’equazione di stato di un gas ideale classico, usando la meccanica statistica canonica.
b) Verificare che, per un gas ideale di particelle identiche, risulta: A(T, λV, λN ) = λA(T, V, N ) (omogeneità di A).
c) Calcolare la funzione di partizione, l’energia interna, e la capacità termica di un oscillatore armonico
unidimensionale, con hamiltoniana:
H=
1 2 1
p + m ω2 q2 .
2m
2
d) Per il paramagnete di Ising ideale, con energia: E({s}) =
˙ −h
(5.71)
PN
i=1
(5)
µi (vedi l’esercizio 1.4), calcolare
la funzione di partizione, Z, l’energia libera: A(T, h) =
˙ − kB T ln Z
, l’energia interna, e il ”momento
P
N
magnetico totale”: Mt =
˙ h i µi i. [Risultati: [Z = (2cosh βµh) ]; Mt [= −(∂G/ ∂h)] = N µ tanhβµh.]
Esercizio 5.5 Proprietà della funzione di partizione.
a) Come cambiano ρc , Z, A, se al posto della hamiltoniana H si prende la hamiltoniana H + C, con
C costante? Come cambiano i valori medi canonici?
b) Scrivere la hamiltoniana per un gas di N molecole (classiche) dello stesso tipo come: H = K + W
(dove K è l’energia cinetica e W è l’energia potenziale), e definire la costante Γ◦ (vedi la (5.7)) come:
Γ◦ =
˙ h3N , dove h è la costante di Planck (6) . Mostrare che, integrando sui momenti, la funzione di
partizione, ZN (V ), per il gas contenuto in un volume V e a temperatura T , può essere scritta come:
ZN (V ) =
˙
dove d3N q =
˙
QN
i=1
Z
1
h3N N !
d3 qi , λ =
˙
dx e
−βH
ΓN
1
=
N ! λ3N
Z
d3N q e−βW =
˙
1
QN ,
N ! λ3N
(5.72)
p
h2 β/2πm è la ”lunghezza d’onda termica” (vedi la (7.63)), e QN è:
Z
QN =
˙
d3N q e−βW ;
(5.73)
QN è la ”funzione di partizione configurazionale” (per W = 0 si ottiene: QN = V N ).
c) Mostrare che la ”densità di probabilità nello spazio delle q” (per un sistema di N particelle) è:
ρ(q1 , . . . , qN ) =
˙
Z Y
N
d3 pi ρc (q1 , . . . , pN ) =
i=1
1 −βW
e
.
QN
(5.74)
d) Calcolare la fugacità (z =
˙ eβµ ) per il gas ideale nella rappresentazione dell’energia libera [usare:
µ = ∂A/∂N ]. Mostrare che per N → ∞ risulta: z = λ3 /v, con v =
˙ V /N .
e) Calcolare la media (canonica) dell’energia cinetica del gas del punto (b) [hKi = (3/2)N kB T ].
Discutere il fatto che hKi non dipende dalla massa delle molecole.
Esercizio 5.6 Additività dell’energia libera di due sistemi non interagenti.
Si consideri un sistema costituito da due sottosistemi non interagenti, A e B, in equilibrio termico con
una unica riserva di calore: si indichino con (a, b) i microstati (che supponiamo discreti) di ognuno dei due
(5)
A volte (ad esempio: [Sta § 6.1]) la quantità −kB T ln Z(T, h) viene indicata con G(T, h) (energia libera ”di Gibbs”),
per il motivo che il campo h ha qualche analogia con la pressione (ad esempio, entrambi sono quantità intensive).
(6)
Nella teoria classica, la costante di Planck è utilizzata solo perchè ha la dimensione richiesta (h non figura nelle quantità
termodinamiche del sistema); tuttavia, la validità della scelta di h è confermata dal limite per alta temperatura della funzione
di partizione (quantistica) del gas ideale quantistico ([Pat § 5.5]; vedi anche (7.74)).
5.8
Esercizi
73
sottosistemi, con Ea e, rispettivamente, Eb , le relative energie. Mostrare che la distribuzione canonica del
sistema complessivo si fattorizza:
ρ = ρA ρB ,
con :
ρA =
˙ [ZA ]
−1
exp(−βEa )
e:
ZA =
˙
X
exp(−βEa ) ,
(5.75)
a
e analogamente per ρB . Mostrare che l’energia libera del sistema complessivo è additiva: A = AA + AB .
Esercizio 5.7 Proprietà dell’insieme gran canonico (I).
a) Verificare che l’energia interna di un sistema classico può essere espressa nella forma:
·
U (z) = −
∂
ln Z
∂β
¸
.
(5.76)
z
b) Verificare che, per un gas ideale classico, le (5.53) implicano l’equazione di stato P V = hN i kB T .
Esercizio 5.8 Proprietà dell’insieme gran canonico (II).
a) Considerare l’entropia gran canonica:
S=
˙ − kB
∞ Z
X
N =0
dxN ρgc (N, xN ) ln[Γ◦ (N ) ρgc (N, xN )] ,
(5.77)
ΓN
e verificare la relazione:
1
µ
hHigc − hN igc ;
(5.78)
T
T
usare la prima delle (5.53) e verificare che la (5.78) coincide con la relazione di Eulero (3.11); verificare
che la (5.78) può essere scritta, in termini del potenziale gran canonico (5.49), come: S = −(∂Ω/∂T )V,µ .
b) Mostrare che la pressione può essere scritta come: P = −(∂Ω/∂V )T,µ . [Soluzione: Ω è estensiva
(vedi la (3.43)), ed è funzione di una sola variabile estensiva: Ω = Ω(T, V, µ); segue: Ω/V = ∂Ω/∂V ].
S = kB ln Z +
Esercizio 5.9 Metodo variazionale per la distribuzione gran canonica.
Definire il ”funzionale potenziale gran canonico”, Ω[ρ], come: Ω[ρ] =
˙ H[ρ] − T S[ρ] − µ N [ρ], dove:
H[ρ] =
˙
∞ Z
X
N =0
ΓN
(N )
dxeff HN ρ(N, xN ) ,
S[ρ] =
˙ − kB
∞ Z
X
N =0
ΓN
(N )
dxeff ρ(N, xN ) ln[Γ◦ (N ) ρ(N, xN )] , (5.79)
e dove N [ρ] =
˙ hN i è dato dalla (5.45). Nella (5.79), HN =
˙ H(N, xN ) è la hamiltoniana del sistema nella
configurazione con N particelle, e Γ◦ (N ) è la costante solita.
a) Introducendo un moltiplicatore di Lagrange, λ0 , e procedendo come per la (5.3), calcolare la ρ (vedi
le (5.46) e (5.47)) per cui Ω[ρ] è minimo rispetto alle variazioni δρ che rispettano la condizione:
∞ Z
X
N =0
ΓN
(N )
dxeff δρ = 0 .
(5.80)
b) Calcolare Ω[ρ] per ρ = ρgc , e verificare la (5.49).
Esercizio 5.10 Massimo di p(N ).
Assumere che, per un gas ideale, la probabilità p(N ) (vedi (5.51)) presenti un massimo (unico), in
corrispondenza ad un certo Nmax .
a) Calcolare Nmax . [Invece di p(N ), considerare ln p(N ), e utilizzare la formula di Stirling.]
b) Verificare che la relazione tra µ e Nmax coincide (a meno di costanti) con la (3.85).
6
Il modello di Ising
La aggiunta di un termine di interazione alla hamiltoniana di un sistema ideale può determinare un
fenomeno radicalmente nuovo, non riconducibile ad una perturbazione del sistema ideale: una ”transizione
di fase” (cambiamento di stato). In questo capitolo ne discutiamo sulla base di un modello elementare: il
modello di Ising a primi vicini in dimensione 1.
6.1 Il modello di Ising
Il ”modello di Ising” fu introdotto originariamente [Is25] per studiare la transizione ferromagnetica,
ma deve la sua importanza all’essere un banco di prova per la teoria generale delle transizioni di fase (1) .
Per definire il modello di Ising cominciamo col considerare uno spazio fisico di dimensione opportuna (ad
esempio 3), e un reticolo (ad esempio cubico), i cui nodi indichiamo con un indice i. Consideriamo N
nodi, e ad ognuno associamo una variabile casuale, si (i = 1, . . . , N ), con valori ±1. Le variabili s sono
dette ”spin” (la scelta del nome non è casuale (vedi la nota 3) ma, nonostante il nome, le variabili s sono
classiche). Un insieme di valori per gli spin (s1 , . . . , sN ) è un microstato (”configurazione”) del modello; il
numero delle configurazioni è 2N . Ad ogni configurazione associamo una energia (”hamiltoniana”), che di
solito viene scritta come (2) :
E({s}) =
˙ −
N
N
X
1 X
Jij si sj − µ
hi si
2 i,j=1
i=1
(con :
Jii = 0) .
(6.1)
Il significato di Jij , µ, e hi , è illustrato qui di seguito. Si noti che se le J sono nulle (e: µ = 1, hi = h)
ritroviamo il paramagnete dell’es. 1.4.
Consideriamo dapprima il termine della (6.1) lineare nelle s: interpretando la costante µ come ”momento magnetico associato a uno spin”, tale termine rappresenta l’energia degli spin nel ”campo magnetico
esterno” (in generale variabile con i) hi . È più significativo il termine bilineare nelle s: infatti esso rappresenta l’interazione tra gli spin. Le costanti Jij (”costanti di accoppiamento”) definiscono l’intensità
dell’interazione. Le caratteristiche principali delle J sono il segno, e la dipendenza dalla distanza tra i
relativi spin. Se le J sono positive (qui studieremo solo questo caso), la probabilità (canonica) di una
configurazione in cui gli spin sono ”paralleli” (cioè con lo stesso valore), è maggiore di quella di una con
(1)
In origine il modello fu formulato per un sistema unidimensionale, e il risultato fu deludente perchè, come vedremo
anche qui, esso prevede una transizione solo per T = 0. Gli studi tuttavia continuarono (per una breve storia del modello vedi
[Bru67]), e si giunse cosı̀ al fondamentale lavoro di Lars Onsager [On44], che riuscı̀ a calcolare la funzione di partizione del
modello bidimensionale con campo esterno nullo (per la soluzione del modello bidimensionale con campo non nullo, vedi A.B.
Zamolodchikov in [Za89]; la soluzione del modello tridimensionale è ancora da trovare!). Il lavoro di Onsager segnò l’inizio
di un nuovo capitolo nella meccanica statistica delle transizioni di fase, in quanto rappresentò la prima dimostrazione (quasi
inaspettata [Tho § 4.2], [Gld § 2.14.1]) della possibilità di descrivere il fenomeno nell’ambito della sola meccanica statistica,
senza ipotesi ad hoc. Per un accenno alle relazioni tra il modello di Ising e la fisica del magnetismo, vedi [Sta § 8.1].
(2)
Se, come è naturale, si interpretano le {s} come ”coordinate generalizzate”, allora la hamiltoniana (6.1) non contiene i
”momenti coniugati”. Pertanto la hamiltoniana (6.1) non genera alcuna dinamica (dsi /dt = 0). Un modello di Ising dinamico
è discusso, per esempio, in [Sta app. E].
6.1
Il modello di Ising
75
spin ”antiparalleli” (cioè con valori opposti): il caso di J positive corrisponde allora ad un sistema ”ferromagnetico”, cioè ad un sistema in cui gli spin ”tendono ad allinearsi”. Il caso di J negative corrisponde ad
un sistema ”antiferromagnetico”, in cui gli spin tendono ad essere antiparalleli; il caso di J con valori sia
positivi che negativi, a caso, corrisponde ad un sistema ”disordinato” (”vetro di spin”: [FH91], [Pa81]).
Nei ferromagneti reali l’interazione ha raggio d’azione corto: nella versione più semplice (quella che qui
considereremo), si assume che le Jij siano diverse da zero solo per spin ”primi vicini” (cioè per spin la cui
distanza è la minima possibile) (3) . Nel seguito di questo capitolo useremo unità tali che sia: µ = kB = 1.
Le grandezze intensive del modello sono T e h. Tra le grandezze estensive, è particolarmente importante il ”momento magnetico totale”:
­ ®
M (T, h, N ) =
˙ st ,
dove :
st =
˙ st ({s}) =
˙
XN
i=1
si
(6.2)
(st è il momento magnetico totale microscopico). A M è associata la ”magnetizzazione” (una quantità
intensiva):
m = m(T, h) =
˙ lim M/N .
(6.3)
N →∞
Per i ferromagneti come Fe, Ni, ecc., la magnetizzazione è un vettore, m. La proprietà termodinamica più significativa dei ferromagneti è l’esistenza di una ”temperatura critica”, Tc (> 0) (4) , tale che la
magnetizzazione ”spontanea”, cioè per campo esterno nullo, risulta (vedi la fig. 6.1):
½
m(T, 0, N )
=0
6= 0
per T ≥ Tc ,
per T < Tc .
(6.4)
m(T)
1
+˚
+˚ + +
˚
˚
+
+
+
˚
˚
Fig. 6.1 :
m(T, 0) per Ni e Fe.
+
˚
.5
˚
Ni
0
500
+
˚
˚
Fe
+
+
1000
T(K)
Uno stato macroscopico con m = 0 viene interpretato come ”fase disordinata”, e uno con m 6= 0 come
”fase ordinata”: m ha quindi il ruolo di ”parametro d’ordine” della transizione di fase ferromagnetica. Per
il modello di Ising il parametro d’ordine è scalare (vedi la (6.3)).
A prima vista, sembrerebbe che la meccanica statistica canonica, costruita a partire dall’energia
(3)
Il termine bilineare della (6.1) ”descrive” l’effetto combinato dell’interazione elettrostatica tra due elettroni (in un
campione di, per es., Fe) e del principio di esclusione. Considerando l’interazione di un elettrone con il proprio ione come
”hamiltoniana imperturbata” e l’interazione (dell’elettrone) con un elettrone di uno ione vicino come ”perturbazione”, risulta
che quest’ultima ha una forma analoga a quella del primo termine della (6.1), dove le costanti Jij sono essenzialmente elementi
di matrice (”integrali di scambio”) dell’energia di interazione elettrostatica rispetto agli stati imperturbati ([Whit cap. 2];
[FeSM § 7.1]). In realtà, la teoria quantistica prevede che l’interazione sia del tipo ”di Heisenberg”: Jij b
si · b
sj , dove
b
s è
l’operatore vettoriale di spin. La (6.1) sostituisce il vettore b
s con la sua componente nella direzione del campo esterno: ciò è
poco realistico (salvo che per sistemi fortemente anisotropi). Esiste anche una interazione ”diretta” tra i momenti magnetici
associati agli spin degli elettroni: essa risulta tuttavia molto più debole di quella di scambio.
(4)
Per esempio, per il Fe risulta Tc ≈ 1044 ◦ K (la temperatura di fusione è 1260 ◦ K ). Un campione di Fe a temperatura
ambiente dovrebbe quindi essere quasi del tutto magnetizzato: in realtà risultano energeticamente favorite configurazioni in
cui il campione è suddiviso in regioni di dimensione microscopica (”domini”) completamente magnetizzate, ma con magnetizzazioni orientate ”a caso” [KiIS cap. 15]. Qui consideriamo il sistema come costituito da un unico dominio.
6.2
La approssimazione del campo medio
76
(6.1), non possa prevedere un momento magnetico spontaneo non nullo! Consideriamo dapprima il caso
paramagnetico (Jij = 0), per T > 0. Si trova facilmente:
hsi i = tanh βhi .
(6.5)
Per hi = 0, e T > 0, segue: hsi i = 0. Alla base di questo risultato sta il fatto che per hj = 0 (per ogni j),
e T > 0, tutte le configurazioni vengono ad avere la stessa probabilità:
p({s}) =
1
2N
(per : {h} = 0 , T > 0) .
(6.6)
D’altra parte, fissato un i, le 2N configurazioni si dividono in due gruppi. quello delle 2N −1 configurazioni
in cui si = +1, e quello delle 2N −1 configurazioni in cui si = −1. Segue:
hsi i =
˙
X
si ({s}) p({s}) = 2N −1
{s}
1
1
− 2N −1 N = 0
2N
2
(per : {h} = 0 , T > 0) .
(6.7)
Il meccanismo appena descritto sopra agisce anche per un sistema ferromagnetico (Jij > 0). Infatti, se
hj = 0, per tutti gli j, la hamiltoniana (6.1) è invariante rispetto al cambiamento di segno di tutti gli spin:
E({s}) = E({−s}). Per ogni T > 0, segue (indichiamo con Z la funzione di partizione per h = 0):

1 
hsi i =
Z
X
β
P
e
l<m
Jlm sl sm
{s} (si =+1)
−
X
β
e
P
l<m

Jlm sl sm 
= 0.
(6.8)
{s} (si =−1)
La (6.8) implica che la magnetizzazione è nulla, per h = 0, per ogni T > 0. Tale conclusione vale,
tuttavia, se le funzioni in gioco, e in particolare la funzione di partizione Z, sono funzioni analitiche di T .
In effetti risulta che, per h = 0, e N → ∞ (limite termodinamico), Z = Z(T ) sviluppa una singolarità per
T = Tc (con Tc determinato dalla teoria: vedi ad es. [Pat § 12.10]). L’esistenza (per h = 0, e N → ∞) di
due distinti rami nella funzione m = m(T ) è resa possibile proprio da tale singolarità (vedi la fig. 6.3: un
ramo è per T ≥ Tc , e l’altro per T ≤ Tc ; si noti che m(T ) ha, in T = Tc , derivata discontinua).
Una illustrazione elementare del ruolo delle singolarità è data dal modello di Ising paramagnetico
(consideriamo il caso di campo uniforme: hi = h). È chiaro (vedi la (6.5)) che nel punto h = 0, e T = 0,
la funzione hsi non è continua. In effetti risulta che i due limiti: limh→0 , e limT →0 , non commutano:
lim lim hsi = lim 0 = 0 ,
T →0 h→0±
T →0
lim lim hsi = lim ±1 = ±1 .
h→0± T →0
h→0±
(6.9)
Si noti che la seconda delle (6.9) mostra che anche un sistema non interagente (il paramagnete) è in grado
di ordinarsi (m =
˙ hsi 6= 0), purchè sia T = 0 (torneremo su questo punto nel par. 4).
6.2 La approssimazione del campo medio
Il calcolo esatto delle proprietà termodinamiche del modello di Ising è possibile solo in dimensioni 1
(vedi i §§ 3 e 4), e 2 (vedi la nota 1). È tuttavia possibile sostituire la hamiltoniana ”esatta” (6.1) con una
hamiltoniana approssimata, per la quale il calcolo è possibile in dimensione qualunque. Lo schema base
per la costruzione della nuova hamiltoniana è la ”approssimazione del campo medio”.
Cominciamo coll’osservare che l’effetto fondamentale dell’interazione tra gli spin è di indurre correlazioni tra gli stessi, cioè di indurre ”ordine” nel sistema. Un effetto ordinante, simile a quello indotto
dall’interazione, potrebbe essere indotto anche da un opportuno campo magnetico. La approssimazione
6.2
La approssimazione del campo medio
77
del campo medio consiste, appunto, nel sostituire la hamiltoniana (6.1) con la ”hamiltoniana di campo
medio”:
N
X
Emf ({s}) = −(hmf + h)
si
(6.10)
i=1
(”mf” sta per ”mean field”), dove il ”campo medio”, hmf , deve essere definito in modo da simulare al meglio
gli effetti dell’interazione. Osserviamo allora che la ”capacità ordinante” dell’interazione è tanto maggiore
quanto più grande è il valore della costante J; inoltre, la stessa capacità è tanto maggiore quanto maggiore
è la dimensione spaziale del reticolo (in un modello a primi vicini su un reticolo cubico in dimensione 3,
per esempio, uno spin ”sente” l’influenza di 6 spin, e quindi è più ”legato” di un sistema in dimensione
1, dove uno spin sente l’influenza solo di 2 spin). Assumiamo allora che hmf sia proporzionale a J e al
”fattore di coordinazione del reticolo (cubico)”, γ (γ = 2, 4, 6, se la dimensione è, rispettivamente: 1, 2,
3). Notiamo poi che se m = 0 (ciò si verifica per T sufficientemente grande) il sistema è ”disordinato”: in
tal caso l’effetto ordinante dell’interazione è nullo. Dobbiamo allora assumere che per m = 0 sia hmf = 0,
cioè che hmf sia proporzionale a m. In conclusione, definiamo:
hmf =
˙ γJm .
(6.11)
La (6.11) e la (6.10) definiscono la approssimazione di campo medio. È difficile prevedere, a priori,
l’errore prodotto dalla approssimazione. Si può dire solo che la approssimazione altera le caratteristiche
delle correlazioni tra gli spin. In effetti, le correlazioni ”esatte”, cioè quelle indotte dalla (6.1), hanno un
effetto ”locale”, nel senso che esse si manifestano su una distanza limitata (”lunghezza di correlazione”:
vedi § 5); al contrario, le correlazioni indotte da hmf hanno un effetto ”globale”, nel senso che hmf agisce
su tutto il sistema. Possiamo allora prevedere che l’errore sarà più significativo per quei fenomeni (come
i fenomeni critici: vedi il commento alla fine di questo paragrafo) in cui le correlazioni giocano un ruolo
importante.
Calcoliamo le proprietà termodinamiche del modello di Ising nella approssimazione del campo medio.
Usando la probabilità canonica corrispondente all’energia (6.10), è immediato ricavare (vedi anche gli es.
1.4, 5.4d) che m deve soddisfare l’equazione:
m = tanh [β(h + hmf )] =
˙ tanh[β(h + γJm)] .
(6.12)
Limitiamoci al caso h = 0 (per il caso h 6= 0 vedi, ad esempio: [Sta cap. 6]). Posto:
Tc =
˙ γJ
(6.13)
(ricordiamo che qui kB = 1), la (6.12) diventa:
·
m = tanh
¸
Tc
m =
˙ tanh (xm) ,
T
con :
x=
˙
Tc
.
T
(6.14)
Le soluzioni della (6.14) possono essere studiate graficamente, considerando le intersezioni dei grafici delle
due funzioni (di m): y1 =
˙ m, y2 =
˙ tanh (xm) (vedi la fig. 6.2). Il parametro x rappresenta la pendenza
di y2 nell’origine. Consideriamo dapprima il caso: x ≤ 1 (T ≥ Tc ). Allora l’unica intersezione delle due
curve, cioè l’unica soluzione della (6.14), è m = 0 Consideriamo poi il caso: x ≥ 1 (T ≤ Tc ). Ora ci sono
tre intersezioni, e quindi tre soluzioni della (6.14). La soluzione m = 0 deve essere scartata (5) . Studiamo
(5)
È possibile formulare una espressione dell’energia libera, Amf , consistente con la approssimazione del campo medio.
Risulta che m = 0 corrisponde ad una massimo di Amf , mentre le altre due soluzioni corrispondono invece a minimi di Amf :
quindi gli stati di equilibrio del sistema sono quelli con |m| 6= 0 (la ”scelta” tra m = |m| e m = −|m| dipende da come h
tende a zero) [LLfs1 § 144].
6.2
La approssimazione del campo medio
78
la dipendenza da T delle soluzioni non nulle. Consideriamo la soluzione m > 0 (ad esempio), e scriviamo
la (6.14) come:
1 − e−2xm
.
1 + e−2xm
m=
(6.15)
Per x À 1 (T ¿ Tc ) dalla fig. 6.2 segue m ≈ 1, e quindi:
m ≈ 1 − 2 e−2xm ≈ 1 − 2 e−2x =
˙ 1 − 2 e−2Tc /T .
(6.16)
Consideriamo poi la regione x ' 1: dalla fig. 6.2 risulta che in tal caso deve essere m ¿ 1. Possiamo allora
scrivere la (6.14) come: xm = arctanh m, e usare lo sviluppo:
arctanh m = m + m3 /3 + m5 /5 + ... .
(6.17)
xm = m + m3 /3 + O(m5 ) .
(6.18)
La (6.14) diventa allora:
y
1
y1
0
{
y2
Fig. 6.2 :
-1
Soluzioni dell’ eq. (6.14).
-1
1
0
T = 0.50 T c
T = 0.66 T c
T = 1.25 T c
m
Trascurando i termini indicati con O(m5 ), segue (per T / Tc ):
m3 = 3m(x − 1) = 3m(Tc − T )/T ≈ 3m(Tc − T )/Tc ,
da cui:
m=
p
(6.19)
3(Tc − T )/Tc .
(6.20)
Riassumendo, risulta (vedi la fig. 6.3):

= 0



 p
m(T, 0) ≈ 3 (1 − T /Tc )




≈ 1 − 2 exp (−2Tc /T )
(per T ≥ Tc ) ;
(per T / Tc ) ;
(6.21)
(per T ¿ Tc ) .
La temperatura Tc =
˙ γJ è le ”temperatura critica” (vedi la (6.4) e la fig. 6.3); si noti che nella approssimazione di campo medio risulta Tc > 0 anche in dimensione 1 (γ = 2).
Calcoliamo, nella approssimazione del campo medio, la ”suscettività a campo nullo”:
µ
χ=
˙
∂m
∂h
¶
.
(6.22)
h=0
Ricordiamo le relazioni:
tanh(x + y) =
tanh x + tanh y
;
1 + (tanh x)(tanh y)
tanh α ≈ α − α3 /3 + 2α5 /15 + . . .
(per : α ¿ 1) .
(6.23)
6.3
Il modello di Ising unidimensionale
79
Dalla (6.12), scritta come: m = tanh(βh + xm), otteniamo facilmente:
tanh βh =
m − tanh xm
.
1 − m tanh xm
(6.24)
Consideriamo la regione T ≈ Tc (cioè x ≈ 1), e h ≈ 0: in tale regione abbiamo m ¿ 1. Possiamo allora
sviluppare le tangenti iperboliche nella (6.24) e ottenere:
βh − (βh)3 /3 + · · · ≈
m − (xm − (xm)3 /3 + · · ·)
≈ m(1 − x) + m3 [x3 /3 + x(1 − x)] + · · · .
1 − m (xm − (xm)3 /3 + · · ·)
(6.25)
Derivando rispetto ad h, e ponendo poi h = 0, segue:
£
¤
β ≈ χ (1 − x) + 3m2 (x3 /3 + x(1 − x)) .
(6.26)
Consideriamo dapprima il caso T ' Tc (e h = 0). Dalle (6.21) segue m = 0, e (ricordiamo che qui kB = 1):
χ≈
1
β
=
1−x
T − Tc
(T ' Tc ) .
(6.27)
Invece, nel caso T / Tc (e h = 0), dalle (6.21) segue m2 ≈ 3(Tc − T )/Tc ). Otteniamo allora (trascuriamo
un termine in (Tc − T )2 ):
χ≈
1
2(Tc − T )
(T / Tc )
(6.28)
(le (6.27) e (6.28) esprimono la ”legge di Curie-Weiss”). Come vedremo più avanti, la divergenza di χ per
T → Tc è riconducibile alle proprietà delle ”funzioni di correlazione”
(6)
.
m(T,0)
1
Fig. 6.3 :
Magnetizazione spontanea (6.21).
Tc
T
Possiamo valutare la bontà dei risultati ottenuti confrontando la (6.21) con i dati sperimentali (e
con i risultati esatti, laddove disponibili). Risulta che l’accordo migliora al crescere della dimensione
spaziale. Nel caso unidimensionale la (6.21) è errata, in quanto prevede Tc > 0, mentre dal calcolo
esatto (§§ 3, 4) seguirà Tc = 0
(7)
. Per sistemi con dimensioni d = 2, 3, l’accordo è migliore, ma i
valori numerici che si trovano rimangono distanti dai corrispondenti valori sperimentali: ad esempio, per
d = 3 risulta sperimentalmente (per T / Tc ): m ∝ (Tc − T )β , con β ≈ .35, contro il valore β = .5
previsto dalla seconda delle (6.21) (β, da non confondersi con (kB T )−1 , è l’ ”esponente critico” della
magnetizzazione). Considerazioni analoghe valgono per la suscettività a campo nullo: le (6.27) e (6.28)
prevedono: χ ∝ |T − Tc |−γ , con γ = 1, mentre il dato sperimentale (ad es. per il Ni) è (per T > Tc ):
γ ≈ 1.35. Come vedremo in seguito, per T ≈ Tc (”regione critica”) le correlazioni tra gli spin giocano
un ruolo fondamentale. La discrepanza tra i valori degli esponenti critici è un esempio della già citata
impossibilità, per la approssimazione di campo medio, di descrivere correttamente le correlazioni.
(6)
Per una discussione delle funzioni di correlazione nell’ambito di una teoria di campo medio vedi [Pa87 § 3.4].
(7)
Nei sistemi reali, i valori di Tc presentano una grande variabilità [Sta tab. 3.5]: in generale, Tc cresce con la dimensione
(come giustificato, qualitativamente, dalla (6.13)) e con J (vedi ancora la (6.13)). Da notare che anche i valori degli esponenti
critici dipendono, in generale, dalla dimensione (vedi [Re80 tab. 10.1]).
6.3
Il modello di Ising unidimensionale
80
6.3 Il modello di Ising unidimensionale
Discutiamo ora il modello di Ising (a primi vicini) unidimensionale, costituito da un reticolo lineare
(”catena”: vedi la nota 11) di N nodi, e quindi con N spin. Supponiamo che la catena sia ”chiusa”, cioè
che sia costituita da N + 1 spin con sN +1 =
˙ s1 (per la catena ”aperta” vedi l’es. 6.1); la hamiltoniana
(6.1) si scrive allora:
N
N
X
X
E({s}) = −
Ji si si+1 −
h i si .
(6.29)
i=1
i=1
Limitiamoci a considerare il caso: Ji = J, hi = h, (catena e campo ”uniformi”) e scriviamo la (6.29) come:
¸
N ·
X
1
Jsi si+1 + h(si + si+1 ) .
2
i=1
E({s}) = −
(6.30)
Illustriamo il metodo della ”matrice di trasferimento”. Osserviamo che la funzione di partizione:
X
Z =
˙
X
...
s1 =±1
exp [−βE({s})] =
˙ Z(T, h, N ) ,
(6.31)
sN =±1
può essere scritta, usando la condizione di chiusura della catena, come:
X
Z=
...
s1 =±1
X
Ts1 s2 Ts2 s3 · · · TsN s1 ,
(6.32)
sN =±1
dove abbiamo definito: a =
˙ βJ , b =
˙ βh, e:
¶
µ
1
Tsi si+1 =
˙ exp asi si+1 + b(si + si+1 )
2
(per :
i = 1, . . . , N ) .
(6.33)
I numeri Tsi si+1 (per si = ±1, si+1 = ±1) possono essere visti come elementi della matrice 2×2:
¯
¯T
T =
˙ ¯¯ +1 +1
T−1 +1
¯
¯ a+b
¯e
T+1 −1 ¯¯
=
˙ ¯¯ −a
T−1 −1 ¯
e
¯
e−a ¯¯
.
ea−b ¯
(6.34)
L’espressione (6.32) è la somma degli elementi diagonali (”traccia”) della matrice T N :
i
X h X
X
X £
¤
¡
¢
Z=
...
exp [−βE({s})] =
T N s1 s1 =
˙ Tr T N .
s1 =±1
s2 =±1
sN =±1
(6.35)
s1 =±1
Osserviamo che T è reale e simmetrica. Gli autovalori di una matrice del tipo:
¯
¯
¯A B¯
¯
¯
¯B C ¯
(6.36)
(con A, B, C reali), sono:
λ± =
i
p
1h
(A + C) ± (A − C)2 + 4B 2 ,
2
(6.37)
e i corrispondenti autovettori sono:
¯
¯
¯ x± ¯
¯
¯
¯ y± ¯ ,
"
con :
x± =
˙
µ
1+
λ± − A
B
¶2 #−1/2
"
,
y± =
˙
µ
1+
B
λ± − A
¶2 #−1/2
.
(6.38)
In particolare, gli autovalori della matrice T sono:
h
h
h
i
i
p
p
√ i
˙ ea C ± S 2 + e−4a =
˙ ea C ± R ,
λ± = ea coshb ± senh2 b + e−4a =
(6.39)
6.4
La magnetizzazione del modello unidimensionale
81
dove:
C =
˙ cosh b,
S=
˙ senh b,
R=
˙ S 2 + e−4a .
I corrispondenti autovettori hanno componenti:
h
√ i−1/2
1
x± = √ e−a e−2a + e2a S (S ∓ R)
,
2
y± =
˙ e2a (−S ±
(6.40)
√
R) x± .
(6.41)
Consideriamo valori di (T, h) tali che sia T > 0 e h arbitrario. È evidente, dalla (6.39), che risulta:
λ+ > 0 ;
λ− ≥ 0 ,
λ+ > λ −
e:
(6.42)
(per T > 0) .
(6.43)
In tal caso gli autovettori (6.41) sono ortogonali. Sia R la matrice costruita con gli autovettori (6.41):
¯
¯
¯x
x− ¯¯
R=
˙ ¯¯ +
.
(6.44)
y+ y− ¯
In virtù della ortogonalità degli autovettori (6.41), R è ortogonale:
¯
¯
¯ x+ y+ ¯
−1
¯
¯ = RT .
R =
˙ ¯
x− y− ¯
(6.45)
Posto Λ =
˙ R−1 T R (Λ è diagonale), risulta:
R
−1
T
N
R =Λ
N
¯ N
¯λ
=
˙ ¯¯ +
0
¯
0 ¯¯
¯.
λN
−
(6.46)
La funzione di partizione si scrive allora:
¡
¢
¡
¢
N
Z = Tr T N = Tr R−1 T N R = Tr ΛN = λN
+ + λ− .
(6.47)
Consideriamo ora il valor medio di uno degli spin: ad esempio s1 . Esso può essere scritto come:
hs1 i =
˙
X
1 X
...
s1 Ts1 s2 Ts2 s3 · · · TsN s1 ,
Z s =±1
s =±1
1
cioè:
(6.48)
N
¡
¢
1
hs1 i = Tr S T N ,
Z
dove :
¯
¯1
S =
˙ ¯¯
0
¯
0 ¯¯
.
−1 ¯
(6.49)
Dalla (6.46) segue allora:
¡
¢
−1
−1
Z hs1 i = Tr R−1 S R ΛN =
˙ λN
S R)++ + λN
S R)−−
+ (R
− (R
.
(6.50)
Usando le (6.44) otteniamo facilmente:
±S
± senh b
(R−1 S R)±± = √ =
˙ p
.
R
senh2 b + e−4a
(6.51)
Dalla (6.50) segue infine:
senh b
hs1 i = p
senh2 b + e−4a
N
λN
+ − λ−
.
N
λN
+ + λ−
(6.52)
Con lo stesso metodo possiamo ricavare il momento magnetico totale (6.2). È facile verificare che, in
virtù della uniformità del sistema, risulta, per uno spin generico sj :
hsj i =
˙
X
1 X
...
Ts1 s2 · · · Tsj−1 sj sj Tsj sj+1 · · · TsN s1 =
Z s =±1
s =±1
1
N
¡
¢
¡
¢
1
1
= Tr T j−1 ST N −j+1 = Tr ST N =
˙ hs1 i .
Z
Z
(6.53)
6.5
Le funzioni di correlazione
82
Per una catena uniforme risulta quindi: M = N hs1 i. Consideriamo poi la ”magnetizzazione”, cioè il
”momento magnetico per spin”:
M
= lim hs1 i .
N →∞ N
N →∞
m=
˙ m(T, h) = lim
(6.54)
Nel limite termodinamico, N → ∞, abbiamo:
"
senh b
p
m(T, h) = lim
senh2 b + e−4a
N →∞
N
1 − (λN
− /λ+ )
N
1 + (λN
− /λ+ )
#
.
(6.55)
Il significato fisico della (6.55) sarà discusso nel paragrafo seguente.
6.4 La magnetizzazione del modello unidimensionale
Come si è visto nel paragrafo precedente, per una ”catena chiusa” uniforme (vedi la (6.30)), i valori
medi hsi i non dipendono dalla posizione i, e risultano uguali alla magnetizzazione (8) :
senh βh
m(T, h) = p
,
senh2 βh + e−4βJ
(per T > 0) .
(6.56)
La (6.56) mostra che, in presenza di interazione, per T > 0 e h 6= 0, la magnetizzazione è maggiore di
quella del corrispondente modello paramagnetico: m(J>0) > m(J=0) . Per T > 0 e h = 0 risulta (sia per
J > 0, che per J = 0): m = 0. Infatti, nel limite per h → 0 dalla (6.56) segue:
m(J≥0) (T, 0) =
˙ lim m(T, h) = 0
h→0
(per T > 0).
(6.57)
Nel modello unidimensionale l’interazione non è dunque in grado, se T > 0, di mantenere l’ordine nel
sistema quando h → 0. Questo risultato può essere interpretato come ”assenza di magnetizzazione spontanea”, cioè come ”assenza della transizione di fase” (nel modello unidimensionale).
Notiamo che il risultato (6.57) è stato ottenuto nel limite ”h → 0, con T > 0”. Ciò corrisponde,
fisicamente, a ”spegnere il campo” mantenendo il sistema a temperatura finita. Se, invece, ”raffreddiamo
il sistema” (fino a T = 0) mantenendolo in un campo non nullo, allora il sistema rimane magnetizzato.
Segue infatti:
senh βh
m(0, h) =
˙ lim m(T, h) =
˙ lim p
T →0
(h6=0)
β→∞
(h6=0)
2
senh βh +
e−4βJ
= lim
β→∞
(h6=0)
senh βh
= segno (h) ,
|senh βh|
(6.58)
dove definiamo: segno(h) =
˙ h/|h| =
˙ ± 1. Se prendiamo poi il limite per h → 0± , otteniamo:
m(0, 0± ) =
˙ lim m(0, h) = ±1
h→0±
(6.59)
(si noti che la (6.59) è un caso particolare della (6.9)). La (6.59) mostra che per T = 0 il sistema
può mantenersi ordinato spontaneamente, e ciò suggerisce di interpretare la temperatura T = 0 come
temperatura critica Tc (anche se Tc = 0 !). Si ricordi, tuttavia, che la (6.59) vale anche per un paramagnete
(vedi la seconda delle (6.9)). L’influenza dell’interazione sulle proprietà della magnetizzazione a T = 0
è quindi marginale. In effetti, vedremo nel paragrafo 6 che l’effetto dell’interazione sulla suscettività (ad
esempio) è tutt’altro che marginale!
(8)
m segue dalla (6.55), usando la (6.43).
6.6
La suscettività per la catena aperta
83
6.5 Le funzioni di correlazione
Consideriamo un modello di Ising con dimensione qualsiasi, con interazione (a primi vicini) uniforme,
e con campo non uniforme. La hamiltoniana è allora:
N
N
X
J X
E({s}) =
˙ −
si sj −
h i si .
2
i=1
(6.60)
i6=j=1
Limitiamoci alla regione T > 0. Il valor medio di uno spin si si può scrivere come:
1 X −βE({s})
1 1 ∂Z
.
si e
=
Z
β Z ∂hi
hsi i =
˙
(6.61)
{s}
­
®
­
®
Chiamiamo ”funzioni di correlazione” i valori medi: si sj . Le funzioni si sj possono essere espresse da
una formula analoga alla (6.61):
­
®
1 1 ∂2Z
si sj = 2
.
β Z ∂hi ∂hj
(6.62)
Per J = 0, le funzioni di correlazione assumono una forma particolare (es. 6.6a):
­
® ­ ®­ ®
si sj = si sj
(per i 6= j,
e per J = 0) .
(6.63)
Le (6.63) suggeriscono che per J = 0 gli spin siano ”indipendenti”, o ”non correlati”. Consideriamo allora
le funzioni di correlazione ”connesse”
(9)
, Gij , definite come:
­
® ­ ®­ ®
Gij =
˙ si sj − si sj .
(6.64)
In virtù della (6.63), per J = 0, cioè in assenza di correlazione, le Gij (per i 6= j) sono nulle.
Le Gij sono legate alle ”suscettività locali”, χij :
χij =
˙
1 ∂ ³ 1 ∂Z ´
∂
hsi i =
;
∂hj
β ∂hj Z ∂hi
(6.65)
χij rappresenta la variazione del valor medio hsi i conseguente ad una variazione del campo nel punto j.
In assenza di interazione risulta: χij = 0 (es. 6.6b). La relazione tra Gij e χij è (es. 6.6c):
Gij = kB T χij .
(6.66)
Per un sistema spazialmente uniforme, Gij è una funzione solo della ”distanza” tra le posizioni i e
j: Gij = G(r), dove r =
˙ rij è una opportuna funzione degli indici i, j (ad esempio, in dimensione uno:
r =
˙ |i − j|). Le risultanze sperimentali (10) sono che, per un sistema ferromagnetico uniforme, esistono
una ”temperatura critica”, Tc , e una lunghezza, ξ = ξ(T ), detta ”lunghezza di correlazione”, tali che nella
”regione critica”: T ' Tc , h = 0, e per r À ξ, G(r) ha la forma:
G(r) ∝ r−α e−r/ξ ,
(6.67)
­
®
dove α è un numero positivo. ξ caratterizza la ”rapidità” con cui G(rij ) tende a zero, cioè con cui si sj
­ ®­ ®
tende a si sj . Di grande importanza è la dipendenza di ξ da T : risulta sperimentalmente che, nel
(9)
Le Gij sono dette ”connesse” perchè, in certi sviluppi perturbativi di ln Z, in cui ai vari termini vengono associati
opportuni grafici, a Gij risulta corrispondere un grafico ”connesso” [Do74 § II.A.1].
(10)
Le Gij si possono osservare mediante esperimenti di diffusione di neutroni [Dac], o di luce [BeP].
6.6
La suscettività per la catena aperta
84
”punto critico”, (T, h) = (Tc , 0), è: G(r) ∝ r−α . Quindi, per T = Tc abbiamo ξ = ∞ [Ma78 § 1.3]. Ciò
sarà verificato, nel caso del modello di Ising in dimensione 1, nel paragrafo seguente.
6.6 La suscettività per la catena aperta
Nelle vicinanze del punto critico le grandezze termodinamiche presentano comportamenti anomali.
Come esempio, calcoliamo, per un modello di Ising ferromagnetico, la suscettività uniforme, χ (vedi (6.22)).
Cominciamo con lo scrivere χ come:
¯
¯
1 ∂M ¯¯
M ¯¯
∂
= lim
.
lim
χ(T ) =
∂h N →∞ N ¯h=0 N →∞ N ∂h ¯h=0
(6.68)
È facile verificare che χ può essere espressa come:
" N
#
N
N
E DX
EDX
E
1 DX
χ = β lim
si sj −
si
sj
N →∞ N
i,j=1
i=1
j=1
h=0
1
=
˙ β lim
N →∞ N
"
N
X
#
Gij
i,j=1
.
(6.69)
h=0
Consideriamo il caso particolare di un modello di Ising in dimensione 1, del tipo ”catena aperta”
(11)
di N spin, in campo nullo (h = 0), e con T > 0 (per la catena chiusa si trovano risultati analoghi: vedi
l’es. 6.9). Supponiamo che N sia dispari (nel limite per N → ∞ ciò è ininfluente), poniamo: N = 2M + 1,
e assumiamo che l’indice i assuma valori in [−M, M ]. Scriviamo la suscettività (vedi la (6.69)) come
(omettiamo di indicare: h = 0):
M
X
1
χ = β lim
M →∞ 2M + 1
"
i=−M
#
M
X
Gij .
(6.70)
j=−M
Assumiamo che le Gij siano funzioni monotonicamente decrescenti della distanza: Gij = G(|i−j|) → 0
P
P
j G−M j
j Gij dipendono da i: ad esempio, per i = −M , in
P
figurano solo gli spin ”a destra di s−M ”, mentre (per i = 0) in
j G0j figurano sia gli spin a destra
P
P
di s0 che quelli alla sua sinistra. Qualitativamente, la differenza tra, per esempio, j G−M j , e j G0j ,
per |i − j| → ∞. Per N finito, le somme
è dovuta al fatto che le proprietà di uno spin ”vicino alle estremità” differiscono da quelle di uno spin
”lontano dalle stesse”. Possiamo assumere che, per N → ∞, gli spin vicini alle estremità siano ”pochi”,
e che le differenze suddette siano trascurabili (queste difficoltà non sussistono per la catena chiusa, che è
spazialmente uniforme). Assumiamo allora che, per N → ∞, le somme siano tutte uguali. Scegliamo i = 0
(per esempio), e scriviamo:
M
X
lim
M →∞
Gij ≈ lim
M →∞
j=−M
Notiamo poi che G00 =
˙ 1 (vedi la (6.64) per hsi i = 0
χ=β
∞
X
j=−∞
(11)
"
G0j = β 1 + 2
∞
X
j=1
#
M
X
G0j .
(6.71)
j=−∞
j=−M
(12)
∞
X
G0j =
˙
. Mettendo in evidenza G00 , la (6.70) diventa:
"
G0j = β − 1 + 2
∞
X
j=0
#
G0j
"
=
˙ β −1+2
∞
X
#
G(r) ,
(6.72)
r=0
n spin disposti su una linea chiusa, in modo che s1 ed sn interagiscano (con energia di interazione del tipo solito:
−J1n s1 sn ), formano una ”catena chiusa”. Se s1 ed sn non interagiscono, allora la catena è ”aperta”.
(12)
Il risultato: hsi i = 0, per T > 0 e h = 0, era stato ottenuto per la catena chiusa (vedi la (6.57)). Qui assumiamo che,
per N → ∞, sia: hsi i = 0, per T > 0 e h = 0, anche per la catena aperta (vedi anche [Sta § 8.2]).
6.7
Esercizi
85
dove il fattore 2 segue da: G0,−j = G0,j , e dove abbiamo posto G(r) =
˙ G0 r .
Calcoliamo G(r). Conviene assumere, per il momento, che le costanti J dipendano dalla posizione.
La hamiltoniana è allora:
M
−1
X
E({s}) = −
Ji si si+1 .
(6.73)
i=−M
Con il metodo dell’es. 6.1, si trova:
ZN =
˙ Z2M +1 = 22M cosh (a−M ) · · · cosh (a0 ) · · · cosh (aM −1 ) ,
dove :
ai =
˙ βJi .
(6.74)
La funzione di correlazione G(r) è allora:
­
®
1 X
s0 sr =
(s0 sr ) exp
ZN
{s}
à M −1
X
!
ai si si+1
=
i=−M
1 X
(s0 s1 )(s1 s2 ) · · · (sr−1 sr ) exp
=
ZN
à M −1
X
{s}
=
!
ai si si+1
(6.75)
=
i=−M
r−1
Y
1 ∂
∂
···
ZN =
tanh(ai ) .
ZN ∂a0
∂ar−1
i=0
Tornando al caso ”J uniforme”, cioè ponendo ai = βJ (per ogni i), otteniamo:
­
®
G(r) =
˙ s0 sr = tanhr (βJ) .
(6.76)
Per β < ∞ (cioè per T > 0) risulta: | tanh(βJ)| < 1. La (6.76) allora conferma il fatto che G(r) diminuisce
(in modulo) al crescere di r (vedi la (6.67)). Per T ' 0, cioè per βJ À 1, si trova:
¡
¢r
¡
¢
G(r) ≈ 1 − 2 e−2βJ ≈ exp −2 r e−2βJ =
˙ e−r/ξ ,
con :
ξ=
1 2J/T
e
.
2
(6.77)
Si noti che per T → 0 risulta: ξ → ∞ (vedi il commento dopo la (6.67)). Dalla (6.72) segue, per T ' 0:
∞
∞ ³
h
i
h
´r i
h
³
´−1 i
X
X
1 + e−1/ξ
χ=
˙ β −1+2
G(r) ≈ β − 1 + 2
e−1/ξ
= β − 1 + 2 1 − e−1/ξ
=
˙ β
. (6.78)
1 − e−1/ξ
r=0
r=0
Ricordiamo che, per T ' 0, è: 1/ξ ¿ 1, e quindi: e−1/ξ ≈ 1 − 1/ξ. Segue:
χ≈β
2 − 1/ξ
1 2J/T
=≈ 2βξ =
˙
e
.
1/ξ
T
(6.79)
La formula (6.79) per χ si può ottenere in modo molto più semplice usando la definizione (6.22) e
l’espressione esatta di m (vedi (6.56)). Il metodo seguito sopra tuttavia mette in luce il ”meccanismo”
che genera la divergenza per T → Tc ( =
˙ 0). Infatti, consideriamo ancora lo sviluppo (6.72). Notiamo che
per un ferromagnete le G(r) sono positive: ciò è giustificato dalla relazione (vedi la (6.66)) con le χ(r),
che per un ferromagnete sono ovviamente positive (per una dimostrazione formale vedi [Gr72 § VI-A]).
Inoltre, le G(r) sono finite: 0 ≤ G(r) ≤ 1. Quindi, χ diverge se la somma in (6.72) diverge, cioè se il
numero dei termini non trascurabili nella somma tende a ∞: questo è proprio quello che si verifica quando
la lunghezza di correlazione tende a ∞.
G(r)
T=0
1
T1 > 0
.5
Fig. 6.4 :
La funzione (6.77) per diverse
T 2 > T1
T.
0
5
10
20
r
6.7
Esercizi
86
6.7 Esercizi
Esercizio 6.1 La catena di Ising aperta in campo esterno nullo.
Si consideri un sistema di Ising unidimensionale di N spin, con energia:
E({s}) = −
N
−1
X
Ji si si+1
(6.80)
i=1
(le costanti di accoppiamento siano diverse, e h = 0). La funzione di partizione è:
X
Z =
˙ ZN =
X
···
s1 =±1
exp
"N −1
X
sN =±1
#
ai si si+1 ,
con :
ai =
˙ β Ji .
(6.81)
£
¤
exp aN sN sN +1 ,
(6.82)
i=1
a) Scrivere la (6.81) per N + 1 spin:
ZN +1 =
X
···
s1 =±1
X
exp
" N −1
X
sN =±1
#
ai si si+1
i=1
X
sN +1 =±1
e derivare la seguente relazione di ricorrenza [Sta § 8.2] per la funzione di partizione per una catena (aperta)
di N + 1 spin:
ZN +1 = 2 ZN cosh(aN ) .
(6.83)
ZN +1 = 2 Z1 cosh (a1 ) cosh (a2 ) · · · cosh (aN ) ,
(6.84)
b) Iterare la (6.83), e ricavare
N
dove Z1 può essere definita considerando che per una ”catena” di un solo spin abbiamo J = 0 (non c’è
interazione!), e quindi (per h = 0): E = 0. Segue Z1 = 2. Nel caso in cui tutte le costanti Ji siano uguali
(catena ”uniforme”), la (6.84) diventa:
ZN +1 = 2N +1 [cosh(a)]N ,
dove :
a=
˙ βJ .
(6.85)
Esercizio 6.2 Funzioni termodinamiche delle catene di spin.
a) Calcolare l’energia interna della catena aperta uniforme in campo magnetico nullo nel limite T → 0
in due modi diversi: 1) con la prima delle (5.70); 2) direttamente dalla definizione di valor medio [Risultato:
limT →0 hEi = −N J.]
b) Calcolare l’energia libera per spin: a = −(βN )−1 ln Z, per la catena chiusa, e verificare che nel
limite N → ∞ essa coincide con quella che si ottiene, per la catena aperta, dalla (6.85). [Usare la (6.47)]
Esercizio 6.3 Suscettività uniforme per il paramagnete.
Calcolare la suscettività uniforme (6.68) per h = 0 per il modello di Ising unidimensionale con J = 0
(paramagnete), e per T > 0, in due modi diversi:
a) utilizzando la definizione (6.68);
b) utilizzando la (6.69).
Esercizio 6.4 Matrice di trasferimento.
a) Definire una matrice di trasferimento per un sistema di Ising con l’energia (6.80), con Ji e hi
6.7
Esercizi
87
indipendenti da i (sistema uniforme), senza ricorrere all’artificio di scrivere l’energia come nella (6.30).
Verificare che la funzione di partizione che ne deriva coincide con la (6.47). Risultato:
¯ a+b
¯
¯ e
e−a+b ¯¯
¯
T =
˙ ¯ −a−b
.
(6.86)
e
ea−b ¯
b) Definire la matrice di trasferimento per un ”nastro chiuso” di 2 × N spin (una catena di N + 1
colonne di due spin con la colonna (N + 1)-esima coincidente con la prima, e con interazioni a primi vicini
[Tho es. 5.4]; il metodo può essere applicato a un ”nastro” di M × N spin, e, per M, N → ∞ permette di
risolvere il modello di Ising bidimensionale [On44]).
Esercizio 6.5 Probabilità di configurazioni del modello di Ising.
Mostrare, per un modello di Ising con N spin con h uniforme, che le probabilità (canoniche) delle
configurazioni: {+1} =
˙ (si = +1; per tutti gli i), e {−1} =
˙ (si = −1; per tutti gli i), soddisfano la relazione:
−2βhN
P ({−1})/P ({+1}) = e
. [Usare: Z(T, h, N ) = Z(T, −h, N ), dove Z è la funzione di partizione.]
Esercizio 6.6 Funzioni di correlazione.
a) Verificare l’equazione (6.63).
(J=0)
b) Calcolare la suscettività (6.65) per il paramagnete, e verificare che: χij
= 0 (per i 6= j).
c) Verificare l’equazione (6.66).
d) Calcolare, usando la (6.69), la suscettività uniforme a campo nullo per il paramagnete (es. 1.4e).
Esercizio 6.7 Derivazione della magnetizzazione dalla funzione di partizione.
Usare la definizione:
mN (h) =
˙
1
1 ∂ 1
1 ∂ 1
M (T, h, N ) =
ln Z(T, h, N ) =
˙
ln ZN (h) .
N
β ∂h N
β ∂h N
(6.87)
per mostrare che:
lim M (T, h, N ) = N segno(h) .
T →0
(h6=0)
(6.88)
[Soluzione: dalle (6.47) e (6.43) risulta, per T → 0:
·
µ
¶¸
λN
−
lim T ln Z = lim T ln λN
+
ln
1
+
= lim T ln λN
+
+ = N (J + |h|) ;
N
T →0
T →0
T →0
λ
+
(h6=0)
(h6=0)
(h6=0)
(6.89)
per h 6= 0 possiamo derivare rispetto ad h, e si ottiene la (6.88).]
Esercizio 6.8 Funzione di correlazione.
a) Mostrare che la probabilità che si abbia valore ±1 è:
­ ®
1 ± si
P (sj = ±1) =
.
2
(6.90)
b) Mostrare che le probabilità che si e sj siano paralleli o antiparalleli sono, rispettivamente:
­
®
1 + si sj
P (si = sj ) =
,
2
­
®
1 − si sj
P (si = −sj ) =
.
2
(6.91)
c) Mostrare che la probabilità che sia si = sj = 1 è:
P (si = sj = 1) =
­ ®¢ ¡
­ ®¢ ¡­
® ­ ®­ ®¢¤
1 £¡
1 + si
1 + sj + si sj − si sj
.
4
(6.92)
6.7
Esercizi
88
d) Mostrare che la probabilità che sia si = 1, sapendo che si = 1 (probabilità ”condizionale”), è:
P (sj = 1|si = 1) =
P (si = sj = 1)
.
P (si = 1)
(6.93)
Esercizio 6.9 Funzioni di correlazione per la catena chiusa.
Mostrare che le funzioni di correlazione per la catena chiusa, nel limite per T ' Tc =
˙ 0 e per N À 1,
coincidono con quelle per la catena aperta (vedi la (6.77)).
Soluzione: Usando il metodo della matrice di trasferimento otteniamo (assumiamo j > i):
h
i
­
®
£
¤
Z si sj = Tr ST j−i S T N −j+i = Tr R−1 S R Λj−i R−1 S R ΛN −(j−i) =
˙
X
−(j−i)
(R−1 S R)pq λj−i
(R−1 S R)qp λN
.
=
˙
q
p
(6.94)
p,q=±
Ricordando la (6.47), e la (6.43), otteniamo (per N À 1):
­
si sj
®
X µ λq ¶j−i µ λp ¶N
=
(R−1 S R)pq (R−1 S R)qp .
λ
λ
p
+
p,q=±
(6.95)
Dalla (6.43) segue, per N → ∞: (λp /λ+ )N → δp+ . Quindi:
­
®
si sj
−→
N →∞
X µ λq ¶j−i
λ+
q=±
(R−1 S R)+q (R−1 S R)q+ =
µ
= (R−1 S R)2++ +
λ−
λ+
(6.96)
¶j−i
(R−1 S R)+− (R−1 S R)−+ .
Inoltre, dalle (6.44) segue (S ed R sono definiti nella (6.39)):
e−2a
e−2a
(R−1 S R)+− = (R−1 S R)−+ = √ =
˙ p
.
R
senh2 b + e−4a
(6.97)
Per h = 0, dalle (6.97) segue allora:
­
®
Gij =
˙ si sj =
µ
λ−
λ+
¶j−i
(6.98)
(si noti che, consistentemente con l’uniformità spaziale del sistema considerato, Gij dipende solo dalla
”distanza”, j − i). Scriviamo poi la (6.98) come:
µ
Gij =
˙
λ−
λ+
¶j−i
·
λ+
= exp − (j − i) ln
λ−
¸
.
(6.99)
1
λ+
=
˙ ln
.
ξ
λ−
(6.100)
Posto: r =
˙ j − i, e: G(r) =
˙ Gij , segue (consistentemente con la (6.77)):
¸
·
r
,
G(r) = exp −
ξ
con :
La (6.100) vale anche nel caso i > j, con r =
˙ |i − j|.
Esercizio 6.10
Limite termodinamico.
Chiarire il ruolo del limite N → ∞ nella determinare la divergenza di ξ per T → 0 (vedi (6.77)).
6.7
Esercizi
89
Esercizio 6.11 Fluttuazioni al punto critico.
Verificare che la suscettività uniforme (6.69) può essere scritta come:
χ = β lim
N →∞
1­
2®
(st − hst i) h=0 .
N
(6.101)
Per T ≥ Tc (e h = 0) si ha hst i = 0. Segue:
1 ­ 2®
st h=0 .
(6.102)
N →∞ N
­ ®
Interpretare la validità simultanea, per T ' Tc , e h = 0, di: s2t = ∞ (che segue da (6.79)), e di: hst i = 0.
χ = β lim
Esercizio 6.12 Assenza di transizione per T > 0 nel modello di Ising 1d.
Si consideri una catena aperta uniforme di N =
˙ 2M + 1 spin in campo nullo, nella configurazione
P
{s}0 con energia E0 = −2M J (energia minima), e magnetizzazione m =
˙ (h i si i /N = +1. Considerare le
configurazioni, {s}1 , con una sola coppia di primi vicini di tipo (+−) o (−+): esempi di tali configurazioni,
per N = 7, sono:
+++−−−− ,
−−−++++ .
(6.103)
a) Verificare che il numero di tali configurazioni è 4M , e che tutte hanno energia: E1 = E0 + 2J.
b) Verificare che le 4M configurazioni del tipo (6.103) possono essere raggruppate in coppie caratterizzate da valori opposti della magnetizzazione: ad esempio, per le due configurazioni (6.103) è: m = ±1/7.
c) Si supponga che il sistema possa trovarsi con probabilità non nulla solo in {s}0 o nelle {s}1 (ciò è
possibile se si considera una temperatura 0 < T / J). Verificare che m è proporzionale a 1/M :
m ≈ 1/4M
e quindi : lim m = 0 .
N →∞
(6.104)
d) Considerare che per un modello di Ising bidimensionale (e uniforme) di N spin in campo nullo,
su un reticolo (ad esempio) quadrato, le configurazioni ”eccitate” con energia più bassa sono quelle, che
indichiamo ancora con {s}1 , con un solo spin −1 (rispetto alla configurazione, {s}0 , con tutti gli spin
uguali a +1), e quindi con 4 coppie (di primi vicini) di tipo (−+). Assumere, in analogia con il punto (c),
che il sistema si possa trovare solo nella configurazione {s}0 e nelle configurazioni eccitate descritte sopra,
e giustificare (qualitativamente) il fatto che ora risulta: limN →∞ m = 1.
7
I gas ideali quantistici
Molti comportamenti dei sistemi macroscopici possono essere spiegati in termini classici, ma per molti
altri è necessario ricorrere alla meccanica quantistica. Tipicamente, la comparsa di fenomeni quantistici
è legata all’abbassamento della temperatura. Consideriamo, ad esempio, un gas. Al diminuire della temperatura diminuiscono anche l’energia cinetica media e il (modulo del) momento medio delle molecole.
La corrispondente lunghezza d’onda di de Broglie e la dimensione dei pacchetti d’onda che descrivono le
molecole allora crescono, e possono diventare dell’ordine di grandezza della distanza media tra le molecole
stesse. A quel punto i pacchetti d’onda ”si sovrappongono”, e i fenomeni, tipicamente quantistici, dovuti
all’interferenza delle funzioni d’onda diventano significativi (1) .
La meccanica statistica quantistica presenta molti elementi in comune con la teoria classica: ad
esempio, il tipo di sistemi che si studiano (quelli per cui non è disponibile una informazione completa), e il
metodo di definire le quantità macroscopiche come valori medi di corrispondenti osservabili microscopiche.
Invece, la meccanica statistica quantistica si differenzia da quella classica per la definizione dei microstati
(elementi di uno spazio di Hilbert invece che punti di uno spazio delle fasi) e delle variabili microscopiche
(operatori sullo spazio di Hilbert invece che funzioni sullo spazio delle fasi).
In questo capitolo introdurremo le nozioni fondamentali della meccanica statistica quantistica (lo
”stato miscela”, e il corrispondente ”operatore statistico”), e studieremo i gas ideali di Fermi e di Bose.
7.1 La meccanica statistica quantistica
Sia Q un sistema quantistico, e sia H lo spazio di Hilbert degli stati di Q (i ”microstati”). Nel
contesto della meccanica statistica quantistica, gli elementi di H sono chiamati anche ”stati puri”. Quando
il microstato del sistema è noto, allora si dispone di una ”informazione completa” (sul sistema); tuttavia,
come ricordiamo qui di seguito, l’informazione completa su un sistema quantistico è ”meno completa” di
quella su un sistema classico.
b di Q. Siano ai gli autovalori (che assumiamo discreti (2) ) di A,
b e
Consideriamo una osservabile, A,
|ai i i corrispondenti autovettori. Supponiamo che Q si trovi in uno stato puro |ψi. Secondo la meccanica
b (sul sistema Q nello stato |ψi), i risultati della misura non sono, in generale,
quantistica, se misuriamo A
prevedibili con certezza. Si può solo affermare che i possibili risultati della misura coincidono con gli
autovalori ai , e che le rispettive probabilità sono:
(A)
pi
¯
¯2
=
˙ ¯hai |ψi¯ .
(7.1)
La (7.1) può essere interpretata introducendo un insieme, G, di N sistemi identici a Q, con N arbitrario
ma grande (N À 1), e tutti nello stesso stato |ψi (G è un ”insieme di Gibbs” di sistemi). Se su ognuno dei
b e se ni (con: P ni = N ) è il numero delle volte che l’autovalore
sistemi di G effettuiamo una misura di A,
i
i-esimo viene rilevato nelle N misure, risulta:
(A)
pi
(1)
= lim
N →∞
ni
.
N
Un altro fenomeno che fa emergere comportamenti quantistici è il ”congelamento dei gradi di libertà”, responsabile,
ad esempio, dell’annullarsi del calore specifico dei solidi per T → 0 [Man § 6.2; RiCa § 16.5].
(2)
(7.2)
Per esempio, l’energia di un sistema spazialmente limitato ha spettro puramente discreto [Thi4 § 1.1].
7.1
La meccanica statistica quantistica
91
La media dei risultati delle N misure è:
bi =
hA
˙
X
(A)
pi ai =
i
X¯
X
¯
b | ψi .
¯hai |ψi¯2 ai =
hψ|ai iai hai |ψi =
˙ hψ | A
i
(7.3)
i
Inoltre, se una misura (su uno dei sistemi di G) ha dato come risultato ai , allora il sistema si trova,
immediatamente dopo la misura, nello stato |ai i.
La meccanica quantistica ordinaria dunque è già di per sè una teoria probabilistica. Peraltro, alla
casualità ”intrinseca” della meccanica quantistica ordinaria si può aggiungere una casualità ”accidentale”.
Ciò avviene quando il sistema si trova in uno ”stato miscela”, che definiamo qui di seguito. Chiamiamo
”stato miscela” un insieme di stati (normalizzati) |ψµ i, dove µ è un indice che varia su un assegnato insieme
I (che qui assumiamo discreto: vedi la nota 3), a ognuno dei quali è associata una probabilità πµ (con:
P
µ∈I πµ = 1). Diremo che ”il sistema si trova nello stato miscela {(|ψµ i, πµ )}” quando esso si può trovare,
con probabilità πµ in uno qualunque degli stati |ψµ i. Si noti che uno ”stato” miscela non è uno stato puro
(non è una combinazione lineare di stati di H !). Lo stato miscela è uno stato puro se tutti i πµ sono nulli
tranne uno, πµ0 (= 1): in tal caso lo stato miscela coincide con lo stato puro |ψµ0 i. Gli stati puri sono
dunque casi particolari di stato miscela.
Quando il sistema si trova in uno stato miscela, allora l’informazione sul sistema è incompleta (se lo
stato miscela si riduce ad uno stato puro, l’informazione sul sistema torna ad essere completa). Una tale
situazione è analoga a quella dei sistemi classici conosciuti in modo incompleto (§ 1.2). Ad esempio, per un
sistema classico in equilibrio termico con una riserva di calore potremmo definire lo ”stato miscela classico
canonico”, come l’insieme {(x, ρc (x)) : x ∈ Γ }.
Come per i sistemi classici, dobbiamo definire i ”valori delle grandezze fisiche per un sistema conosciuto
b definiamo il risultato di una misura di B
b per un sistema
in modo incompleto”. Data una osservabile B,
b
nello stato miscela {|ψµ i, πµ }, cioè il ”valore di aspettazione di B sullo stato miscela”, come la ”media,
­ ¯ ¯ ®
b ¯ψ µ :
con le probabilità πµ , dei valori medi quantistici”, ψµ ¯B
bi =
hB
˙
X
­ ¯ ¯ ®
b ¯ψµ
π µ ψ µ ¯B
(7.4)
µ∈I
(la validità della definizione (7.4) può essere verificata analizzando un esperimento ideale: vedi il paragrafo
seguente). La (7.4) è l’analogo quantistico della definizione classica (1.2). Tra breve la analogia sarà resa
ancora più esplicita.
Conviene scrivere la (7.4) in termini di un operatore, ρb. Sia {|ϕk i : k = 1, 2, . . .} una base nello spazio
P
b
b
H. Utilizzando la relazione di completezza:
k |ϕk ihϕk | = I, dove I è l’identità, otteniamo:
α
hX
i
hX
i
X
­ ® X
b =
b
b |ϕk i =
b ,
B
πµ hψµ | B
|ϕk ihϕk | |ψµ i =
hϕk |
πµ |ψµ ihψµ | B
˙ Tr (b
ρB)
µ=1
k
k
dove
ρb =
˙
X
(7.5)
µ
¯ ®­ ¯
πµ ¯ψµ ψµ ¯
(7.6)
µ
(si noti la analogia tra la (7.5) e la (1.2)). L’operatore (7.6) è chiamato ”operatore statistico” (3) . La (7.5)
b se: B
b=
deve valere per ogni B;
˙ bI, dalla ovvia condizione: h bI i = 1, segue la condizione di normalizzazione:
Tr ρb = 1 .
(7.7)
L’ipotesi fondamentale della meccanica statistica quantistica può essere formulata come segue:
(3)
L’operatore statistico può essere definito anche nel caso in cui gli stati |ψµ i formano un insieme continuo, a condizione
di sostituire la ”probabilità” πµ con una ”densità di probabilità” π(µ) (per un esempio, vedi l’es. 7.1.b3).
7.4
Gli operatori statistici canonico e gran canonico
92
MSQ) Un sistema quantistico macroscopico si trova in uno stato miscela. Le variabili macroscopiche di ”tipo A” (§ 1.2) del sistema sono i valori medi delle corrispondenti variabili microscopiche, calcolati con l’operatore statistico (7.6). Per le osservabili di ”tipo B” si procede
mediante formule ad hoc, analoghe a quelle classiche: ad esempio, l’espressione:
S=
˙ − kB Tr [b
ρ ln ρb]
(7.8)
definisce l’entropia (vedi (1.10) e (1.11)).
7.2 Un esperimento alla Stern-Gerlach
b α=
Consideriamo il sistema Q introdotto nel § 7.1. Fissiamo un insieme, α, di autovalori di A:
˙ {aµ :
µ ∈ I}, dove I è un insieme assegnato di valori di µ, e realizziamo l’esperimento definito dalle due seguenti
operazioni (un esperimento del tipo descritto è quello di Stern-Gerlach [FLS vol III § 5.1])
b su ciascuno dei sistemi di G (l’insieme di Gibbs associato a Q). Supponiamo che NI
1) Misuriamo A
misure, tra le N effettuate, diano come risultato uno degli autovalori aµ ∈ α; più precisamente, supponiamo
P
che l’autovalore aµ (per µ ∈ I) risulti nµ volte, con µ∈I nµ = NI . Chiamiamo GI l’insieme degli NI
b ha dato come risultato uno degli autovalori di α. L’insieme GI descrive
sistemi per i quali la misura di A
un sistema che si può trovare in ciascuno degli stati |aµ i (per µ ∈ I), con probabilità:
nµ
|haµ |ψi|2
.
=P
2
N →∞ NI
ν∈I |haν |ψi|
πµ =
˙ lim
(7.9)
L’insieme delle coppie {(|aµ i, πµ ) : µ ∈ I} è uno stato miscela.
b una osservabile che non commuta con A.
b Siano bj gli autovalori di B,
b e |bj i i corrispondenti
2) Sia B
b
b La
autovettori. Immediatamente dopo la misura di A, su ciascuno dei sistemi di GI misuriamo B.
b venga effettuata su un sistema che si trova nello stato |aµ i è la (7.9). La
probabilità che la misura di B
b dia come risultato bj è dunque:
probabilità che la misura di B
(B)
pj
=
X
πµ pµj ,
dove :
pµj =
˙ |hbj |aµ i|2 .
(7.10)
µ∈I
b è allora:
La media dei risultati della misura di B
bi =
hB
˙
X
j
(B)
pj bj =
X
πµ
µ∈I
X
j
pµj bj =
X
πµ haµ |
hX
i
X
b | aµ i. (7.11)
|bj ibj hbj | | aµ i =
˙
πµ haµ | B
j
µ∈I
µ∈I
La (7.4) è cosı̀ confermata.
7.3 Proprietà dell’operatore statistico
∗
a) ρb è un operatore hermitiano: hψ | ρb | ϕi = hϕ | ρb | ψi;
¯
¯2
­ ¯ ¯ ® P
b) per ogni |ψi, il valore d’aspettazione hψ | ρb | ψi è non negativo: ψ ¯ρb¯ψ = µ pµ ¯hψµ |ψi¯ ≥ 0; in
particolare, l’elemento diagonale ρbhh è la probabilità che una misura di A dia come risultato l’autovalore ah
(vedi l’es. 7.1c). Si noti che rispetto ad una base generica l’operatore statistico non è diagonale: i termini
non diagonali possono essere numeri complessi (non soggetti ad alcuna condizione di normalizzazione), e
pertanto non possono essere interpretati come probabilità [Bal § 2.3].
7.4
Gli operatori statistici canonico e gran canonico
93
c) uno stato puro è un caso particolare di stato miscela, caratterizzato da un operatore statistico della
forma ρb =
˙ |ψihψ|: l’operatore statistico per uno stato puro soddisfa la relazione:
ρb2 = ρb;
(7.12)
la (7.12) è anche condizione sufficiente perchè lo stato descritto da ρb sia puro [Des § 6.1].
7.4 Gli operatori statistici canonico e gran canonico
Consideriamo un sistema quantistico di N particelle in equilibrio termico, a temperatura T , con una
b N la hamiltoniana. Siano |Ei gli autostati di H
b N , e E i corrispondenti autovalori:
riserva di calore; sia H
b |Ei = E |Ei .
H
(7.13)
b N abbia spettro discreto, e che l’insieme degli stati |Ei sia completo. Indichiamo con
Assumiamo che H
HN lo spazio di Hilbert generato dagli stati |Ei. L’operatore statistico che descrive il sistema è l’operatore
statistico ”canonico” (4) , ρbc , definito come:
−1 −β H
ρbc =
˙ ZN
e bN ,
(7.14)
dove la ”funzione di partizione”, ZN , è (in virtù della (7.7)):
bN =
ZN =
˙ Tr e−β H
˙
X
bN | Ei =
hE | e−β H
|Ei∈HN
X
e−βE .
(7.15)
|Ei∈HN
Le proprietà termodinamiche del sistema seguono dalla (5.6).
Consideriamo poi un sistema quantistico in equilibrio termico, a temperatura T , con una riserva di
calore, e in equilibrio materiale, con potenziale chimico µ, con una riserva di particelle. Un tale sistema può
avere numeri di particelle qualunque. Lo spazio di Hilbert dei microstati, H, deve allora essere la somma
diretta di tutti gli spazi HN : H = ⊕∞
N =0 HN (”spazio di Fock”), dove H0 è lo spazio che contiene solo lo
stato con zero particelle. Nel formalismo della meccanica quantistica ordinaria le osservabili dipendono dal
numero di particelle: ad esempio, la hamiltoniana di un gas ideale di N particelle è:
bN =
H
˙
XN
i=1
b 2i /2m .
p
(7.16)
D’altra parte, lo spazio H contiene stati caratterizzati da numeri di particelle diversi: ciò richiede, in
generale, che una osservabile sia rappresentata in modo da poterla applicare ad uno stato del tipo: |N i +
|M i, con |N i ∈ HN e |M i ∈ HM , con N 6= M ! Tuttavia, per gli scopi limitati che qui ci proponiamo,
una rappresentazione del tipo suddetto (vedi la nota 5, a pag. 93) non è indispensabile. In effetti, la
meccanica statistica (quantistica) richiede, anche per un sistema con numero di particelle indefinito, il
b | N i, che è naturale definire come:
calcolo di elementi di matrice del tipo hN | A
b | Ni =
bN | N i ,
hN | A
˙ hN | A
(4)
(7.17)
bρc potrebbe essere derivato da un principio variazionale analogo a quello descritto nel § 5.1 per la ρ canonica classica. La
definizione di operatore statistico quantistico ”microcanonico” presenta invece difficoltà: ad esempio per una hamiltoniana,
b con spettro discreto e non degenere, il sottospazio dello spazio di Hilbert che corrisponde alla superficie dell’energia
H,
b contiene il solo microstato |Ej i! Esistono difficoltà anche per formulare una
Σ(Ej ), dove Ej è uno degli autovalori di H,
teoria ergodica quantistica: ciò risulta possibile solo per hamiltoniane con spettro continuo (per alcuni sistemi l’ergodicità
può essere esplicitamente dimostrata [Ben], [GM96]).
7.5
Stati di un sistema di particelle identiche
94
bN è la ”osservabile A
b per il sistema con N particelle”. Ad esempio, se H è la ”hamiltoniana per il
dove A
b | Ni =
b N | N i, dove H
bN
sistema con N indefinito, per un certo stato |N i ∈ HN definiamo: hN | H
˙ hN | H
è data dalla (7.16). Per lo studio del gas ideale quantistico con un numero indefinito di particelle dovremo
b e ”numero di particelle”, N
b . Assumeremo che H
b e N
b
utilizzare solo gli operatori ”hamiltoniana”, H,
commutino, e indicheremo gli autovettori simultanei come: |N, EN i. Scriveremo le rispettive equazioni
agli autovalori come:
b
b N |N, EN i = EN |N, EN i,
H|N,
EN i =
˙ H
b |N, EN i = N |N, EN i.
N
(7.18)
Assumeremo inoltre che l’insieme di tutti gli stati |N, EN i, per ogni N e ogni EN , formi un insieme
b (del sistema con numero indefinito
completo ortonormale in H. Scriveremo la traccia di una osservabile A
di particelle) come:
X
b=
Tr A
˙
hN, EN
bN | N, EN i =
|A
˙
|N,EN i
N =0
|N,EN i∈H
dove
∞ X
X
(N )
hN, EN
bN | N, EN i =
|A
˙
∞
X
bN , (7.19)
Tr (N ) A
N =0
P(N )
P
b N : P(N )
la somma sugli stati della base (in HN ) degli autostati di H
˙
|N,EN i∈HN .
|N,EN i =
Possiamo ora introdurre l’operatore statistico ”gran canonico”, ρbgc :
|N,EN i
b Nb) ,
ρbgc =
˙ Z −1 e−β(H−µ
(7.20)
dove Z è la ”funzione di gran partizione” (vedi (7.22)). L’operatore ρbgc è diagonale sugli stati |N, EN i:
ρbgc |N, EN i =
˙
1 −β(EN −µN )
e
|N, EN i .
Z
(7.21)
La funzione di gran partizione è allora:
b Nb) =
Z =
˙ Tr e−β(H−µ
X
b Nb) | N, E i =
hN, EN | e−β(H−µ
N
∞ X
X
e−β(EN −µN ) .
(7.22)
N =0 |EN i
|N,EN i∈H
Introducendo la fugacità: z =
˙ eβµ , la (7.22) diventa:
Z=
∞
X
z N ZN ,
(7.23)
N =0
dove ZN è la funzione di partizione quantistica (7.15) di un gas di N particelle (si noti la analogia con la
Z classica (5.48)). Le proprietà termodinamiche del sistema si ottengono dalla (5.49).
7.5 Stati di un sistema di particelle identiche
Consideriamo dapprima il sistema costituito da una particella di massa m e senza spin, confinata in
una ”scatola” tridimensionale, che per semplicità assumiamo cubica e di lato L, con condizioni periodiche
b1 =
b 1 formino
b 2 /2m. Assumiamo che gli autostati di H
al contorno. La hamiltoniana del sistema è: H
˙ p
b
una base nello spazio di Hilbert, H, degli stati del sistema. Indichiamo gli autostati di H1 con |pi, e i
corrispondenti autovalori con εp =
˙ p2 /2 m (con p =
˙ |p|):
b 1 |pi = εp |pi .
H
(7.24)
In virtù delle condizioni periodiche al contorno, ciascuna delle componenti di p ( =
˙ (p1 , p2 , p3 )) assume i
possibili valori:
(pi )ν = (h/L) νi ,
con : νi = 0, ±1, ±2, . . . (i = 1, 2, 3) .
(7.25)
7.6
I numeri di occupazione
95
Consideriamo poi un sistema, Q(div) , di N particelle non identiche, non interagenti, e senza spin. La
hamiltoniana di Q(div) sia:
bN =
H
˙
N
X
b 2i /2mi ,
p
(7.26)
i=1
b N , e i rispettivi autovalori, sono:
b i è il momento della i-esima particella. Gli autovettori di H
dove p
(1)
|p1 , . . . , pN i =
˙ |p1 i
⊗ · · · ⊗ |pN i
(N )
,
εp1 ,...,pN =
XN
i=1
p2i /2mi ,
(7.27)
b i sono dati dalle (7.25). Si noti che, per il
dove gli autovalori di ciascuna delle componenti di ciascuno dei p
sistema Q(div) , le N -uple (di vettori) (p1 , . . . , pN ) e gli autostati della hamiltoniana sono in corrispondenza
biunivoca: in particolare, due N -uple che differiscono per l’ordine (delle N -uple) corrispondono a stati
diversi. Lo spazio di Hilbert degli stati del sistema è: ⊗N
i=1 Hi , e l’insieme di tutti gli stati (7.27) ne
costituisce una base.
Consideriamo ora una particella con spin, nella scatola di cui sopra. Lo spazio di Hilbert degli stati
della particella è H ⊗ C 2s+1 , dove s è un numero che caratterizza lo spin della particella, e può assumere
uno dei valori: s = 0, 1/2, 1, 3/2, . . . , e C 2s+1 è uno spazio vettoriale complesso di 2s + 1 dimensioni.
Assumiamo che una base nello spazio di Hilbert degli stati della particella sia costituita dagli autovettori
simultanei delle componenti del momento, e dell’operatore, σ̂, ”componente dello spin lungo un asse”:
|p, σi =
˙ |pi ⊗ |σi .
(7.28)
b1 =
b 1 è ”indipendente dallo spin”). Le equazioni agli autovalori per H
b1
b 2 /2m (H
La hamiltoniana sia: H
˙ p
e per σ̂ sono:
b 1 |p, σi = εp |p, σi,
H
σ̂|p, σi = σ|p, σi ,
con :
σ = } (−s, −s + 1, . . . , s) .
(7.29)
(div)
, di N particelle (senza spin) non identiche. La hamiltoniana sia
b N sono:
la (7.26) (indipendente dagli spin). Gli autovettori di H
Consideriamo poi un sistema, Qs
|p1 , σ1 ; . . . ; pN , σN i =
˙ |p1 , σ1 i
(j)
dove |p, σi
(1)
⊗ · · · ⊗ |pN , σN i
(N )
,
(7.30)
appartiene allo spazio di Hilbert della j-esima particella. Gli autovalori corrispondenti agli
stati (7.30) sono:
εp1 ,σ1 ; ... ;pN ,σN =
XN
i=1
p2i /2mi .
(7.31)
(div)
Per il sistema Qs
, le N -uple (di quaterne (p, σ)) (p1 , σ1 ; . . . ; pN , σN ) e gli autostati della hamiltoniana
£
¤
2s+1
sono in corrispondenza biunivoca. Lo spazio di Hilbert degli stati del sistema è: ⊗N
, e
i=1 H ⊗ C
i
l’insieme di tutti gli stati (7.30) ne costituisce una base.
(id)
Consideriamo infine un sistema, Qs , di N particelle identiche. La hamiltoniana sia ancora la (7.26).
b N ora sono:
Gli autostati di H
|p1 , σ1 ; p2 , σ2 ; . . . ; pN , σN i =
˙
 P
 C π (−1)π |pπ1 , σπ1 i(1) ⊗ . . . ⊗ |pπN , σπN i(N )
(fermioni) ,
 P
(1)
(N )
C π |pπ1 , σπ1 i ⊗ . . . ⊗ |pπN , σπN i
(bosoni) ,
(7.32)
dove la somma è su tutte le permutazioni π degli indici, e:
½
π
(−1) =
+1 ,
−1 ,
se π è pari;
se π è dispari.
(7.33)
7.6
I numeri di occupazione
96
La costante di normalizzazione, C è:
C=
˙ q
N!
1
Q
p,σ
np,σ !
,
(7.34)
dove np,σ è il numero di volte che la quaterna (p, σ) compare nella N -upla (p1 , σ1 ; . . . ; pN , σN ): np,σ è
il ”numero di occupazione dello stato (di particella singola) |p, σi”. Si noti che C ha la stessa forma per
fermioni e per bosoni: tuttavia i numeri di occupazione differiscono nei due casi:
½
np,σ =
0, 1,
0, 1, 2, . . . ,
per il gas di Fermi;
per il gas di Bose.
(7.35)
Si noti infine che, per un sistema di particelle identiche, N -uple (di quaterne) (p1 , σ1 ; . . . ; pN , σN ) che
differiscono solo per l’ordine (delle quaterne) corrispondono ad un unico stato.
7.6 I numeri di occupazione
Studiamo ora la meccanica statistica di un gas ideale quantistico, QN , di N particelle identiche, con
massa m e spin s, in equilibrio termico a temperatura T . Vedremo che l’identità delle particelle rende la
teoria canonica difficoltosa, tanto da rendere opportuno il ricorso alla teoria gran canonica.
Consideriamo uno (qualunque) degli stati (7.32): |p1 , σ1 ; . . . ; pN , σN i. Ad esso corrisponde un unico
insieme di numeri di occupazione {np,σ }, e viceversa. Indichiamo allora lo stato |p1 , σ1 ; . . . ; pN , σN i,
come: |{np,σ }i. Una successione {np,σ } è costituita da infiniti numeri, perchè infiniti sono i possibili valori
(p, σ); peraltro, solo un numero finito (≤ N ) di numeri np,σ saranno diversi da zero, in virtù della ovvia
condizione:
X
p,σ
np,σ = N .
(7.36)
Analogamente, possiamo indicare l’autovalore εp1 ,σ1 ; ... ;pN ,σN (vedi (7.31)) come:
E({np,σ }) =
˙
X
p,σ
np,σ εp,σ ,
con :
εp,σ =
˙ p2 /2m
(7.37)
L’equazione agli autovalori è:
b N |{np,σ }i = E({np,σ })|{np,σ }i .
H
(7.38)
La funzione di partizione di QN , ZN , può ora essere calcolata con la formula (7.15), in cui la somma
b N è calcolata come una somma su tutti i possibili insiemi di numeri di occupazione che
sugli autostati di H
P(N )
soddisfino la condizione (7.36). Indicando una tale somma con {np,σ } , la funzione di partizione (7.15)
diventa:
(id)
ZN
=
˙
X
(N )
b | {n }i = X
h{np,σ } | e−β H
p,σ
{np,σ }
(N )
X
¡
¢
np,σ εp,σ .
exp − β
(7.39)
p,σ
{np,σ }
(id)
È chiaro che, data la necessità di tener conto della (7.36), il calcolo di ZN
rimane difficoltoso anche con
il formalismo dei numeri di occupazione. Tuttavia, la difficoltà può essere facilmente superata passando
alla meccanica statistica gran canonica.
Consideriamo allora un gas (di particelle di massa m e spin s), che può trovarsi in microstati con un
numero di particelle qualsiasi (diremo brevemente: un sistema con un numero indefinito di particelle). Lo
spazio di Hilbert dei microstati del sistema è H = ⊕N HN . L’insieme di tutti gli stati |{np,σ }i forma una
b è allora:
base in H. La traccia di una osservabile del sistema, A,
b=
Tr A
X
{np,σ }
b | {np,σ }i ,
h{np,σ } | A
(7.40)
7.6
I numeri di occupazione
97
dove la somma è su tutti i possibili insiemi {np,σ }.
Assumiamo che il sistema sia in equilibrio termico con temperatura T e in equilibrio materiale con
potenziale chimico µ, e studiamo il sistema con la meccanica statistica gran canonica. Definiamo due
b eN
b , tali che per un generico stato |{np,σ }i sia:
operatori su H, H
´
³X
´
³X
b |{np,σ }i =
b
np,σ |{np,σ }i ;
(7.41)
np,σ εp,σ |{np,σ }i ,
N
H|{n
p,σ }i =
p,σ
p,σ
b eN
b hanno il significato di ”hamiltoniana” e, rispettivamente, ”numero di particelle” per il sistema con
H
un numero indefinito di particelle (5) . La funzione di gran partizione (7.22) può essere scritta come:
³
´
X
X
b Nb) =
Z =
˙ Tr e−β(H−µ
˙
exp − β
(εp,σ − µ) np,σ =
˙
{np,σ }
p,σ
³
´ Yh X
X X
X
¡
¢i
(7.42)
=
˙
· · · exp − β
(εp,σ − µ) np,σ =
exp − β(εp,σ − µ) np,σ .
n(p,σ)0 n(p,σ)1
p,σ
p,σ
I possibili valori dei numeri di occupazione sono:
½
0, 1,
np,σ =
0, 1, 2, . . . ,
np,σ
per il gas di Fermi,
per il gas di Bose.
(7.43)
b non dipende da σ̂), e poniamo: εp =
Osserviamo poi che εp,σ non dipende da σ (perchè H
˙ εp,σ . Posto
ancora: g =
˙ 2s + 1, la (7.42) diventa:
´np,σ i Y Y h X ¡
Yh X ³
¢np,σ i Y h X ¡ −βεp ¢np,σ0 ig
Z=
z e−βεp,σ
=
z e−βεp
=
ze
,
(7.44)
p,σ
np,σ
p
σ
np,σ
p
np,σ0
dove σ 0 è uno qualunque dei σ. Indichiamo la funzione di gran partizione per il gas di Fermi con Z− , e
quella per il gas di Bose con Z+ . Per il gas di Fermi risulta allora (vedi (7.43)):
Y¡
¢g
Z− =
1 + z e−βεp
(con : g =
˙ 2s + 1) .
(7.45)
p
Per il gas di Bose otteniamo invece, supponendo z < 1 (6) :
Y¡
¢−g
Z+ =
1 − z e−βεp
(con : g =
˙ 2s + 1) .
(7.46)
p
Notiamo infine che, posto:
½
a=
˙
−1 ,
+1 ,
per il gas di Fermi,
per il gas di Bose,
(7.47)
possiamo anche scrivere le Z∓ come:
Za =
Y¡
1 − az e−βεp
¢−ag
.
(7.48)
p
Calcoliamo il numero di particelle medio (es. 7.5):
­ ®
∂
ln Za .
N a=z
∂z
(7.49)
X
gze−βεp
g
.
=
˙
−βε
βε
−1
p
1 − aze
z e p −a
p
(7.50)
Dalla (7.48) segue facilmente:
hN ia =
˙
X
p
(5)
È possibile definire, su H, anche operatori che non sono diagonali sulla base |{np,σ }i (come l’ ”energia potenziale”):
si ottiene cosı̀ il formalismo della (cosiddetta) ”seconda quantizzazione” ([FW cap I], [Bof2 cap III]).
(6)
Il gas di Bose sarà discusso nel § 10.
7.7
Il limite classico del gas ideale quantistico
98
Notiamo che il numero totale di particelle in uno stato {np,σ } è:
N ({np,σ }) =
X
q,µ
nq,µ ({np,σ }) ,
(7.51)
dove nq,µ ({np,σ }) è il numero di particelle nello stato (di particella singola) |q, µi per un gas nello stato
|{np,σ }i. La probabilità dello stato |{np,σ }i è (7) :
P ({np,σ }) =
h
i
X
1
1 Y ³ −βεp,σ ´np,σ
exp − β
(εp,σ − µ) np,σ =
˙
ze
.
Z
Z p,σ
p,σ
(7.52)
Prendendo la media della (7.51) otteniamo un’altra espressione per hN ia :
hN ia =
˙
X
N ({np,σ }) Pa ({np,σ }) =
˙
{np,σ }
X X
nq,µ ({np,σ }) Pa ({np,σ }) =
˙
q,µ {np,σ }
X
hnq,µ ia .
(7.53)
q,µ
Definiamo il ”numero di occupazione dello stato |qi” (nello stato |{np,σ }i):
nq ({np,σ }) =
˙
X
µ
nq,µ ({np,σ }) ,
(7.54)
hnq,µ ia .
(7.55)
hnq ia .
(7.56)
e il ”numero di occupazione medio dello stato |qi”:
hnq ia =
˙
Scriviamo la (7.53) come:
hN ia =
X
µ
X
q
Confrontando (7.50) e (7.56) otteniamo (vedi anche l’es. 7.5b):
hnp ia =
g
.
z −1 eβεp − a
(7.57)
Si noti che la condizione hnp i ≥ 0 implica, per il gas di Bose : 0 ≤ z < 1 (vedi § 10); per il gas di Fermi,
invece, z può assumere valori nell’intervallo: 0 ≤ z < ∞.
7.7 Il limite classico del gas ideale quantistico
I gas che si incontrano in natura sono fatti di molecole, atomi, elettroni, fotoni, ecc., e sono quindi
sistemi quantistici. Nondimeno, è ben noto che in certe condizioni (tipicamente, ad alta temperatura e/o
a bassa densità) ritroviamo comportamenti che sono in accordo con la meccanica statistica classica. È
chiaro allora che deve esistere un limite in cui il gas quantistico ”diventa classico”. Mostriamo che tale
limite coincide con la condizione z ¿ 1.
Osserviamo che, se valgono le condizioni:
z −1 eβεp À 1
(per tutti i p) ,
(7.58)
allora il numero di occupazione medio (vedi le (7.57)) assume la forma:
hnp ia ≈ zge−βεp
(7)
La probabilità P ({np,σ }) è il valore di aspettazione (sullo stato miscela) del proiettore |{np,σ }ih{np,σ }|:
P ({np,σ }) =
˙ Tr (b
ρ |{np,σ }ih{np,σ }|) .
(7.59)
7.7
Il limite classico del gas ideale quantistico
99
(si noti che in questo caso risulta hnp ia ¿ 1). I valori (7.59) non dipendono da a: quindi le (7.58)
individuano una condizione del gas in cui una proprietà tipicamente quantistica, come la differenza tra
bosoni e fermioni, non si manifesta. Le condizioni (7.58) sono certamente soddisfatte se è:
z ¿ 1.
(7.60)
Studiamo le proprietà del gas nella condizione (7.60). Il numero medio di particelle è:
hN i =
X
p
hnp i ≈ zg
X
e−βεp .
(7.61)
p
Consideriamo il limite in cui V diventa molto grande. In tale limite le tre componenti di p diventano
variabili ”praticamente continue”, per cui possiamo calcolare una ”somma sulle componenti dei momenti”
come un ”integrale (triplo) sui momenti”.
Per giustificare ciò, cominciamo col considerare la somma su una componente (del momento), che
indichiamo con q, e sia f (q) una generica funzione continua, e ”variabile lentamente”, di q. Consideriamo
una partizione dell’intervallo (−∞ < q < ∞) in intervalli ∆q, e sia ∆ν(q) il numero dei valori q che cadono
nell’intervallo ∆q centrato in q. Sia poi dν/dq è la ”densità degli stati”, cioè il numero degli stati q in un
intervallo dq unitario. Possiamo allora approssimare:
1X
1X
1X
∆ν
1
f (q) ≈
f (q) ∆ν(q) =
f (q)
∆q ≈
L q
L
L
∆q
L
∆q
Dalla (7.25) segue:
Z
∆q
1X
1
f (q) ≈
L q
h
dq f (q)
dν
.
dq
(7.62)
Z
dq f (q) .
(7.63)
Per una generica funzione continua, e variabile lentamente, del vettore p, f (p), abbiamo:
Z
1 X
1
f (p) ≈ 3
dp f (p) .
V p
h
(7.64)
Calcolando la (7.61) come in (7.64) (ricordando che εp = p2 /2m), segue (vedi la nota 3 a pag. 16):
hN i
zg
= 3
V
h
Z
∞
4πp2 dp e−βp
2
/2m
=
˙
0
zg
,
λ3
(7.65)
dove λ è la ”lunghezza d’onda termica”:
r
λ=
˙ h
β
=
˙
2πm
r
2π}2 β
.
m
(7.66)
Consideriamo anche, sempre nell’ipotesi (7.60), l’equazione di stato. Quando vale la (7.58), ln Za (vedi
la (7.48)) diventa:
X
X ¡
¢
V
e−βεp = z g 3 .
ln 1 − a z e−βεp ≈ z g
ln Za = −a g
(7.67)
λ
p
p
Dalla prima delle (5.53) e dalla (7.65) segue che sia il gas di Fermi che quello di Bose soddisfano, se z ¿ 1,
l’equazione di stato del gas ideale classico: P V = hN i kB T .
P
Calcoliamo infine, nell’ipotesi (7.60), l’energia media: U =
˙
p hnp i εp . Sostituendo la somma con un
integrale, e utilizzando l’espressione per z che segue dalla (7.65), otteniamo:
µ ¶3 Z ∞
p2 −βp2 /2m
3 hN i
3
L
4πp2 dp
e
=
=
˙ hN i kB T .
U = zg
h
2m
2β
2
0
(7.68)
7.8
Termodinamica del gas ideale di Fermi
100
L’energia (7.68) è l’energia interna del gas ideale classico.
Alla luce della (7.65), la (7.60) equivale alla condizione:
λ3 /v ¿ 1 .
(7.69)
Possiamo riassumere la discussione precedente, sull’equazione di stato e sull’energia interna, come segue:
quando la condizione (7.69) è verificata (alta temperatura e/o a bassa densità), la differenza tra il gas di
Fermi e il gas di Bose scompare, ed entrambi si comportano come un gas ideale classico. Discutiamo allora
il significato fisico della condizione (7.69). Descriviamo le particelle con funzioni d’onda del tipo ”pacchetto
d’onda”. Limitiamoci, per semplicità, al caso di una particella in dimensione 1, che supponiamo descritta
dalla funzione d’onda normalizzata:
s
2
K
ψ(x) = √ e−(Kx/2) .
(7.70)
2π
La (7.70) descrive una particella localizzata in una regione (centrata sull’origine) di dimensione proporzionale a K −1 . Il valor medio dell’energia cinetica nello stato (7.70) è:
hεp i =
˙
1
1 2 2
hψ | pb2 | ψi =
} K .
2m
8m
(7.71)
Supponiamo poi che la particella appartenga ad un gas con temperatura T , e assumiamo che per l’energia
media del gas valga la (7.68). Allora è naturale porre:
hεp i ∝ kB T .
(7.72)
1
}
}
∝p
=p
∝ λ.
K
mkB T
8m hεp i
(7.73)
Dalle (7.71) e (7.66) segue allora:
Pertanto, la lunghezza d’onda termica λ rappresenta la larghezza spaziale del pacchetto d’onda che descrive
una particella ”con temperatura T ” (8) . È allora chiaro il ruolo della (7.69) nel definire i valori di T e
v per i quali il gas quantistico si comporta classicamente. Ciò avviene quando il volume ”occupato dalla
particella”, λ3 , è molto più piccolo del ”volume disponibile”, v. In tal caso la sovrapposizione dei pacchetti
d’onda che corrispondono alle varie particelle è trascurabile, e la differenza tra funzioni d’onda simmetriche
e antisimmetriche viene a scomparire. Il significato della condizione z ¿ 1, cioè della λ3 /v ¿ 1, è dunque
di un ”limite classico” del gas quantistico.
Possiamo infine giustificare la presenza del fattore 1/N ! nelle formule della meccanica statistica classica
di un gas (vedi, ad esempio, la (4.37) o la (5.72)). Limitiamoci al caso del gas ideale. Consideriamo allora il
”limite classico” della funzione di gran partizione del gas ideale quantistico. Risulta (vedi anche la (7.67)):
ln Za ≈ gz
X
e−βεp .
(7.75)
p
Segue:
"
Z = exp gz
X
#
e
−βεp
=
p
(8)
∞
X
N =0
z
N
gN
N!
Ã
X
!N
e
−βεp
.
(7.76)
p
Dalla rapresentazione in integrale di Fourier della (7.70):
Z
∞
2
dk e−(k/K ) eikx ,
ψ(x) =
˙ C
con :
−∞
risulta che K −1 ∝ λ è la ”lunghezza d’onda media del pacchetto d’onda”.
C =
˙
1
√ ,
π 2π K
1
p √
(7.74)
7.8
Termodinamica del gas ideale di Fermi
101
Interpretando la (7.76) come ”limite classico della funzione di gran partizione quantistica”, e confrontando
con la (5.48), possiamo identificare il coefficiente di z N con la funzione di partizione ZN . Segue:
ZN
g N ³ X −βεp ´N
VN
=
e
≈ gN
N! p
N ! h3N
µZ
dp e
−βp2 /2m
¶N
.
(7.77)
A meno del fattore g N , la (7.77) coincide con la funzione di partizione del gas ideale classico di N particelle
(vedi (5.72)). Il fattore (N !)−1 esprime dunque una proprietà quantistica del gas classico!
7.8 Termodinamica del gas ideale di Fermi
Ricordiamo l’espressione del numero di particelle medio per il gas di Fermi (vedi (7.50), con a = −1;
d’ora in avanti omettiamo il simbolo ”a”):
hN i =
X
g
z −1 eβεp
p
+1
,
(7.78)
dove 0 ≤ z < ∞. Assumiamo che V sia ”grande”, e calcoliamo la somma come un integrale, secondo la
(7.62); passiamo poi a coordinate polari nello spazio p, e integriamo sugli angoli. La (7.78) diventa allora:
1
hN i
4π
=
˙
=g 3
v
V
h
Poniamo y 2 =
˙ βp2 /2m. Segue:
dove λ =
˙ h
Z
∞
dp
0
p2
z −1 eβp2 /2m + 1
.
4π 2
4 1 2
p dp = √
y dy ,
h3
π λ3
(7.79)
(7.80)
p
β/2πm è la lunghezza d’onda termica. La seconda delle (7.79) diventa:
1
g 4
= 3 √
v
λ
π
Z
∞
dy
0
y2
z −1 ey2
+1
.
(7.81)
Poniamo ancora x =
˙ y 2 ; l’integrale (7.81) diventa:
4
√
π
Z
∞
0
y2
2
dy −1 y2
=√
π
z e +1
Z
∞
dx
0
x1/2
.
z −1 ex + 1
(7.82)
Definiamo le funzioni fn (z) (per n > 0) come:
1
fn (z) =
˙
Γ(n)
Z
∞
dx
0
xn−1
.
z −1 ex + 1
(7.83)
I valori di n che utilizzeremo sono: n = 1/2, 3/2, 5/2, e i corrispondenti valori della funzione Γ(n) sono:
Γ(1/2) =
La (7.81) diventa:
√
π,
Γ(3/2) =
√
π/2 ,
√
Γ(5/2) = 3 π/4 .
1
g
= 3 f3/2 (z) .
v
λ
(7.84)
(7.85)
La pressione del gas ideale di Fermi segue dalla prima delle (5.53), e dalla (7.45):
P V = kB T g
X
p
¢
¡
ln 1 + ze−βεp .
(7.86)
7.8
Termodinamica del gas ideale di Fermi
102
Procediamo come per la (7.78): calcolando la somma (7.86) come un integrale, e passando poi a coordinate
polari nello spazio p, la (7.86) diventa:
Z
³
´
2
P
4π ∞
=g 3
dp p2 ln 1 + z e−βp /2m .
(7.87)
kB T
h 0
Integrando per parti otteniamo:
P
4π β
=g 3
kB T
3h m
Z
2
∞
dp
0
p4 e−βp /2m
.
1 + z e−βp2 /2m
Cambiando variabili di integrazione, come per la (7.79), segue:
Z ∞
Z ∞
y4
x3/2
P
g 8
g
1
g
dy −1 y2
dx −1 x
= 3 √
= 3
=
˙ 3 f5/2 (z) .
kB T
λ 3 π 0
λ Γ(5/2) 0
z e +1
λ
z e +1
(7.88)
(7.89)
Mostriamo ora che la (7.85) può essere ”invertita”, per esprimere z in funzione di v e di λ. Fisicamente,
ciò equivale a considerare come variabile indipendente il numero medio di particelle, hN i, invece di z (o
µ). L’inversione della (7.85) può essere realizzata analiticamente nelle due regioni: z ¿ 1, z À 1.
Per z ¿ 1 conviene utilizzare la rappresentazione (7.115):
X∞
fn (z) =
(−1)l+1 (z l /ln ) .
(7.90)
l=1
La (7.85) diventa allora:
λ3
z2
≈ z − 3/2 + . . . .
gv
2
(7.91)
Invertendo la (7.91) si ottiene (es. 7.11a):
z≈
λ3
1
+ 3/2
gv 2
µ
λ3
gv
¶2
+ ...
(7.92)
(la (7.92) conferma (vedi anche la (7.69)) che z ¿ 1 implica alta temperatura e/o bassa densità). Per
z ¿ 1, la pressione diventa:
·
¸
P
g
z2
≈ 3 z − 5/2 + . . . .
(7.93)
kB T
λ
2
Usando la (7.92) nella (7.93) otteniamo:
Pv
1 λ3
= 1 + 5/2
+ ··· .
kB T
2 gv
(7.94)
La (7.94) è l’equazione di stato del gas di Fermi nella regione ”alta temperatura e/o bassa densità”. Si
noti la presenza di una correzione quantistica (all’equazione di stato del gas ideale classico) consistente in
un aumento della pressione (del gas di Fermi) rispetto alla pressione di un gas classico con uguali T e v.
Consideriamo poi la regione z À 1. È allora conveniente utilizzare la rappresentazione (7.123):
·
¸
4
π2
f3/2 (z) = √ (ln z)3/2 1 +
(ln z)−2 + . . . .
(7.95)
8
3 π
Esprimiamo z in funzione di T e v: sostituendo la (7.95) nella (7.85) si ottiene:
·
¸
√
3 πλ3
π2
3/2
−2
= (ln z)
1+
(ln z) + . . . .
4gv
8
(7.96)
La (7.96) mostra che z À 1 implica: λ3 /gv À 1. La regione z À 1 corrisponde dunque alla regione ”bassa
temperatura e/o alta densità”. Invertendo la (7.96) (es. 7.11b) segue:
#
µ √
¶−4/3
µ √ 3 ¶2/3 "
π 2 3 πλ3
3 πλ
1−
+ ... .
(7.97)
ln z =
4gv
12
4gv
7.8
Termodinamica del gas ideale di Fermi
103
Da: ln z =
˙ βµ, segue poi l’espressione di µ in funzione di T e v:
·
¸
π2
1
µ = εF 1 −
+
.
.
.
,
12 (βεF )2
(7.98)
dove la ”energia di Fermi”, εF , è:
εF =
˙ µ|T =0 =
1
β
µ √ 3 ¶2/3
µ 2 ¶2/3
3 πλ
}2
6π
=
.
4gv
2m
gv
<n>
p
g
(7.99)
T=0
g/2
T<<TF
Fig. 7.1 :
hnp i (gas di Fermi; T = 0, e T ¿ TF ).
0
ε
εF
p
Definiamo la ”temperatura di Fermi”: TF =
˙ εf /kB . Per T ¿ TF la natura quantistica del gas è
dominante (es. 8c). Ad esempio, consideriamo il numero di occupazione medio hnp i. Dalla (7.97) segue
che, per T ¿ TF , possiamo approssimare: µ ≈ εF , e: eβµ ≈ eβεF . Segue (9) :
hnp i ≈
g
β(εp −εF )
e
+1
,
per :
T ¿ TF .
Per T → 0, hnp i assume la tipica forma ”a gradino” (fig. 7.1):
½
g
(εp ≤ εF ) ,
,
per :
hnp i =
0
(εp > εF ) .
(7.100)
T = 0.
(7.101)
Per T = 0 le particelle occupano quindi tutti gli stati |pi fino a quello con energia εF .
Consideriamo la pressione per bassa temperatura e/o alta densità. Ricordiamo lo sviluppo (7.124):
·
¸
5π 2
8
(ln z)−2 + . . . .
(7.102)
f5/2 (z) = √ (ln z)5/2 1 +
8
15 π
Usando poi la (7.97), dalla (7.89) segue facilmente:
·
¸
2 εF
5 π2
P =
1+
+
·
·
·
.
5 v
12 (βεF )2
(7.103)
Si noti che il gas di Fermi esercita una pressione anche per T = 0.
Consideriamo infine l’energia interna del gas ideale di Fermi. Per definizione, abbiamo:
!
"
#
Ã
∞
X
1 X X (N ) X
∂
βµN
hHi =
εp np,σ = −
ln Z
εp np,σ e
exp −β
Z
∂β
p
p,σ
(7.104)
N =0 {np,σ }
(vedi anche la (5.76); si noti che la (7.104) vale anche per il gas ideale di Bose). Dalla (7.104) segue (si
ricordino la prima delle (7.78) e la (7.89), e si noti che la derivata rispetto a β, nella (7.104), va fatta a z
costante):
∂
3 1
∂
(βP V ) = −gV f5/2
(λ)−3 = gV
f ,
(7.105)
U =
˙ hHi = −
∂β
∂β
2 βλ3 5/2
(9)
Indicando il secondo membro della (7.100) con hnp i(εp ) , risulta: hnp i(εp ) = g − hnp i(2ε
F
”simmetria” del grafico di hnp i rispetto alla retta εp = εF .
−εp ) ,
da cui la evidente
7.9
Integrali di Fermi
104
cioè (per la (7.89)):
3
PV.
2
U=
(7.106)
Per T ¿ TF possiamo usare la (7.103) nella (7.106). Si trova immediatamente:
U=
·
¸
3
5 π2
hN i εF 1 +
+
·
·
·
.
5
12 (βεF )2
(7.107)
Dalla (7.107) segue la capacità termica (a V costante), CV :
µ
CV =
˙
∂U
∂T
¶
≈ kB
(V,N )
π 2 hN i
2 βεF
per :
T ¿ TF .
(7.108)
Per temperature alte (T À TF ) dobbiamo aspettarci che il gas di Fermi abbia un comportamento classico,
cioè che CV tenda a (3/2)N kB . L’andamento di CV in funzione di T è riassunto nella fig. 7.2. L’andamento
lineare per T ¿ TF è tipico del gas di Fermi (per una giustificazione qualitativa, vedi l’es. 7.10).
CV / Nk
3/2
Fig. 7.2 :
CV per il gas di Fermi
εF
kT
7.9 Integrali di Fermi
Riportiamo qui, per completezza, alcuni risultati standard [Pat app. E], necessari per gli sviluppi del
paragrafo precedente.
Consideriamo gli integrali:
Z
∞
Fn (z) =
˙
dx
(n > 0) .
(7.109)
dx xn−1 e−x =
˙ z Γ(n) .
(7.110)
0
Per z ¿ 1 abbiamo:
Z
∞
Fn (z) → z
xn−1
z −1 ex + 1
0
Per z generico conviene allora definire: Fn (z) =
˙ Γ(n) fn (z), con:
1
fn (z) =
˙
Γ(n)
Z
∞
dx
0
Le funzioni fn (z) sono chiamate ”integrali di Fermi”
A) z ¿ 1 :
(7.111)
. Consideriamo i casi: z ¿ 1, e z À 1.
Per z ¿ 1 conviene scrivere la (7.111) come:
fn (z) =
(10)
(10)
xn−1
.
z −1 ex + 1
1
Γ(n)
Z
0
∞
dx xn−1
ze−x
.
1 + z e−x
(7.112)
Si noti anche la relazione: fn−1 (z) = z ∂fn (z)/∂z, che può essere verificata facilmente derivando fn sotto il segno di
integrale e poi integrando per parti.
7.9
Integrali di Fermi
105
Nel denominatore della (7.112), z e−x è una quantità piccola; sviluppando in serie di Taylor segue:
fn (z) =
Z
1
Γ(n)
∞
∞
X
(−1)l (ze−x )l .
dx xn−1 ze−x
0
(7.113)
l=0
Posto poi (l + 1)x =
˙ y, e ricordando [AS70 § 6.1] la relazione:
Z
∞
dy y n−1 e−y =
˙ Γ(n) ,
(7.114)
0
possiamo integrare termine a termine. La (7.113) diventa allora:
∞
z l+1
1 X
fn (z) =
(−1)l
Γ(n)
(l + 1)n
Z
∞
X
dy y n−1 e−y =
0
l=0
B) z À 1 :
∞
(−1)l+1
l=1
zl
.
ln
(7.115)
Ponendo: ν =
˙ ln z, e integrando per parti nella (7.111) otteniamo:
fn (z) =
˙
1
nΓ(n)
Z
∞
dx xn
0
ex−ν
(ex−ν + 1)
2
.
(7.116)
Poniamo poi: t =
˙ x − ν. Segue:
fn (z) =
νn
nΓ(n)
Z
∞
dt
−ν
µ
et
2
(et + 1)
1+
t
ν
¶n
.
(7.117)
2
La funzione et / (et + 1) è ”essenzialmente diversa da zero” solo per valori di tali che |t| sia ”piccolo”.
Conviene allora sviluppare:
µ
¶n
µ ¶2
t
t
1
t
1+
= 1 + n + n(n − 1)
+ ... ,
ν
ν
2
ν
Definiamo gli integrali:
Z
∞
Ih =
˙
dt
−ν
Z
t h et
(et + 1)
2
∞
≈
dt
−∞
t h et
(et + 1)
2
(7.118)
,
(7.119)
dove, per ν À 1, abbiamo esteso l’integrale nella (7.117) fino a t = −∞. Risulta allora:
νn
fn (z) =
nΓ(n)
µ
¶
n
n(n − 1)
I0 + I1 +
I2 + . . . .
ν
2ν 2
(7.120)
Gli integrali Ih (h = 0, 1, 2, . . .) possono essere espressi (vedi dopo) in funzione della funzione ”zeta (di
Riemann)”, ζ(h):
µ
Ih = 2hΓ(h) 1 −
1
2h−1
¶X
∞
s=1
tutti
1
=
˙ 2h Γ(h)
sh
µ
1−
1
¶
2h−1
ζ(h) ,
dove :
ζ(h) =
˙
∞
X
1
.
sh
s=1
(7.121)
I valori di h che qui interessano sono h = 0, 2, per i quali si ha [AS70 § 23.2]:
ζ(0) = 1 ,
ζ(2) =
π2
.
6
(7.122)
Ricordando poi che ν = ln z, segue, per n = 3/2, 5/2:
·
¸
π2
4
−2
3/2
1+
(ln z) + . . . ,
f3/2 (z) = √ (ln z)
8
3 π
(7.123)
7.10
La condensazione di Bose-Einstein
f5/2 (z) =
106
·
¸
8
5π 2
√ (ln z)5/2 1 +
(ln z)−2 + . . . .
8
15 π
(7.124)
Deriviamo la (7.121). Cominciamo col notare che dalla seguente proprietà:
et
(et
e−t
=
2
+ 1)
(e−t
+ 1)
,
2
(7.125)
segue che per h dispari è: Ih = 0. Consideriamo allora i soli h pari. Per h = 0 si ha:
Z
∞
dt
I0 = 2
0
·
et
(et + 1)
2
= −2
1
et + 1
¸∞
= 1.
(7.126)
0
Per h pari e maggiore di zero si ha:
Z
∞
Ih = 2
Z
= 2h
dt
Z
t h et
2
= 2h
∞
th−1
=
˙ 2h
dt t
e +1
(et + 1)
0
∞
∞
∞
X
X
dt th−1 e−t
(−1)r e−rt = 2h
(−1)r
0
0
r=0
r=0
Z
∞
dt
0
1
(1 + r)h

th−1 e−t
=
1 + e−t
Z ∞
dy y h−1 e−y =
˙
0

∞
∞
∞
∞
r
s+1
X
X
X
X
(−1)
(−1)
1
1

= 2hΓ(h)
=
˙ 2hΓ(h)
= 2hΓ(h) 
−
=
h
h
h
h
(1
+
r)
s
s
s
s=1
s=1
r=0
s=1


= 2hΓ(h) 
dispari

∞
X
s=1
tutti
µ
=
˙ 2h Γ(h) 1 −
(7.127)
pari
¶X
µ
∞
1
1
1
1
−
2
=
˙
=
2hΓ(h
1
−

h
h
h−1
s
s
2
sh
s=1
s=1
∞
X
pari
1
2h−1
tutti
¶
ζ(h) ,
dove :
∞
X
1
ζ(h) =
˙
.
h
s
s=1
7.10 La condensazione di Bose-Einstein
Il gas ideale di Bose presenta un fenomeno, la ”condensazione di Bose-Einstein” (CBE), che non solo
viene effettivamente osservato (in sistemi ”quasi ideali”, come i gas di metalli alcalini molto rarefatti), ma
che risulta importante anche per sistemi ”fortemente interagenti”, come ad esempio l’4 He.
Consideriamo un gas ideale di particelle di Bose di massa m (> 0), e senza spin, confinato in una
scatola, che per semplicità assumiamo cubica e di lato L, con condizioni periodiche al contorno. Nonostante
la assenza di interazioni, il gas ideale di Bose presenta una transizione di fase, la CBE, caratterizzata
dall’esistenza di una ”temperatura critica”, Tc , al di sotto della quale le particelle ”preferiscono” occupare
lo stato p = 0, nel senso che per T → 0 risulta hnp i → 0, per tutti i p 6= 0, e hn0 i → hN i .
Le proprietà di un gas ideale di bosoni (di massa m e spin zero) nello stato termodinamico (T, V, µ),
con V = L3 , seguono dalla funzione di gran partizione (7.46) (scriviamo Z invece di Z+ ):
Z=
Y¡
1 − z e−βεp
¢−1
.
(7.128)
p
Le equazioni di stato si ottengono dalle (5.53): usando la (7.128) otteniamo:
P V = −kB T
X
p
¢
¡
ln 1 − z e−βεp ,
(7.129)
7.10
La condensazione di Bose-Einstein
N=
X
p
107
X
z e−βεp
hnp i ,
=
˙
−βε
1−ze p
p
(7.130)
dove il numero di occupazione medio dello stato p è (vedi (7.57)):
hnp i =
1
,
z −1 eβεp − 1
(7.131)
con: 0 ≤ z < 1 (la possibilità che sia z = 1 sarà discussa più avanti). Ricordiamo che le possibili energie
di particella singola sono: εp = p2 /2m, dove i possibili momenti p sono:
p~ν =
˙ (h/L) ~ν ,
dove : ~ν =
˙ (νx , νy , νz ) ,
con :
νx , νy , νz = 0, ±1, ±2, . . . .
(7.132)
La grandezza fondamentale nella CBE è il numero di occupazione medio dello stato p = 0:
hn0 i =
˙
1
z
=
.
z −1 − 1
1−z
(7.133)
Consideriamo dapprima l’andamento di hn0 i in funzione di z. Nella regione ”classica”, cioè per z ¿ 1
(vedi § 7), dalla (7.133) risulta hn0 i ¿ 1. Per z → 1, potrebbe invece essere: hn0 i ≈ N (e: hnp i ¿ N ).
Un esempio (non fisico: la dipendenza ”vera” di z da V e T sarà derivata più avanti) è:
z = 1 − N −1 =
˙ 1 − vV −1 ,
con :
v=
˙ V /N .
Usando la (7.134) nella (7.133), nel limite per V → ∞ (”limite termodinamico”
(7.134)
(11)
), risulta:
hn0 i
hn0 i
1
1 − vV −1
=
˙ v lim
= v lim
= 1,
V →∞ N
V →∞ V
V →∞ V 1 − (1 − vV −1 )
hnp i
hnp i
1
1
1
1
lim
=
˙ v lim
= v lim
≈ v lim
= 0.
V →∞ N
V →∞ V
V →∞ V [(V − v)/V ]eβεp − 1
V →∞ V eβεp − 1
lim
(7.135)
L’andamento di hn0 i in funzione di z (vedi la (7.133)) non è fisicamente molto significativo. È invece
più interessante l’andamento di hn0 i in funzione di T e v. In effetti risulterà che hn0 i è esprimibile in
funzione della quantità nλ3 =
˙ λ3 /v (con: n =
˙ 1/v), dove λ è la ”lunghezza d’onda termica” (7.66).
Osserviamo che, se la funzione (di p) hnp i fosse continua (”lentamente variabile”) per tutti i p, sarebbe
possibile (nel limite V → ∞: vedi § 7) calcolare la somma come un integrale: vedi (7.64). Tuttavia, se
fosse z = 1, la funzione hnp i divergerebbe in p = 0, e quindi in p = 0 la continuità non sussisterebbe. Per
p 6= 0, invece, hnp i è continua anche per z = 1. Scriviamo allora la somma (7.130) come:
N0
hn0 i
1 X
Ne
N
=
+
hnp i =
˙
+
,
V
V
V
V
V
(7.136)
p6=0
P
dove: N0 =
˙ hn0 i, e: Ne =
˙
p6=0 hnp i (Ne è il ”numero delle particelle negli stati eccitati”). Per p 6= 0 la
funzione hnp i è continua per ogni z, e quindi Ne può essere calcolata come un integrale (12) . Segue:
Z
N
N0
1
=
+ 3
dp hnp i ,
(7.137)
V
V
h |p|>0
cioè, in coordinate polari nello spazio p:
N0
1
N
=
+ 3 4π
V
V
h
(11)
Z
∞
p2 dp hnp i .
Nella rappresentazione (della termodinamica) del potenziale gran canonico, risulta: N = V f (T, µ) (”estensività di N ”).
Il limite termodinamico si riduce dunque al solo limite V → ∞.
(12)
(7.138)
p>0
Per una discussione matematicamente più rigorosa, vedi [Mu69 § 9.7].
7.10
La condensazione di Bose-Einstein
108
Notiamo poi che l’integrando nella (7.138) rimane finito per p → 0:
p2 hnp i =
˙
p2
z −1 eβεp
−1
≤
zp2
p2
≤ βεp
< ∞,
−1
e
−1
per :
eβεp
p → 0.
(7.139)
Possiamo allora estendere l’integrale fino a p = 0, e riscrivere la (7.138) come:
N
N0
1
=
+ 3 4π
V
V
h
Z
∞
p2 dp hnp i .
(7.140)
0
Usando la (7.131), scriviamo la (7.140) come:
N0
4π
N
=
+ 3
V
V
h
Z
∞
dp
0
p2
z −1 eβp2 /2m − 1
.
(7.141)
Posto: x =
˙ βp2 /2m, dalla (7.141) otteniamo:
Ne
1
=
˙ 3 g3/2 (z) ,
V
λ
(7.142)
dove λ è data dalla (7.66), e dove g3/2 (z) è il caso n = 3/2 delle funzioni gn (z), definite come (13) :
1
gn (z) =
˙
Γ(n)
Z
∞
dx
0
xn−1
.
z −1 ex − 1
(7.143)
g
2.61
Fig. 7.3:
La funzione
g3/2 (z).
z
1
La funzione g3/2 (z) è monotonicamente crescente e limitata: g3/2 (z) ≤ g3/2 (1) = O(1). La limitatezza
di g3/2 è la chiave della CBE. Infatti, supponiamo di aumentare, a T costante, la densità delle particelle ”eccitate”. Alla luce della (7.142), è chiaro che Ne /V non può crescere indefinitamente: Ne /V ≤
(Ne /V )max =
˙ λ−3 g3/2 (1). Per N/V > (Ne /V )max deve essere N0 /V > 0, cioè appunto la CBE (14) !
L’andamento di z in funzione di nλ3 segue dalle (7.133), (7.136), e (7.142), da cui segue:
z
1
1
= − 3 g3/2 (z) ,
V (1 − z)
v λ
(7.144)
1
z
=1−
g (z) .
N (1 − z)
nλ3 3/2
(7.145)
cioè (usando: v/V = N , e: v = 1/n):
Non è possibile risolvere la (7.145) analiticamente. Usiamo allora un metodo grafico [BMB fig. 5.13]. Per
dati nλ3 e N , consideriamo, su un diagramma (z, Y ) (fig. 7.4), le due funzioni:
Y1 = Y1 (z) =
˙
z
,
N (1 − z)
Y2 = Y2 (z) =
˙ 1−
1
g (z) .
nλ3 3/2
(7.146)
(13)
Le funzioni gn (z) [Pat app. D] vengono introdotte e discusse con metodi analoghi a quelli visti nel § 9 per la fn (z).
(14)
La stessa analisi porta, per un gas di Bose bidimensionale, all’espressione: Ne /V = λ−2 g1 (z), dove g1 (z) è data dalla
(7.143) per n = 1. Per z = 1, g1 (z) diverge: g1 (1) = ∞. Quindi in dimensione 2 la CBE è assente [Hu87 probl. 12.6] !
7.10
La condensazione di Bose-Einstein
109
Si noti che per V → ∞ il grafico della funzione Y1 viene a coincidere con il segmento [0, 1) dell’asse z e
con la semiretta (z = 1, Y1 > 0):
½
0,
per 0 ≤ z < 1 ,
lim Y1 (z) =
(7.147)
∞ , per z = 1 .
V →∞
Il grafico della funzione Y2 è una curva decrescente che passa per i punti (0, 1) e (1, g3/2 (1)/nλ3 ). È chiaro
che per V → ∞ la ascissa dell’intersezione delle due curve è:

per nλ3 ≥ g3/2 (1) ,
1 ,
z=
(7.148)

la soluzione di : g3/2 (z) = nλ3 , per nλ3 ≤ g3/2 (1) .
1
Fig. 7.4:
a) nλ3 ≥ g3/2 (1)
b) nλ3 ≤ g3/2 (1)
Y2
Y
1
Y2
Y1
1
z
1
(a)
z
1
(b)
L’interpretazione fisica della soluzione (7.148) diventa evidente se, per una fissata densità, n, definiamo
λc come:
λ3c =
˙ g3/2 (1)/n .
(7.149)
In termini di λc possiamo definire una temperatura, Tc , tale che:
s
Ã
!2/3
1
h2
n
.
λc =
˙ h
,
cioè : Tc =
2πmkB Tc
2πmkB g3/2 (1)
La (7.148) diventa allora:

per T ≤ Tc ,
1 ,
z=
 la soluzione di : g (z) = nλ3 , per T > T ,
c
3/2
(per n fissata) .
(7.150)
(7.151)
Indichiamo il limite ”per V → ∞” con il simbolo L =
˙ limV →∞ . Dalla (7.145) segue, per una data n:

 1 − (T /Tc )3/2 , per T ≤ Tc ,
N0
1
(7.152)
=1−
g
(z)
=
L

N
nλ3 3/2
0,
per T > Tc .
La (7.152) è rappresentata nella fig. 7.5, e descrive il fenomeno della CBE (Tc ha il significato di temperatura ”critica”). È chiaro che il termine ”condensazione” (di Bose-Einstein) descrive una condensazione
nello spazio dei momenti: le particelle ”condensano” nello stato p = 0. Si noti che Tc è la temperatura
alla quale la lunghezza d’onda termica diventa dello stesso ordine di grandezza della separazione media tra
le particelle (vedi la (7.149)): quindi Tc è la temperatura a cui gli effetti quantistici diventano importanti.
Nel seguito chiameremo l’insieme delle particelle nello stato p = 0: ”condensato” (15) .
(15)
La teoria sviluppata sopra vale per bosoni con massa: m > 0. Esistono anche gas di bosoni con m = 0: ad esempio, le
”eccitazioni” (fononi) di un solido a bassa T . Per m → 0 risulta: Tc → ∞. Inoltre, non esistono fononi di momento nullo (non
esistono vibrazioni reticolari di energia nulla): N0 = 0. Potremmo allora dire che un gas di N fononi con T finita corrisponde
alla componente non condensata di un gas di Bose con T < Tc : Ne = N . Per T → 0, il numero medio dei fononi tende a
zero (corrispondentemente al fatto che lo stato del sistema tende allo stato con energia minima, e quindi senza eccitazioni).
Quindi, un gas ideale di fononi per T → 0 non condensa, ma scompare!
7.11
Proprietà del gas ideale di Bose
110
Il gas di Bose ideale è evidentemente un modello matematico, non realizzabile in natura: non è
quindi ovvio che la CBE sia sperimentalmente osservabile. In realtà, un sistema bosonico come l’He (liquido) presenta una transizione di fase con una temperatura critica Tc ≈ 2.18 ◦ K [Hu87 fig. 13.2]. Se
calcoliamo la (7.150) con m uguale alla massa di un atomo di 4 He, e con n uguale alla densità dell’He
liquido, troviamo: Tc ≈ 3.13 ◦ K ! La vicinanza dei due dati, e altre considerazioni meno qualitative
(vedi ad es. [Hu87 § 13.8]), suggeriscono che la CBE abbia un ruolo anche nei sistemi di Bose reali.
N0
N
1
Fig. 7.5
Tc
T
In conclusione, notiamo che z ed N0 possono essere espressi anche in funzione di n, per T fissata.
Posto: nc =
˙ g3/2 (1)/λ3 , da (7.148) segue:

1 ,
z=

 1 − (nc /n) ,
per n ≥ nc ,
 la sol. di : g (z) = nλ3 ,
3/2
=⇒
N0
=

N
L
per n ≤ nc
per n > nc ,
.
0,
per n ≤ nc ,
(7.153)
Ancora, z ed N0 possono essere espressi in funzione di v (per T fissata). Posto: vc =
˙ 1/nc , segue:


per v ≤ vc ,
1 ,
 1 − (v/vc ) , per v ≤ vc ,
N0
. (7.154)
z=
=⇒ L
=
 la sol. di : g (z) = λ3 /v , per v > v

N
c
0,
per v > nc .
3/2
7.11 Proprietà del gas ideale di Bose
A) La pressione
Calcoliamo la pressione del gas in funzione di T ed n. Procedendo come per la (7.142), la (7.129) può
essere scritta come:
Z ∞
¡
¢
V
p2 dp ln 1 − ze−βεp .
(7.155)
P V = −kB T ln(1 − z) − kB T 3 4π
h
0
Introducendo la variabile x =
˙ βp2 /2m la (7.155) diventa:
µ
P V = −kB T ln(1 − z) − kB T V
2πm
βh2
¶3/2
2
√
π
Z
∞
¡
¢
x1/2 dx ln 1 − ze−x .
(7.156)
0
Integrando per parti segue:
Z
∞
0
¡
¢
2
x1/2 dx ln 1 − ze−βx = − β
3
Z
∞
dx
0
x3/2
z −1 eβx
−1
.
(7.157)
In definitiva, l’equazione per la pressione è:
1
1
βP = − ln(1 − z) + 3
V
λ
µ
4
√
3 π
¶−1 Z
∞
dx
0
x3/2
,
z −1 eβx − 1
(7.158)
7.11
Proprietà del gas ideale di Bose
111
cioè (ricordando (7.143)):
βP = −
Ricordiamo ora la (7.133):
N0 =
z
1−z
1
1
ln(1 − z) + 3 g5/2 (z) .
V
λ
da cui :
1−z =
(7.159)
1
.
1 + N0
(7.160)
Nel limite termodinamico segue allora, per T ≤ Tc :
h
i
h
i
h
i
L V −1 ln(1 − z) = L V −1 ln(1 + N0 ) ≤ L V −1 ln(1 + N ) =
h
i
h
i
= L V −1 ln(1 + V n) ≤ L V −1 ln(V n) = 0
(7.161)
(nel limite termodinamico n rimane costante). D’altra parte, per T > Tc è z < 1, e quindi:
h
i
L V −1 ln(1 − z) = 0 .
(7.162)
In definitiva, il termine V −1 ln(1 − z) nella (7.159) può essere trascurato (nel limite termodinamico) per
ogni T . La pressione P = P (T, V, z) è allora:
P =
kB T
g (z) .
λ3 5/2
(7.163)
Consideriamo le ”isoterme”, cioè le funzioni P = P (v; T ), per T fissata. Dalla (7.154) otteniamo:

per: v ≤ vc (T ) ,
 kB T g5/2 (1) / λ3 ,
con : vc =
˙ λ3 /g3/2 (1) ;
(7.164)
P =

3
kB T g5/2 (z)/λ ,
per: v > vc (T ),
dove, nella seconda delle (7.164), z è soluzione dell’equazione:
nλ3 − g3/2 (z) = 0 .
(7.165)
Si noti che per v = vc risulta z = 1: quindi la funzione (7.164) è continua in v = vc . Per ogni T l’isoterma
corrispondente presenta un tratto piatto (per v ≤ vc (T )), analogo al tratto piatto di un’isoterma di un gas
reale classico. L’isoterma per T = 0 coincide con la retta P = 0. D’altra parte, per T = 0 il gas è tutto ”condensato”: possiamo concludere che il condensato ha pressione zero, indipendentemente dalla sua densità !
P (v)
T
T1
T2
Fig. 7.6:
Isoterme del gas ideale di Bose (T2
< T1 ).
vc(T 1)
v
Calcoliamo la funzione P = P (T ) per v fissato. Per T ≤ Tc , dalla (7.163) segue: P = (kB T /λ3 ) g5/2 (1).
Invece, per T > Tc , usando la seconda delle (7.151), la (7.163) può essere scritta (per n fissata) come:
g5/2 (z)
P
=n
.
kB T
g3/2 (z)
(7.166)
Le (7.166) sono rappresentate nella fig. 7.6.
Per z ¿ 1 le funzioni (7.143) possono essere scritte, sviluppando l’integrando rispetto a z e integrando
termine a termine [Pat app. D], come serie:
X∞
gn (z) =
z l /ln ,
(7.167)
l=1
7.11
Proprietà del gas ideale di Bose
112
da cui:
g3/2 (z) ≈ z + 2−3/2 z 2 + · · · ,
Segue:
g5/2 (z) ≈ z + 2−5/2 z 2 + · · · .
·
¸
P
1
≈n 1− √ z .
kB T
4 2
(7.168)
(7.169)
Invertendo la seconda delle (7.151) per ottenere z come funzione di nλ3 (si ottiene: z ≈ nλ3 −2−3/2 (nλ3 )2 ),
la (7.169) diventa:
P
1
= 1 − √ nλ3 + · · · .
(7.170)
kB T
4 2
La (7.170) è l’equazione di stato del gas ideale classico, con una correzione quantistica che rende la pressione
di un gas di Bose minore della pressione di un analogo gas classico.
B) Il calore specifico
È di grande interesse, anche per il confronto con altri sistemi bosonici (come il gas di fononi),
l’andamento del calore specifico, CV , a bassa T . La dipendenza da T può essere ricavata, per T ≤ Tc , con
una semplice considerazione qualitativa: assumiamo che l’energia media di una particella con p > 0 sia
circa kB T . Il numero delle particelle che contribuiscono all’energia interna, U , è (vedi (7.151) e (7.142)):
Ne ∝ T 3/2 ,
da cui :
U ≈ Ne kB T ∝ (kB T )5/2
(per T < Tc ) .
(7.171)
Per il calore specifico segue:
C ∝ (kB T )3/2
(per T < Tc )
(7.172)
(per una discussione più approfondita vedi § 12).
C) Anomalie del gas ideale di Bose
Le isoterme della fig. 7.6 presentano (per T < Tc ) un tratto orizzontale. Negli stati termodinamici
corrispondenti ai punti di tali tratti, la comprimibilità (3.72) del gas è infinita: κ = |V (∂P/∂V )|−1 = ∞ .
Ciò non ha riscontro nella fisica dei gas reali, e costituisce dunque una anomalia del gas ideale di Bose.
Un altro comportamento anomalo del gas ideale riguarda la densità (numero di particelle nell’unità
di volume). Cominciamo col definire un ”operatore densità”, n
b(r), tale che il suo valore di aspettazione su
uno stato |ϕi sia la densità del sistema. Ad esempio, per una particella in uno stato corrispondente ad una
funzione d’onda ϕ(r1 ), risulta: n
b1 (r) =
˙ δ(r − b
r), dove b
r è l’operatore ”posizione della particella”. Infatti:
Z
n1 (r) =
˙ hϕ | n
b1 (r) | ϕi = dr1 dr2 hϕ|r1 ihr1 | n
b1 (r) | r2 ihr2 |ϕi =
Z
Z
(7.173)
2
2
=
dr1 dr2 hϕ|r1 iδ(r − r2 )hr1 |r2 ihr2 |ϕi = dr1 |ϕ(r1 )| δ(r − r1 ) = |ϕ(r)|
(per una particella la densità di numero di particelle coincide con la densità di probabilità). Per N particelle
definiamo (per l’analogo classico vedi la (1.26))
n
bN (r) =
˙
N
X
δ(r − b
ri ) .
(7.174)
i=1
Supponiamo che le particelle costituiscano un gas ideale di bosoni a T = 0, in un volume V = L3 . Se
indichiamo con ϕ0 (r) la funzione d’onda dello stato fondamentale di una particella, la funzione d’onda
dello stato (fondamentale) del gas, |Ψ0 i, è:
Ψ0 (r1 , . . . , rN ) =
˙
N
Y
i=1
ϕ0 (ri ) .
(7.175)
7.12
Il calore specifico del gas ideale di Bose
113
La densità nello stato |Ψ0 i è:
nN (r) =
˙ hΨ0 | n̂N (r) | Ψ0 i =
˙
Z ³Y
N
N
´
X
drj |Ψ0 (r1 , . . . , rN )|2
δ(r − ri ) = N |ϕ0 (r)|2 .
j=1
(7.176)
i=1
Notiamo ora che la forma esplicita di ϕ0 dipende dalle condizioni al contorno sulle pareti di V . Per
condizioni periodiche (ad esempio: ϕ0 (x, y, z) = ϕ0 (x + L, y, z)), le soluzioni dell’equazione di Schrödinger
per la particella libera sono onde piane. In particolare, la soluzione con energia più bassa è: ϕ0 (x, y, z) =
L−3/2 . La corrispondente densità (7.176) è: nN (r) = N/V . La densità corrispondente alle condizioni al
contorno periodiche è dunque uniforme. Consideriamo invece condizioni di annullamento sulle pareti (ad
esempio: ϕ0 (0, y, z) = ϕ0 (L, y, z) = 0). La soluzione con energia più bassa ora è:
r
³ πx ´
³ πy ´
³ πz ´
8
ϕ0 (x, y, z) =
sen
sen
sen
.
(7.177)
V
L
L
L
La corrispondente densità (vedi la (7.176)) è:
nN (r) = 8
³ πx ´
³ πy ´
³ πz ´
N
sen2
sen2
sen2
.
V
L
L
L
(7.178)
La densità (7.178) non è uniforme (è nulla sulle pareti e massima al centro del volume). Quindi, la densità
di un gas ideale di Bose di N particelle a T = 0 dipende dalle condizioni al contorno usate per risolvere
l’equazione di Schrödinger per una particella. Le condizioni al contorno non dovrebbero essere fisicamente
rilevanti (almeno, non nel limite termodinamico!). Il fatto che, invece, la densità del gas ideale di Bose
dipenda dalle condizioni al contorno, è una sua ulteriore anomalia. È possibile verificare che in presenza
di interazione la suddetta anomalia non si manifesta [PiSt § 11.2].
7.12 Il calore specifico del gas ideale di Bose
Calcoliamo l’energia interna del gas ideale di Bose. Dalla (7.104), e ricordando la (7.163), otteniamo:
U =−
∂
∂ 1
3 1
3
(βP V ) = −V g5/2 (z)
= V g5/2 (z)
= PV.
∂β
∂β λ3
2 βλ3
2
(7.179)
Il calore specifico a V costante è, per definizione:
cV =
˙
1
N
µ
∂U
∂T
¶
.
(7.180)
V
Per calcolare cV in funzione di (T, v) dobbiamo utilizzare la dipendenza di z da λ3 /v. Per T > Tc ,
dalle (7.180) e (7.179) otteniamo:
·µ
¶
¸
∂ T
T ∂z ∂
3v
kB
g
(z)
+
g
(z)
.
(7.181)
cV (z) =
5/2
2
∂T λ3
λ3 ∂T ∂z 5/2
Osserviamo ora che:
5 1
∂ T
=
.
3
∂T λ
2 λ3
Inoltre, per le gn (z) vale la relazione [Pat app. D eq. 7]:
gn−1 (z) = z
Segue:
∂
gn (z)
∂z
∂
1
g (z) = g3/2 (z) .
∂z 5/2
z
(7.182)
(7.183)
(7.184)
7.13
Esercizi
114
Ancora, dal fatto che, per T > Tc , z è soluzione della (7.165), segue:
∂
∂z ∂
∂ λ3
=
g (z) =
g (z) ,
∂T v
∂T 3/2
∂T ∂z 3/2
da cui, per la (7.183):
∂z
=
∂T
µ
∂ λ3
∂T v
¶µ
(7.185)
¶−1
3 1 λ3 z
∂
g3/2 (z)
=−
.
∂z
2 v T g1/2 (z)
(7.186)
La (7.181) diventa allora:
"
cV (z) = kB
15 g5/2 (z) 9 g3/2 (z)
−
4 g3/2 (z) 4 g1/2 (z)
#
(per :
T > Tc ) .
(7.187)
Per T → ∞ (z → 0), dagli sviluppi (7.168) segue:
g5/2 (z)
= 1;
z→0 g
(z)
3/2
lim
lim
g3/2 (z)
= 1.
z→0 g
(z)
1/2
(7.188)
3
k ,
2 B
(7.189)
Dalla (7.187) segue allora:
lim cV =
T →∞
cioè il valore corrispondente al gas ideale classico. Per T → (Tc )+ abbiamo: z → 1. Risulta anche:
g1/2 (z) → ∞ per z → 1 [Pat app. D eq. 10]. Quindi:
lim
T →(Tc )+
cV = kB
15 g5/2 (1)
≈ 1.9 kB
4 g3/2 (1)
(7.190)
(si noti che il valore è maggiore del valore classico).
Per T ≤ Tc risulta: ∂z/∂T = 0. Dalla (7.181) segue allora (vedi la fig. 7.7):
cV (T, v) =
3
∂ T
15
v
k vg (1)
=
k
g (1)
2 B 5/2 ∂T λ3
4 B λ3 5/2
(per :
T ≤ Tc ) .
(7.191)
Si noti che cV è continuo in T = Tc (16) , mentre la sua derivata è discontinua: è chiaro che la discontinuità
segue dal diverso andamento di ∂z/∂T per T ≶ Tc .
C
C cl
Fig. 7.7:
Calore specifico
(16)
T
cV del gas ideale di Bose (Ccl =
˙ (3/2)kB ).
Tc
Ricordiamo che per T → Tc abbiamo z → 1. Abbiamo inoltre [Pat app. D]: g1/2 (z) → ∞ per z → 1. Allora, è
immediato verificare che il limite per T → Tc− della (7.187) è uguale al limite per T → Tc+ della (7.191). La continuità di cV
in T = Tc non è una proprietà universalmente valida: per un gas ideale ”intrappolato” in una buca di oscillatore armonico,
cV risulta discontinuo in T = Tc [PiSt eq 10.20].
7.13
Esercizi
115
7.13 Esercizi
Esercizio 7.1 Stati miscela e operatori statistici.
a) Scrivere l’operatore statistico per uno stato miscela coincidente con lo stato puro |ψi.
b) Si consideri lo spazio di Hilbert, H2 generato da due vettori, ortonormali: |1i, e |2i, e sia Q un
sistema i cui microstati appartengono ad H2 . Calcolare l’operatore ρb nei casi seguenti [Rich § 14.5]:
¯ ®
¯ ®
¯ ¯2 ¯ ¯2
¯ ®
˙ α¯1 + β ¯2 , con: ¯α¯ + ¯β ¯ = 1;
1) Q si trova nello stato puro: ¯ψ =
2) Q ha uguale probabilità di trovarsi negli stati |1i e |2i;
3) Q si trova, con uguale densità di probabilità, in tutti i seguenti stati
¯
¯ ®
¯ ®
®
¯θ, ϕ1 , ϕ2 =
˙ sin θ eiϕ1 ¯1 + cos θ eiϕ2 ¯2 ,
·
Risultati :
¯ ∗
¯ αα
ρ1 = ¯¯ ∗
βα
con :
¯
αβ ∗ ¯¯
;
ββ ∗ ¯
0 ≤ θ ≤ π ; 0 ≤ ϕ1 , ϕ2 ≤ 2π .
¯
1 ¯¯ 1
ρ2 = ρ3 = ¯
2 0
¯
0 ¯¯
.
1¯
(7.192)
¸
(7.193)
c) Considerare un operatore della forma (7.6), con i |ψµ i normalizzati, e mostrare che la condizione:
P
Tr ρ = 1, implica:
µ pµ = 1.
d) Determinare lo stato miscela corrispondente all’operatore statistico canonico (7.14) (considerare il
b sono non degeneri).
caso in cui gli autovalori di H
e) Mostrare che la traccia di un operatore non dipende dalla base. Soluzione: Siano {|αi} e {|βi} due
b una osservabile. È allora:
basi nello spazio di Hilbert del sistema, e sia A
i
hX
X
X
b=
b | αi =
b
|βihβ| | αi =
˙
hα | A
hα | A
Tr (α) A
β
α
α
i
hX
(7.194)
X
X
b.
b
b | βi =
hβ | A
˙ Tr (β) A
|αihα| A | βi =
=
hβ |
β
α
β
Esercizio 7.2 Particelle di spin 1/2.
Si consideri lo spazio di Hilbert (di dimensione 2), H, generato dai vettori ortonormali: | − i, | + i,
autovettori della ”componente z dello spin di una particella con spin 1/2”. Si consideri un elemento
¯ ®
¯ ®
¯ ®
2
2
di H del tipo: ¯ψ = a ¯ + + b ¯ − , con | a | + | b | = 1. a) Mostrare che lo stato suddetto descrive un atomo ”polarizzato”, nel senso che esiste un vettore unitario (nello spazio fisico tridimensionale)
~n =
˙ (nx , ny , nz ), tale che il valore d’aspettazione della ”componente lungo ~n dello spin” è uguale a 1:
√
~n · hψ | ~σ | ψi =
˙ hψ | (~n · ~σ ) | ψi = 1. [Esempio: se a = b = 1/ 2, allora: ~n =
˙ (1, 0, 0)].
b) Calcolare l’operatore statistico per una particella (di spin 1/2) polarizzata nella direzione ~n; dimostrare che lo stato della particella è uno stato puro, e derivarne una espressione sulla base degli autostati
di σz . [Risultato: ρ = [1 + ~n · ~σ ]/2].
c) Calcolare l’operatore statistico per una particella (di spin 1/2) che abbia probabilità p di essere
polarizzata parallelamente al vettore ~n, e probabilità q = 1 − p di essere polarizzata antiparallelamente a
~n. [Risultato: ρ = [1 + (p − q) ~n · ~σ ]/2].
Esercizio 7.3 Operatore statistico per una particella libera.
a) Mostrare che l’operatore |xihx| può essere interpretato come ”operatore densità di probabilità”.
b) Si consideri [KiES § 23] una particella di massa m e senza spin, in un segmento di lunghezza a,
in assenza di forze e con condizioni periodiche al contorno. Si supponga che la particella sia descrivibile da uno stato miscela costruito a partire dagli autostati del momento corrispondenti all’autovalore
±k =
˙ (2π/a)(±n), dove n è un intero positivo fissato. Si ricordi che gli autostati del momento, | ± ki,
corrispondenti agli autovalori ±}k sono rappresentati, nella rappresentazione della posizione, dalla fun√
zione d’onda ψ± (x) =
˙ (1/ a) exp(±ikx). Calcolare l’operatore statistico ρ e la densità di probabilità per
7.13
Esercizi
116
la posizione: λ(x) =
˙ h(|xihx|)i, nei due casi seguenti:
1) la particella è descritta dallo stato puro: |ψi =
˙ √12 (| + ki + | − ki);
2) la particella è descritta dallo stato miscela costituito da tutti i vettori |ψ (α+ ,α− ) i, con:
(α+ ,α− )
|ψ
i=
˙ √12 [eiα+ | + ki + eiα− | − ki], per tutte le possibili fasi (α+ , α− ), con densità di probabilità
uniforme. [Risultati: 1) λ(x) = (2/a) cos2 kx; 2) λ(x) = 1/a.]
Esercizio 7.4 L’oscillatore armonico quantistico.
Si consideri un oscillatore armonico quantistico unidimensionale, di massa m e frequenza ω, in equilibrio termico ad una temperatura T , e si assuma che gli autovalori dell’energia siano: εn = n}ω, con
n = 0, 1, 2, . . . (ipotesi di Planck).
a) Calcolare la funzione di partizione e l’energia media. Soluzione:
b=
Z =
˙ Tr e−β H
∞
X
e−β}ωn =
n=0
1
,
1 − e−β} ω
U =−
}ω
∂
ln Z = β} ω
.
∂β
e
−1
(7.195)
b) Calcolare le stesse quantità del punto (a), usando gli autovalori esatti: εn = (n + 1/2)}ω.
c) Per quali T le proprietà termodinamiche di un oscillatore armonico quantistico diventano uguali a
quelle di un oscillatore armonico classico?
Esercizio 7.5 hN i e hnp i per il gas ideale quantistico.
D E
³
´
b = Tr ρbgc N
b = . . ..]
a) Derivare la (7.49) usando la (7.5) e la (7.21). [Soluzione: N
b) Usando la (7.52), verificare la seguente espressione:
X
hnp0 ,σ0 ia =
np0 ,σ0 Pa ({np,σ }) =
˙ −
P
P
1 1 X βµ p,σ np,σ ∂
np,σ εp,σ
−β
p,σ
z
=
e
β Za
∂εp0 ,σ0
{np,σ }
{np,σ }
1 1
∂
1 ∂
=−
Za =
˙ −
ln Za .
β Za ∂εp0 ,σ0
β ∂εp0 ,σ0
(7.196)
Ricavare le seguenti espressioni di Z (vedi (7.44)):
Z− =
Y¡
¢
1 + z e−βεp,σ ,
Z+ =
p,σ
Y¡
¢−1
1 − z e−βεp,σ
.
(7.197)
p,σ
Usando le (7.197) nelle (7.196) ottenere:
hnp,σ i− =
Da: hnp ia =
˙
P
σ
1
z −1 eβεp,σ
+1
,
hnp,σ i+ =
1
z −1 eβεp,σ
−1
.
(7.198)
hnp,σ ia (vedi (7.51)), ottenere infine le (7.57).
Esercizio 7.6 Funzione di gran partizione del gas ideale quantistico.
Scrivere la funzione di gran partizione quantistica come:
Z =
˙
∞
X
N =0
z N ZN =
˙
∞
X
bN
z N TrN e−β H
(7.199)
N =0
(con z =
˙ eβµ ; TrN è la traccia sullo spazio HN ). Mostrare che la (7.199) equivale alla (7.42).
[Soluzione: Dalla (7.39) segue:
Z=
∞
X
N =0
zN
X (N )
{np }
∞ X
X
X
¢
¢ X
¡
¡
(N )
(εp − µ) np .
ε p np =
exp − β
exp − β
p
N =0 {np }
p
(7.200)
7.13
Esercizi
117
È facile vedere che la somma doppia che figura nella (7.199) può essere calcolata sommando su ogni np
indipendentemente l’uno dall’altro (si noti che ancora non abbiamo specificato i valori degli np ):
∞
X (N )
X
α0n0 α1n1 . . . =
hX
α0n0
n0
N =0 {ni }
ih X
i
α1n1 . . . .
(7.201)
n1
Come illustrazione della (7.201) supponiamo che le particelle dispongano di due soli stati: allora il
primo membro della (7.201) diventa:
Σ=
˙
∞ X
X
(N )
α1n1 α2n2 .
(7.202)
N =0 n1 ,n2
Scriviamo la somma (7.202) ordinando i termini secondo lo schema seguente [Bal § 5.4]:
Σ = 1+
+ α1 + α2 +
(7.203)
+ α12 + α1 α2 + α22 +
+ α13 + α12 α2 + α1 α22 + α23 + . . .
;
la (7.202), cosı̀ come scritta, equivale a ”sommare lungo le righe” nello schema (7.203); gli stessi termini
possono tuttavia essere ”sommati lungo le diagonali”, e questo dà:
#
#" ∞
!# " ∞
"
à ∞
∞
X
X
X
X
n2
n1
n2
n1
(7.204)
α2 .
=
˙
α1
α2
α1
n1 =0
n2 =0
n1 =0
n2 =0
Per N generico, la (7.201) può essere dimostrata verificando che tutti i termini presenti a sinistra sono
presenti una e una sola volta anche a destra, e viceversa. In definitiva, sommando su ogni np indipendentemente l’uno dall’altro, la (7.200) diventa la (7.42).]
Esercizio 7.7 Calcoli dimensionali.
Derivare, in base a considerazioni puramente dimensionali, e a meno di un fattore numerico, la
lunghezza d’onda termica (7.66), e l’energia di Fermi (7.99).
Esercizio 7.8 Effetti quantistici nei gas.
a) Considerare un volume di elio (m ≈ 7 · 10−24 g) gassoso, a T = 273 K e v =
˙ V /N = 10−20 cm3 per
molecola: mostrare che il gas si comporta come un gas classico. [λ3 ≈ 6 · 10−24 cm3 , e v ≈ 10−20 cm3 .]
¡
¢3
b) Considerare un volume di elio liquido a T = 10 K e v ≈ 10−8 (v coincide praticamente con il
volume di una particella): mostrare che gli effetti quantistici sono essenziali. [λ ≈ 1.2 · 10−7 cm.]
c) Mostrare che il gas di elettroni associato ad un metallo come il Cu è quantistico (λ3 /v À 1)
anche temperatura ambiente. [Usando nella (7.66) il valore della massa dell’elettrone troviamo: λel ≈
43 Å =
˙ 43 × 10−8 cm. La densità del gas di elettroni segue considerando che il numero degli elettroni
nell’unità di volume è uguale al numero di atomi di Cu nell’unità di volume (per il Cu solo un elettrone per
atomo si è libero di muoversi nel reticolo; gli altri rimangono legati al nucleo, e quindi non fanno parte del
gas). La massa atomica del Cu è 63.5 g mol−3 ; la massa di un atomo di Cu è m = 63.5/N0 ≈ 1.05 × 10−22
g (dove N0 ≈ 6 × 1023 mol−3 è il numero di Avogadro); la densità (di massa) del Cu è 8.6 g cm−3 ;
quindi il numero di atomi per unità di volume è nel =
˙ (8.6/1.05) × 1022 cm−3 ≈ 8.1 × 1022 cm−3 ; segue:
˙ λ3el nel ≈ 7 × 103 . Per il gas di elettroni del Cu risulta TF ≈ 80000 ◦ K . La pressione del gas è
λ3el /vel =
circa 2000 volte quella di un gas ideale classico alla stessa T [Bali ex. 10e]. È chiaro che il gas di elettroni
del Cu è molto lontano (anche a temperatura ambiente, cioè ”alta”) dalla condizione classica.]
7.13
Esercizi
118
Esercizio 7.9 Energia di Fermi.
Calcolare l’energia di Fermi in base alla condizione di massimo ”impacchettamento” nello spazio dei
momenti. Soluzione: posto pF =
˙ (2mεF )1/2 (pF è il ”momento di Fermi”), e supponendo che hnp~ i = g per
p ≤ pF , e hnp~ i = 0 per p > pF (si ricordi che qui T = 0) segue:
hN i =
∞
X
hnp iT =0 =
˙
p=0
X
p
~: p≤pF
g
−→ g
V Àλ3
V
h3
Z
pF
0
d3 p = g
4π
V
p 3,
(2π})3 3 F
(7.205)
da cui la (7.99).
Esercizio 7.10 Capacità termica del gas di Fermi.
Giustificare qualitativamente l’andamento lineare in T di CV per T → 0.
Soluzione: si consideri che, a una temperatura T (con kB T ¿ εF ), le uniche particelle che possono assorbire
energia (e quindi contribuire alla capacità termica) sono quelle con energie contenute in un intervallo di
ordine kB T intorno ad εF . Queste particelle sono in numero ∆N ≈ hN i (kB T /εF ), e la loro energia totale
è ∆U ≈ kB T ∆N ∝ T 2 . Per la capacità termica segue: CV ≈ ∂∆U/∂T ∝ T [Hu87 § 11.1].
Esercizio 7.11 Inversione delle serie.
a) Invertire la (7.91). Soluzione: si scriva: z = x + αx2 + . . . , con x =
˙ λ3 /gv, si sostituisca nella
(7.91), e si uguaglino a zero i coefficienti delle varie potenze di x.
b) Ricavare la (7.97). Soluzione: Eleviamo entrambi i membri della (7.96) a 2/3. Segue, ponendo
√
x=
˙ 3 πλ3 /(4gv), e sviluppando per (ln z)−2 ¿ 1:
µ
2/3
x
π2
−2
(ln z) + . . .
= (ln z) 1 +
8
¶2/3
µ
¶
π2
−2
≈ (ln z) 1 +
(ln z) + . . . .
12
(7.206)
Scriviamo ln z come una serie di potenze in x. La serie deve evidentemente iniziare come: ln z = x2/3 + . . . .
Ipotizziamo allora: ln z = x2/3 + αx−2/3 + O(x−4/3 ), con α da determinarsi. Sostituendo nella (7.206)
otteniamo:
´−1
π 2 ³ 2/3
x2/3 = x2/3 + αx−2/3 +
x + αx−2/3 + . . .
+ ... ,
(7.207)
12
cioè, moltiplicando per x2/3 , e sviluppando i denominatori:
0=α+
π2
π2
π2
x2/3
1
+ ... = α +
+ ... = α +
+ O(x−4/3 ) .
2/3
−2/3
−4/3
12 x + αx
12 1 + αx
12
+ ...
+ ...
Segue: α = −π 2 /12, cioè la (7.97).
(7.208)
Bibliografia
[AA]
[AS70]
[Bal]
[Bali]
[Bar]
[BDFN]
[Ben]
[BeP]
[BMB]
[Bof2]
[Bru67]
[Bru76]
[Btl]
[Cal]
[Cha43]
[Cra]
[Dac]
[Des]
[Do74]
[Ei56]
[FaMa]
[Far]
[Fel]
[FeSM]
[FH91]
[FLS]
[FMS]
[FW]
[Hec]
[Gan]
[Gard]
[Geo]
[Gld]
[GM96]
[Gol]
[Gr72]
[Hu87]
[Khi]
[KiIS]
[KiES]
[Is25]
[Isi]
V.I. Arnold, A. Avez, Problemes ergodiques de la mécanique classique, Gauthier - Villars (1967)
M. Abramowitz, I.A Stegun, Handb. of math. funct., National Bureau of Standards (1970)
R. Balescu, Equilibrium and non-equilibrium statistical mechanics, Wiley (1975)
R. Balian, From microphysics to macrophysics, Springer-Verlag (1992)
G. Barton, Elements of Green’s functions and propagation, Clarendon Press, Oxford (1989)
J.J. Binney, et al., The theory of critical phenomena, Oxford Univ. Pr. (1993)
F. Benatti, Deterministic chaos in infinite quantum systems, Springer-Verlag (1993)
B.J. Berne, R. Pecora, Dynamic light scattering, Wiley (1976)
M. Le Bellac, et al., Equilibrium and non-eq. statistical thermodynamics, Cambridge 2004
S. Boffi, da Heisenberg a Landau, Bibliopolis (2004)
S.G. Brush, History of the Lenz Ising model, Rev. Mod. Phys. 39, 883-893 (1967)
S.G. Brush, The kind of motion we call heat, North-Holland (1976)
M.S. Bartlett, An introduction to stochastic processes, Cambridge (1956)
H. Callen, Termodinamica, Tamburini (1972)
S. Chandrasekhar, Rev. Mod. Phys. 15, 1 (1943)
J. Crank, The mathematics of diffusion, Clarendon Pr. (1975)
H. Dachs ed., Neutron diffraction, Springer-Verlag (1978)
B. d’Espagnat, Conceptual foundations of quantum mechanics, Benjamin (1976)
C. Domb, in: C. Domb, M.S. Green, Phase trans. and cr. phen., Vol. 3, Acad. Pr. (1974)
A. Einstein, Investigations on the theory of the brownian movement, Dover (1956)
A. Fasano, S. Marmi, Meccanica analitica, Bollati-Boringhieri (1994)
I.E. Farquhar, Ergodic theory in statistical mechanics, Interscience (1964)
W. Feller, An introduction to probability theory and its applications, Wiley (1957)
R.P. Feynman, Statistical mechanics, Benjamin (1972)
K.H. Fischer, J.A. Hertz, Spin glasses, Cambridge Univ. Pr. (1991)
R.P. Feynman, et al., The Feynman lectures on physics, Addison-Wesley (1970)
N. Fusco, P. Marcellini, C. Sbordone, Analisi matematica due, Liguori Ed. (1996)
A.L. Fetter, J.D. Walecka, Quantum theory of many-particle systems, McGraw-Hill (1971)
C.E. Hecht, Statistical thermodynamics and kinetic theory, Freeman (1990)
F.R. Gantmacher The theory of matrices, Chelsea Pub. Comp. (NY) (1960)
C.W. Gardiner, Handbook of stochastic methods, Springer-V. (1983)
H.-O. Georgii, Gibbs measures and phase transitions, W. de Gruyter (1988)
N. Goldenfeld, Lectures on phase tr. and the renorm. group, Addison-Wesley (1992)
S. Graffi, A. Martinez, Erg. prop. of inf. harm. crystals, J. of Math. Phys. 37, 5111-5135 (1996)
H. Goldstein, Classical mechanics, Addison-Wesley (1980)
R.B. Griffiths, in: Phase trans. and cr. phen., Vol 1, C. Domb, M.S. Green eds., Acad. Pr. (1972)
K. Huang, Statistical mechanics, 2nd ed., Wiley (1987)
A.J. Khinchin, Mathematical foundations of statistical mechanics, Dover (1949)
C. Kittel, Introduzione alla fisica dello stato solido, Boringhieri (1971)
C. Kittel, Elementary statistical physics, Wiley (1958)
E. Ising, Z. Physik, 31, 253 (1925)
A. Isihara, Statistical physics, Academic Pr. (1971)
120
[LLfs1]
[Ma78]
[Man]
[Mes]
[MNV1]
[Mor]
[Mu69]
[Mu70]
L. Landau, E. Lifchitz, Statistical physics (part 1), Pergamon (1980)
S. Ma, Modern Theory of Critical phenomena, Benjamin (1976)
F. Mandl, Statistical physics, Wiley (1971), Benjamin (1976)
A. Messiah, Mécanique quantique, Dunod (1960)
P. Mazzoldi, et al., Fisica Vol. I, Edises (2003)
G. Morandi, Statistical mechanics, World Scientific (1995)
A. Münster, Statistical thermodynamics, Springer V. - Academic Press (1969)
A. Münster, Classical thermodynamics, Wiley (1970)
[On44]
[Pa81]
[Pa87]
[Pat]
[Pen]
[PiSt]
[Rei]
[Re80]
[Rich]
L. Onsager, Phys. Rev. 65, 117 (1944)
G. Parisi, Mean field theory for spin glasses, in [CDP]
G. Parisi, Statistical field theory, Addison-Wesley (1987)
R.K. Pathria, Statistical mechanics, Pergamon (1972)
O. Penrose, Foundations of statistical mechanics, Pergamon (1970)
L. Pitaevskii, S. Stringari, Bose-Einstein condensation, Clarendon Press (2003)
F. Reif, Fundamentals of statistical and thermal physics, McGraw-Hill (1965)
L.E. Reichl, A modern course in statistical physics, Arnold (1980)
R.D. Richtmyer, Principles of advanced mathematical physics, Springer-Verlag (1978)
[RiCa]
[Ros]
[Ru69]
[RV]
[Sta]
[SZF]
[Thi4]
[Tho]
[Tol]
[Whit]
[Za89]
A. Rigamonti, P. Carretta Structure of matter, Milano, Springer (2007)
S. Rosati, Fisica generale, Casa Ed. Ambrosiana (1978)
D. Ruelle, Statistical mechanics (rigorous results), Benjamin (1969)
A.W. Roberts, D.E. Varberg, Convex functions, Academic Pr. (1973)
H.E. Stanley, Introduction to phase transitions and critical phenomena, Oxford U.P. (1971)
M.F. Schlesinger, et al., (Eds.), Levy flights and related topics, Springer (1995)
W. Thirring, A course in math. phys.: IV: Q. mech. of large systems, Springer-Verlag (1983)
C.J. Thompson, Mathematical statistical mechanics, Macmillan (1972)
R.C. Tolman, The principles of statistical mechanics, Oxford Univ. Pr. (1938)
R.M. White, Quantum theory of magnetism, McGraw-Hill (1970)
A.B. Zamolodchikov, Int J. of Mod. Phys. A 4, 4235 (1989)