Elementi di Meccanica Statistica Appunti del corso A.A. 2008-09 Roberto Raimondi Dipartimento di Fisica Università Roma Tre 16 gennaio 2009 2 c Questa opera è pubblicata sotto una Licenza Creative Commons. http://creativecommons.org/licenses/by-n/c-nd/2.5/it/ Indice 1 Ensembles statistici 1.1 Introduzione . . . . . . . . . . . . . . . . 1.2 Formulazione del problema . . . . . . . . 1.3 Medie temporali e medie sull’ensemble . 1.4 Teorema di Liouville . . . . . . . . . . . 1.4.1 Invarianza della misura rispetto al . . . . . 5 5 6 7 9 11 2 L’ensemble microcanonico 2.1 La funzione di distribuzione per un sistema isolato . . . . . . . 2.2 La definizione dell’entropia . . . . . . . . . . . . . . . . . . . . 2.3 Condizioni di equilibrio e primo principio della termodinamica 13 13 14 19 3 Il gas perfetto 3.1 Ensemble microcanonico per il gas perfetto 3.2 Proprietà della funzione gamma . . . . . . 3.3 Termodinamica del gas perfetto . . . . . . 3.4 Il corretto conteggio di Boltzmann . . . . . 3.5 Connessione con il limite quantistico . . . . . . . . 21 21 22 23 27 30 . . . . . 33 33 35 36 37 38 4 L’ensemble canonico 4.1 Distribuzione di Boltzmann . . . . . . . 4.2 La definizione dell’energia libera . . . . . 4.3 Il gas perfetto . . . . . . . . . . . . . . . 4.4 Distribuzione di Maxwell per le velocità . 4.5 Formula di Gibbs per l’entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . moto hamiltoniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 L’ensemble grancanonico 41 5.1 La funzione di distribuzione grancanonica . . . . . . . . . . . . 41 5.2 Il granpotenziale . . . . . . . . . . . . . . . . . . . . . . . . . 42 5.3 Il gas perfetto . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3 4 INDICE 6 Teorema di equipartizione e fluttuazioni 6.1 Il teorema di equipartizione . . . . . . . . . . . . . . . . . . . 6.2 Fluttuazioni di energia . . . . . . . . . . . . . . . . . . . . . . 6.3 Fluttuazioni del numero di particelle . . . . . . . . . . . . . . 45 45 46 48 7 La meccanica statistica quantistica 7.1 Ensembles quantistici . . . . . . . . 7.1.1 Ensemble microcanonico . . 7.1.2 Ensemble canonico . . . . . 7.1.3 Ensemble grancanonico . . . 7.2 Statistiche quantistiche: gas perfetti 7.3 Il limite classico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 51 52 52 53 53 56 8 Il metodo della distribuzione più probabile 8.1 Il caso classico . . . . . . . . . . . . . . . . . . . 8.2 Bosoni . . . . . . . . . . . . . . . . . . . . . . . 8.3 Fermioni . . . . . . . . . . . . . . . . . . . . . . 8.4 A proposito del corretto conteggio di Boltzmann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 59 61 63 63 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Il gas di Fermi 67 9.1 Lo stato fondamentale . . . . . . . . . . . . . . . . . . . . . . 68 9.2 Regime di basse temperature e sviluppo di Sommerfeld . . . . 69 10 Il gas di Bose 10.1 La condensazione di Bose-Einstein . . . . . . . . . . . . . . . . 10.2 Equazione di Clapeyron . . . . . . . . . . . . . . . . . . . . . 10.3 Alcune utili relazioni . . . . . . . . . . . . . . . . . . . . . . . 73 73 78 79 11 Teoria della radiazione di corpo nero 11.1 Introduzione . . . . . . . . . . . . . . . . . 11.1.1 Situazione sperimentale . . . . . . . 11.1.2 Situazione teorica . . . . . . . . . . 11.2 Teoria quantistica della radiazione di corpo 81 81 82 82 83 . . . . . . . . . nero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Calori specifici 87 12.1 Calori specifici nei gas . . . . . . . . . . . . . . . . . . . . . . 87 12.1.1 Moto di una particella su una sfera . . . . . . . . . . . 90 12.2 Calori specifici nei solidi . . . . . . . . . . . . . . . . . . . . . 90 A Potenziali termodinamici 95 Capitolo 1 Ensembles statistici 1.1 Introduzione Lo sviluppo scientifico e tecnologico del XX secolo, che ha visto la scoperta e lo sfruttamento dell’energia atomica, ha, in qualche modo, reso tutti familiari con l’idea che la materia abbia una struttura intrinsecamente discreta. Tale idea risale al filosofo greco Democrito, secondo cui gli atomi, entità indivisibili di materia e non percepibili ai nostri sensi, sono responsabili, attraverso un effetto collettivo, dei fenomeni che sperimentiamo a livello dei nostri sensi. Agli albori della scienza moderna, l’idea democritea degli atomi fu ripresa dai fondatori della teoria cinetica, i quali potevano contare sugli sviluppi della meccanica, del calcolo infinitesimale e delle indagini sperimentali sui gas. Nel 1747 Daniel Bernoulli propose che un gas sia formato da molecole in continuo moto e soggette alle leggi della meccanica. La pressione esercitata dal gas sulle pareti del recipiente che lo contiene è dovuta all’effetto degli urti delle molecole con le pareti stesse. Inoltre, il confronto con l’equazione di stato dei gas perfetti, stabilisce una connessione diretta tra energia cinetica media e temperatura assoluta del gas. In questo contesto la scoperta dell’equivalente meccanico del calore da parte di Joule conferma la validità della riduzione meccanica dei fenomeni termici. La meccanica statistica, che si sviluppa a partire dalla teoria cinetica, fornisce un insieme di concetti e metodi per sviluppare sistematicamente l’idea che il comportamento di fenomeni complessi possa essere spiegato in termini del comportamento di elementi semplici soggetti a ben determinate leggi. 5 6 1.2 CAPITOLO 1. ENSEMBLES STATISTICI Formulazione del problema Un sistema termodinamico isolato, cioè una data quantità di materia, è costituito da N costituenti elementari, che assumiamo essere soggetti alle leggi della dinamica. Chiamiamo tali costituenti particelle. Chiaramente lo stato del sistema è definito dai valori che assumono le coordinate, qi e gli impulsi delle particelle, pi , dove i = 1, . . . , N. La dinamica di un sistema meccanico è governata dalla hamiltoniana, che è funzione di tutte le coordinate ed impulsi delle particelle H({q}, {p}), (1.1) dove {q} indica l’insieme di tutte le coordinate delle N particelle e similmente per gli impulsi. L’evoluzione dinamica si ottiene dalle equazioni di Hamilton q̇i = ∂H ∂H , ṗi = − . ∂pi ∂qi (1.2) Ad ogni istante di tempo, lo stato del sistema può essere rappresentato geometricamente come un punto in uno spazio 6N -dimensionale. Tale spazio delle fasi è comunemente indicato come lo spazio Γ. Durante l’evoluzione dinamica del sistema meccanico, il punto rappresentativo del sistema percorre una traiettoria nello spazio Γ. La conoscenza di tale traiettoria rappresenta dunque una caratterizzazione completa del sistema. In generale, il numero delle particelle costituenti il sistema è molto grande e ed è dell’ordine del numero di Avogadro, cioè N ≈ 1023 . Di fatto è praticamente impossibile risolvere analiticamente le equazioni di Hamilton. Ma anche se ciò fosse possibile, sarebbe comunque molto difficile afferrare il significato complessivo della soluzione. L’esperienza ci dice che un sistema termodinamico può essere descritto in termini di un numero limitato di parametri, che sono appunto detti termodinamici. Ad esempio, lo stato di un gas è caratterizzato da temperatura, pressione e volume. Quindi un approccio efficiente deve essere in grado di fornirci un metodo per ricavare i valori degli osservabili macroscopici a partire dalla funzione hamiltoniana del sistema di particelle. È utile distinguere tra microstato e macrostato del sistema. Un microstato corrisponde ad un punto nello spazio Γ, cioè a valori determinati di tutte le coordinate ed impulsi delle particelle. Un macrostato è individuato da un insieme di valori dei parametri termodinamici. In generale un microstato determina univocamente un macrostato, ma non viceversa. Parecchi microstati possono corrispondere allo stesso macrostato. Indichiamo con M un particolare macrostato e con ΓM il volume dello spazio Γ che racchiude tutti i punti corrispondenti ai microstati che producono il macrostato M . Quando un sistema meccanico percorre la sua traiettoria nello spazio Γ passa attraverso 1.3. MEDIE TEMPORALI E MEDIE SULL’ENSEMBLE 7 una successione di microstati diversi e se la sua traiettoria resta confinata attraverso un volume ΓM , allora il sistema rimane nello stesso macrostato M . Possiamo immaginare di dividere lo spazio Γ in tante regioni, ognuna corrispondente ad un macrostato. Allora quando la traiettoria passa da una regione all’altra, si ha un cambiamento di macrostato a livello macroscopico. Il problema fondamentale che, a questo punto, deve affronatare la meccanica statistica è di conciliare la reversibilità del moto a livello microscopico con la tendenza all’equilibrio propria del secondo principio della termodinamica. La soluzione di questo problema si basa su due ingredienti tipici della meccanica statistica: i) i sistemi meccanici considerati hanno un elevato numero di gradi di libertà; ii) l’uso di argomenti probabilistici. Dati due macrostati M e M 0 , il confronto dei loro volumi corrispondenti ΓM e ΓM 0 fornisce una misura del peso statistico relativo dei due macrostati. Se ΓM > ΓM 0 , una traiettoria nello spazio Γ avrà maggiore probabilità di trovarsi nel volume ΓM piuttosto che in ΓM 0 . Dal punto di vista macroscopico, ciò implica che misurando i parametri termodinamici sarà maggiore la probabilità di trovare un valore per essi corrispondente al macrostato M . Un macrostato di equilibrio è quello per cui il volume corrispondente ΓM è massimo, in modo che una misura dei parametri termodinamici, con grande probabilità produrrà un valore corrispondente al macrostato di equilibrio. Inoltre, quando il numero di gradi di libertà aumenta, il volume del macrostato di equilibrio tende ad occupare la maggior parte dello spazio Γ. Quindi, se inizialmente un sistema si trova in un macrostato non di equilibrio, l’evoluzione dinamica porterà la sua traiettoria nello spazio Γ fuori della regione corrispondente a tale macrostato iniziale e lo condurrà attraverso regioni corrispondenti a macrostati diversi e con grande probabilità si troverà nella regione corrispondente al macrostato di equilibrio. In altre parole l’evoluzione, a livello macroscopico, verso uno stato di non equilibrio, è altamente improbabile. 1.3 Medie temporali e medie sull’ensemble Il valore di un osservabile fisico macroscopico dipende dallo stato microscopico del sistema e deve quindi essere una funzione di tutte le coordinate ed impulsi. Tale funzione, che indichiamo con f , dipende dal tempo attraverso la dipendenza temporale delle coordinate ed impulsi. La misura dell’osservabile richiede, inoltre, un tempo finito. Tale tempo è determinato dal tempo di rilassamento necessario affinché il sistema fisico da misurare si equilibri con l’apparato di misura. Durante questo tempo, a livello microscopico, il sistema passa attraverso un gran numero di microstati, per cui la misura 8 CAPITOLO 1. ENSEMBLES STATISTICI dell’osservabile produce una media temporale, f= 1ZT dtf ({q(t)}, {p(t)}). T 0 (1.3) Il tempo T sul quale si effettua la media deve essere necessariamente superiore al tempo di rilassamento necessario per la misura. Allora, in linea di principio, per dedurre il comportamento macroscopico di un sistema dovremmo essere in grado di effettuare la media temporale (1.3). Gibbs ha proposto di sostituire la media temporale (1.3) con una media statistica nel modo seguente. Nella sua evoluzione temporale, un sistema meccanico passa attraverso una successione di microstati, corrispondenti a punti dello spazio Γ. Immaginiamo ora di avere una collezione di sistemi identici a quello cui siamo interessati e che ognuno di questi sistemi si trovi in uno stato dinamico microscopico corrispondente allo stato microscopico in cui si trova il sistema originario ad un dato istante di tempo. Allora, l’insieme di questi sistemi identici, rappresenta, in modo simultaneo, l’evoluzione dinamica del sistema originario. Tale insieme di sistemi identici è detto ensemble statistico. L’informazione riguardo un particolare ensemble statistico è data dalla funzione di distribuzione, che descrive la densità dei sistemi identici nello spazio Γ. Infatti, la densità dei sistemi identici è diversa da zero solo in quei punti dello spazio Γ, dove effettivamente passa la traiettoria del sistema originario. In termini matematici, la quantità ρ({q}, {p}, t)d3N qd3N p (1.4) rappresenta il numero di sistemi identici contenuti nell’elemento di volume dello spazio Γ, d3N qd3N p, centrato intorno al punto ({q}, {p}) al tempo t. In termini della funzione di distribuzione, la media statistica o media sull’ensemble è definita da R hf i = Γ d3N qd3N pρ({q}, {p}, t)f ({q(t)}, {p(t)}) R . 3N qd3N pρ({q}, {p}, t) Γd (1.5) In generale è tutt’altro che ovvio che la media statisitica (1.5) sia equivalente alla media temporale (1.3), anche se naturalmente è plausibile. Lo studio delle condizioni sotto le quali tale equivalenza è effettivamente vera costituisce l’argomento del cosidetto problema ergodico. L’ipotesi dell’equivalenza delle medie temporali e statistiche è quindi detta ipotesi ergodica. In generale, dato un sistema meccanico arbitrario, è molto difficile dimostrare la validità dell’ipotesi ergodica, o detto altrimenti, dimostrare che un sistema meccanico è ergodico. Seguendo una prassi ben consolidata, prendiamo come assunzione di base la validità dell’ipotesi ergodica, in modo che il problema della meccanica statistica diventa quello di determinare la funzione di 1.4. TEOREMA DI LIOUVILLE 9 distribuzione dell’ensemble per un dato sistema meccanico. In base a questo atteggiamento euristico la possibilità di ottenere risultati in accordo con l’esperienza deciderà della validità di tale assunzione. È chiaro altresı̀ che il problema ergodico resta comunque un problema fondamentale e di grande fascino intellettuale. Nei paragrafi successivi andremo a sviluppare i metodi generali della meccanica statistica, cioè i metodi che ci permettono di derivare la forma generale della funzione di distribuzione dell’ensemble. Prima di ciò è opportuno richiamare un teorema importante riguardante l’evoluzione dinamica di un sistema hamiltoniano come quello in (1.2). 1.4 Teorema di Liouville Il teorema di Liouville afferma l’invarianza della misura dello spazio Γ rispetto al moto hamiltoniano generato dalle equazioni (1.2). Tale fatto ha una conseguenza importante per l’evoluzione temporale della funzione di distribuzione. Vediamo perché. In virtù dell’evoluzione temporale determinata dalle equazioni di Hamilton, un determinato punto P0 dello spazio Γ al tempo t0 evolverà in un punto Pt al tempo t secondo quanto dettato dalla forma della traiettoria. La soluzione delle equazioni del moto è dunque equivalente ad una legge di trasformazione dello spazio Γ in se stesso. Consideriamo ora, al tempo t0 , un dominio D0 dello spazio Γ, cioè un insieme di punti. Al tempo t ogni punto del dominio D0 sarà evoluto in un altro punto. L’insieme dei punti che sono le evoluzioni dei punti del dominio D0 costituiscono il dominio Dt , evoluto di D0 . L’invarianza della misura significa che i volumi di D0 e Dt sono uguali, anche se la loro forma può essere alquanto diversa. In un sottoparagrafo alla fine di questo paragrafo daremo una dimostrazione formale di questo fatto. Per adesso notiamo che l’invarianza della misura esprime il fatto che ogni punto dello spazio Γ evolve in altro punto di Γ univocamente determinato. È chiaro quindi che il numero dei sistemi identici che costituiscono l’ensemble statistico deve conservarsi. La conservazione del numero dei sistemi identici o punti rappresentativi implica un’equazione di continuità per la funzione di distribuzione. Infatti consideriamo il tasso di decremento di sistemi identici in un volume V dello spazio Γ d Z 3N 3N d q d p ρ({q}, {p}, t). dt V Tale decremento deve essere di segno opposto al flusso uscente dal volume V Z S n · vρ({q}, {p}, t), 10 CAPITOLO 1. ENSEMBLES STATISTICI dove S è la superficie che racchiude il volume V ed n il versore normale alla superficie orientato verso l’esterno. La velocità di fase è definita da v = (q˙1 , . . . , q˙N , p˙1 , . . . , p˙N ). (1.6) Se applichiamo il teorema della divergenza all’integrale di superficie, otteniamo − Z d Z 3N 3N d q d p ρ({q}, {p}, t) = d3N q d3N p ∇ · (vρ({q}, {p}, t)), (1.7) dt V V da cu segue l’equazione di continuità ∂ρ + ∇ · (vρ) = 0. ∂t (1.8) Notiamo che l’operazione di divergenza deve essere presa nello spazio 6N dimensionale. In virtù delle equazioni del moto, la velocità di fase è un vettore a divergenza nulla ∇·v ≡ N X i=1 N X ∂ 2H ∂ ∂ 2H ∂ q̇i + ṗi = − ∂qi ∂pi ∂pi ∂qi i=1 ∂qi ∂pi ! ! = 0. (1.9) La divergenza nell’equazione di continuità può quindi essere riscritta ∇ · (vρ) = (∇ · v)ρ + v · ∇ρ = v · ∇ρ, (1.10) da cui segue ∂ρ dρ + v · ∇ρ ≡ = 0. (1.11) ∂t dt Quest’ultima equazione è la forma che assume il teorema di Liouville in meccanica statistica. Essa afferma che la derivata totale rispetto al tempo della funzione di distribuzione dell’ensemble statistico è nulla. Quindi la eventuale dipendenza esplicita dal tempo della funzione di distribuzione deve esattamente compensare la dipendenza attraverso le coordinate e gli impulsi. D’altro canto se la funzione di distribuzione deve descrivere un ensemble di equilibrio non può avere una dipendenza esplicita dal tempo. Quindi la funzione di distribuzione può dipendere dalle coordinate e dagli impulsi solo attraverso una combinazione di questi costante. In altre parole, la funzione di distribuzione deve dipendere solo da integrali primi del moto. In un sistema isolato in quiete, l’energia è, in generale, l’unico integrale primo e quindi la funzione di distribuzione deve dipendere dalle coordinate ed impulsi attraverso H({q}, {p}). 1.4. TEOREMA DI LIOUVILLE 1.4.1 11 Invarianza della misura rispetto al moto hamiltoniano Per comodità introduciamo 6N variabili xi , in modo che le prime 3N corrispondano alle coordinate delle N particelle e le altre 3N agli impulsi. Formalmente la soluzione delle equazioni del moto può essere vista come una trasformazione di coordinate xi = xi (y1 , . . . , y6N ; t) (1.12) con il tempo agente come un parametro. Consideriamo, al tempo t, la misura del dominio Dt Z MDt = d6N x. Dt Effettuiamo un cambio di variabili usando la trasformazione (1.12) Z d6N x = Dt Z J d6N y, D0 dove J è lo jacobiano per la trasformazione di coordinate J= ∂(x1 , . . . , x6N ) . ∂(y1 , . . . , y6N ) Il punto chiave della dimostrazione è mostrare che lo jacobiano non dipende dal tempo. Deriviamo lo jacobiano rispetto al tempo ed otteniamo 6N X ∂J ∂(x1 , . . . , xi−1 , ẋi , xi+1 , . . . x6N ) = . ∂t ∂(y1 , . . . , y6N ) i=1 In quest’espressione comparirà il termine 6N ∂ ẋi X ∂ ẋi ∂xl = ∂yk l=1 ∂xl ∂yk che produce nella derivata dello jacobiano 6N 6N X X ∂ ẋi ∂(x1 , . . . , xi−1 , xl , xi+1 , . . . x6N ) ∂J = . ∂t ∂(y1 , . . . , y6N ) i=1 l=1 ∂xl Ora lo jacobiano che compare nell’espressione sopra si annulla sempre tranne quando l = i e quindi si ottiene in definitiva 6N X ∂J ∂ ẋi =J ≡ J∇ · v = 0 ∂t i=1 ∂xi in virtù di quanto visto precedentemente. Poiché dunque lo jacobiano non dipende dal tempo e per t → 0 deve tendere a uno, segue che lo jacobiano è pari a uno sempre. Ciò dimostra l’invarianza della misura. 12 CAPITOLO 1. ENSEMBLES STATISTICI Capitolo 2 L’ensemble microcanonico 2.1 La funzione di distribuzione per un sistema isolato L’ensemble microcanonico descrive un sistema isolato, per il quale l’energia e il numero di particelle sono costanti. In equilibrio, anche il volume è costante. In una situazione di non equlibrio il volume può aumentare. Per determinare la funzione di distribuzione partiamo dalle considerazioni fatte nella dimostrazione del teorema di Liouville, cioè che la funzione di distribuzione deve essere una funzione dell’energia. Per procedere è necessario fare una qualche assunzione. Assumiamo il postulato dell’uguale probabilità a priori, cioè la funzione di distribuzione è ρ= n costante, H({q}, {p}) = E 0, altrimenti. (2.1) Il significato della (2.1) è il seguente: tutti i punti dello spazio Γ corrispondenti ad uno stato del sistema con energia E sono da prendere con lo stesso peso nel fare una media sull’ensemble. Dal punto di vista matematico la (2.1) non è però soddisfacente. Infatti la condizione H({q}, {p}) = E determina una ipersuperficie 6N −1-dimensionale. Un integrale di volume sullo spazio Γ ristretto ad una tale ipersuperficie ha ovviamente misura nulla. Quindi sulla ipersuperficie H({q}, {p}) = E la funzione di distribuzione non solo deve essere diversa da zero, ma deve essere infinita. In altre parole, la funzione di distribuzione deve essere della forma ρ = C δ(E − H({q}, {p})), 13 (2.2) 14 CAPITOLO 2. L’ENSEMBLE MICROCANONICO dove δ(x) è la funzione di Dirac. Per i nostri scopi δ(x) può essere definita nel modo seguente δ(x) = n ∞, x = 0 , 0, x = 6 0 Z ∞ dxδ(x) = 1. (2.3) −∞ La δ(x) può essere pensata come il limite di una successione di funzioni δ∆ (x) definite da n 1, 0<x<∆ (2.4) δ∆ (x) = ∆ 0 altrimenti. È facile verificare che Z ∞ −∞ dxδ∆ (x) = 1 per ogni valore di ∆. La funzione di distribuzione può quindi essere scritta nella forma equivalente ρ= C, E < H({q}, {p}) < E + ∆ 0, altrimenti. n (2.5) La costante C nella definizione (2.5) deve essere scelta in modo che sia soddisfatta la condizione di normalizzazione, cioè −1 C = Z d3N q d3N p. (2.6) E<H<E+∆ Notiamo che la definizione (2.5) è inoltre compatibile con il fatto che in un sistema l’energia può essere determinata solo con una certa precisione. Il parametro ∆ può allora essere associato a questa incertezza. È ovvio, d’altronde, che tutti i risultati che andremo a ricavare non devono dipendere dal parametro ∆. Dal punto di vista matematico cioò significa che richiediamo la possibilità di prendere il limite ∆ → 0. 2.2 La definizione dell’entropia Dobbiamo adesso esaminare le conseguenze della scelta del postulato dell’uguale probabilità a priori. Poiché il nostro scopo è quello di derivare la termodinamica, dobbiamo decidere come definire la connessione tra le grandezze termodinamiche e quelle calcolate sull’ensemble. Dalla termodinamica sappiamo che lo stato di equilibrio di un sistema isolato è quello per cui l’entropia è massima. L’estensione del dominio dove la funzione di distribuzione è diversa da zero misura il peso dello stato macroscopico del sistema isolato. 2.2. LA DEFINIZIONE DELL’ENTROPIA 15 Quindi è ragionevole associare tale peso all’entropia. Definiamo quindi il volume dello spazio delle fasi corrispondente ad un sistema isolato con energia E Z Γ(E, V, N ) = d3N q d3N p (2.7) V,E<H<E+∆ dove V è il volume che contiene il sistema ed N il numero di particelle. La derivazione della termodinamica deriva dall’assumere S = k ln Γ (2.8) dove k è la costante di Boltzmann ed il suo valore dipende dalle unità scelte per l’entropia. In unità MKSA, si ha k = 1, 3807 · 10−23 J K−1 . Notiamo che l’argomento del logaritmo ha le dimensioni di un’azione. Sarebbe preferibile che tale argomento fosse un numero puro. Ciò potrebbe essere ottenuto dividendo il volume dello spazio Γ per una costante delle dimensioni di un’azione. Tale costante avrebbe allora, apparentemente, il significato di un quanto di azione. Classicamente la definizione di tale costante è del tutto arbitraria e corrisponde al fatto che l’entropia è definita a meno di una costante. A livello della fisica classica per fissare l’entropia possiamo solo invocare il terzo principio della termodinamica, introdotto da Nerst, secondo cui l’entropia di ogni sistema tende a zero allo zero assoluto della temperatura. Tale principio non è introdotto teoricamente, ma sintetizza i risultati degli esperimenti. Come vedremo più avanti in queste pagine (cf. paragrafo 7.3) la meccanica quantistica fornisce il quanto di azione in termini della costante di Planck e quindi permette di interpretare il peso statistico come il numero di stati accessibili al sistema. Affinchè la definizione dell’entropia come il logaritmo del numero di stati accessibili sia compatibile con il terzo principio, è necessario che tale numero tenda a uno allo zero assoluto. A tale proposito si rimanda alla discussione del paragrafo 4.5. Nel caso in considerazione di un numero virtualmente infinito di particelle, è possibile definire l’entropia in modo alternativo. Infatti definiamo Σ(E, V, N ) = Z 3N d 3N qd p= Z θ(E − H)d3N q d3N p, (2.9) V,H<E con θ(x) la funzione a gradino di Heavside. Allora è facile vedere che Γ(E) = Σ(E + ∆) − Σ(E), (2.10) dove per semplicità abbiamo solo indicato la dipendenza dall’energia. Possiamo infine definire la densità degli stati ω(E) = ∂Σ Z = δ(E − H)d3N q d3N p. ∂E (2.11) 16 CAPITOLO 2. L’ENSEMBLE MICROCANONICO In termini di ω(E) si ha Γ(E) ≈ ω(E)∆. (2.12) Nel limite termodinamico possiamo definire l’entropia alternativamente S = k ln Σ (2.13) S = k ln ω. (2.14) oppure Infatti le definizioni (2.8, 2.13, 2.14) differiscono per termini di ordine ln N e quindi sono indistinguibili nel limite termodinamico. È importante sottolineare che la (2.8) (ed ovviamente anche le (2.13,2.14)) è postulata. La sua giustificazione può essere fatta solo a posteriori verificando che le sue conseguenze sono in accordo con i fatti sperimentali, cioè con i principi della termodinamica. Cominciamo col verificare se la (2.8) è una buona definizione di entropia, cioè se soddisfa la proprietà di: • a) essere estensiva • b) aumentare per un sistema isolato fuori dall’equilibrio. Per dimostrare la sussistenza di queste due proprietà, dobbiamo usare esplicitamente e per la prima volta la circostanza che abbiamo a che fare con sistemi con un numero enorme di gradi di libertà, tale cioè che possiamo assumere N → ∞. Più precisamente assumeremo il cosidetto limite termodinamico secondo il quale N, V → ∞, ma il rapporto N/V tende ad un valore costante. Supponiamo che il sistema in studio sia diviso in due sottosistemi, che indichiamo con indici 1 e 2. Immaginiamo che le N particelle siano ripartite tra i due sottosistemi in modo che N1 + N2 = N . Tra i due sottosistemi non può esserci scambio di particelle. Inoltre immaginiamo che i sottosistemi siano confinati nei volumi V1 e V2 , rispettivamente. Ciò è possibile per un sistema non gassoso. Il caso dei sistemi gassosi sarà discusso nel prossimo capitolo. Se i due sottosistemi sono macroscopici, il rapporto della superficie di contatto e il volume è trascurabile. Se le interazioni tra le particelle sono a corto raggio, le interazioni tra i due sottosistemi sono limitate alla regione della superficie di contatto e quindi sono trascurabili rispetto alle interazioni tra le particelle all’interno del volume di ciascun sottosistema. Quindi in buona approssimazione i due sottosistemi sono indipendenti e la funzione hamiltoniona del sistema intero può essere scritta come una somma delle funzioni hamiltoniane dei due sottosistemi H = H1 + H2 . (2.15) 2.2. LA DEFINIZIONE DELL’ENTROPIA 17 Separando le variabili d’integrazione relative ai due sottosistemi, possiamo quindi scrivere che la densità degli stati nello spazio Γ del sistema intero è ω(E) = Z d3N1 q d3N1 p d3N2 q d3N2 p δ(E − H1 − H2 ). (2.16) Introduciamo nell’integrando il fattore 1= Z E 0 dE1 δ(E1 − H1 ) e riscriviamo la (2.16) ω(E) = Z E 0 = Z E 0 dE1 Z d3N1 q d3N1 p δ(E1 − H1 ) Z d3N2 q d3N2 p δ(E − E1 − H2 ) d E1 ω(E1 ) ω(E − E1 ), (2.17) dove, in accordo con la definizione (2.11) abbiamo introdotto le densità degli stati dei due sottosistemi ω(E1 ) = e ω(E − E1 ) = Z d3N1 qd3N1 p δ(E1 − H1 ) Z d3N2 qd3N2 p δ(E − E1 − H2 ). Usando la definizione di entropia (2.14) otteniamo S = k ln Z E 0 d E1 ω(E1 ) ω(E − E1 ). (2.18) Poiché l’integrale sull’energia E1 si estende su un intervallo finito, possiamo considerare il valore Ē1 per cui l’integrando è massimo ed ottenere la disuguaglianza k ln ω(E1 )ω(E − E1 ) + k ln ≤ S(E) ≤ k ln ω(E1 )ω(E − E1 ) + k ln E, dove definisce l’ampiezza dell’intervallo (E1 − /2, E1 + /2). Per dimostare la disuguaglianza, notiamo che per il teorema della media possiamo scrivere Z E 0 d E1 ω(E1 ) ω(E − E1 ) = Eω(E1∗ ) ω(E − E1∗ ) ≤ Eω(E1 ) ω(E − E1 ), dove E1∗ è un opportuno valore appartenente all’intervallo (0, E). Ciò dimostra la maggiorazione. Per dimostrare la minorazione, osserviamo che essa è equivalente a dimostrare che 18 CAPITOLO 2. L’ENSEMBLE MICROCANONICO Z E1 −/2 0 dE1 ω(E1 ) ω(E − E1 ) + Z E1 +/2 E1 −/2 Z E E1 +/2 dE1 ω(E1 ) ω(E − E1 ) − i h dE1 ω(E1 ) ω(E − E1 ) − ω(E1 ) ω(E − E1 ) > 0. È ora facile convincersi che prendendo sufficientemente piccolo, la disuguaglianza è soddisfatta. Se definiamo le entropie dei due sottosistemi S1 = k ln ω(E1 ), S2 = k ln ω(E2 ) (2.19) con la condizione E = E1 + E2 , allora otteniamo S(E1 ) + S(E2 ) + k ln ≤ S(E) ≤ S(E1 ) + S(E2 ) + k ln E. (2.20) Se un sistema è composto di N particelle, ci aspettiamo che il volume dello spazio delle fasi accessibile dipenda esponenzialmente da N , cioè ω ∼ eN . Ciò implica che il logaritmo del volume dello spazio delle fasi dipenda linearmente da N . Poiché E ∝ N ed < E, i termini k ln E e k ln della (2.20) dipendono da N al più logaritmicamente e diventano trascurabili, nel limite termodinamico. Quindi otteniamo S(E) = S(E1 ) + S(E2 ), (2.21) che dimostra l’estensività dell’entropia. Infatti se, ad esempio, immaginiamo che N1 = N2 = N/2, la (2.21) mostra come l’entropia raddoppi se raddoppiamo il numero di particelle. Come vedremo più avanti il fatto che l’additività dell’entropia valga per le entropie dei sottosistemi calcolate ai valori che rendono massimo il prodotto delle densità degli stati degli spazi Γ dei sottosistemi esprime la condizione di equilibrio termico tra i due sottosistemi. Per dimostrare che l’entropia aumenta se il sistema si trova fuori dall’equilibrio, e quindi è soddisfatto il secondo principio della termodinamica, osserviamo innanzi tutto che in un sistema isolato può variare solo il volume in quanto energia e numero di particelle sono fissati. Affinchè il volume diminuisca è necessario comprimere il sistema, cioè bisogna rompere l’isolamento. Ne segue che il volume può solo aumentare. Resta quindi da far vedere che l’entropia è una funzione non decrescente del volume. Ciò può essere visto considerando la definizione (2.13) di entropia. La (2.13) è chiaramente una funzione non decrescente di V . 2.3. CONDIZIONI DI EQUILIBRIO E PRIMO PRINCIPIO DELLA TERMODINAMICA19 2.3 Condizioni di equilibrio e primo principio della termodinamica Torniamo ora al significato dei valori dell’energia E1 ed E2 che rendono massimo il prodotto ω(E1 )ω(E − E1 ). Per trovare il massimo di ω(E1 )ω(E − E1 ), facciamo variare E1 ed E2 e imponiamo che la variazione del prodotto sia nulla insieme alla condizione che E = E1 + E2 . Otteniamo 0 = δ(ω(E1 )ω(E2 )) = ∂ω(E2 ) ∂ω(E1 ) δE1 ω(E2 ) + δE2 ω(E1 ) ∂E1 ∂E2 da cui, usando δE1 = −δE2 , ∂ω(E1 ) ∂ω(E2 ) ω(E2 ) = ω(E1 ) ∂E1 ∂E2 o anche 1 ∂ω(E2 ) 1 ∂ω(E1 ) = ω(E1 ) ∂E1 ω(E2 ) ∂E2 che quindi, usando la (2.19), può essere scritta ∂S1 ∂E1 ! = E1 =E1 ∂S2 ∂E2 ! . (2.22) E2 =E2 Se a questo punto definiamo la temperatura 1 ≡ T ∂S ∂E ! , (2.23) V la (2.22) esprime la condizione di equilibrio termico, T1 = T2 , tra i due sottosistemi. Se il sistema isolato viene perturbato in modo da variare la sua energia e il suo volume, e se la variazione avviene in modo sufficientemente lento affinché ad ogni istante il sistema si trovi in equilibrio, allora l’insieme dei punti dello spazio Γ si deforma lentamente ed ad ogni istante è definito un ensemble microcanonico. La variazione di entropia risulta quindi ∂S 1 dS = dE + T ∂V ! dV. (2.24) E Si noti che manteniamo costante il numero di particelle. Usando la regola degli jacobiani, possiamo scrivere ∂S ∂V ! E ∂(S, E) ∂(V, S) ∂S = =− ∂(V, E) ∂(V, S) ∂E ! V ∂E ∂V ! = S P , T 20 CAPITOLO 2. L’ENSEMBLE MICROCANONICO dove l’ultima uguaglianza segue dall’identificazione dell’energia E con l’energia interna termodinamica U e dalla relazione ∂U P =− ∂V ! . S La (2.24) coincide quindi con il primo principio della termodinamica e conduce alla definizione della pressione nel microcanonico ∂S ∂V P =T ! . (2.25) E Tale definizione di pressione è inoltre in accordo con il fatto che la derivata dell’entropia rispetto al volume controlla l’equilibrio meccanico tra i due sottosistemi. Infatti, se ammettiamo che i due sottosistemi, oltre a scambiare energia, possono variare la frazione di volume occupato da ciascuno di essi, pur rimanendo invariato il volume totale, si ottiene una formula simile alla (2.22) con i volumi al posto delle energie ∂S1 ∂V1 ! = V1 =V1 ∂S2 ∂V2 ! . (2.26) V2 =V2 Con la definizione di pressione (2.25), la (2.26) esprime la condizione di equilibrio meccanico P1 = P2 . A questo punto potrebbe sorgere la domanda circa la possibilità di permettere ai due sottosistemi di scambiare anche particelle, come ad esempio, in un gas. Tale situazione sarà considerata nel prossimo capitolo dedicato al caso importante del gas perfetto. Però è utile fare da subito la seguente osservazione. Se indichiamo con Smicro ed Stermo l’entropia definita a partire dall’ensemble microcanonico e l’entropia standard della termodinamica, la discussione dalla (2.24) alla (2.26) dimostra che dSmicro = dStermo , (2.27) cioè che le due entropie differiscono a meno di una costante. Poichè entrambi i differenziali sono presi tenendo costante il numero di particelle, la (2.27) non può dire nulla a proposito della dipendenza dell’entropia del microcanonico o dell’entropia termodinamica dal numero di particelle. Questo significa che la definizione di entropia (2.8) è valida a meno di una funzione del numero di particelle. Capitolo 3 Il gas perfetto 3.1 Ensemble microcanonico per il gas perfetto Il gas perfetto oltre a costituire il modello corretto di comportamento per i gas reali ad alta temperatura e bassa pressione, costituisce forse il paradigma più importante della termodinamica e della teoria cinetica. È dunque naturale dedicare un’analisi approfondita nel contesto dell’ensemble microcanonico. Nel caso del gas perfetto la funzione hamiltoniana si riduce alla sola energia cinetica N X p2i . (3.1) H= i=1 2m Per calcolare l’entropia usiamo la formula (2.14). L’integrazione sulle coordinate è immediata ω= Z 3N δ(E − H)d qd 3N ∂ Z θ(E − H) d3N p. p=V ∂E N (3.2) Per l’integrazione sugli impulsi definiamo il seguente integrale I(n, ) = Z x21 +...x2n < n d x≡ Z θ( − (x21 + . . . x2n )) dn x. (3.3) Poiché I è definito all’interno di un’ipersfera, introduciamo coordinate sferiche generalizzate e riscriviamo I(n, ) = Ωn Z √ 0 rn−1 dr = Ωn n/2 , n dove r è il raggio ed Ωn è l’angolo solido n-dimensionale. Per calcolare Ωn , consideriamo la seguente identità basata sull’iterazione dell’integrale 21 22 CAPITOLO 3. IL GAS PERFETTO gaussiano Z ∞ −∞ −x21 dx1 e ... Z ∞ −∞ 2 dxn e−xn = π n/2 che d’altronde può essere riscritto Z ∞ −∞ ... Z ∞ −∞ 2 2 dn xe−(x1 +...+xn ) = Ωn Z ∞ 0 1 2 e−r rn−1 dr = Ωn Γ(n/2) 2 dove si è introdotta la funzione gamma di Eulero definita da (Cf. paragrafo (3.2) per le sue principali proprietà) Γ(z) = Z ∞ e−t tz−1 dt. (3.4) 0 Deve quindi valere la relazione Ωn = 2π n/2 . Γ(n/2) (3.5) Quindi otteniamo I(n, ) = π n/2 n/2 2π n/2 n/2 = . nΓ(n/2) Γ(n/2 + 1) (3.6) Per l’entropia del gas perfetto otteniamo quindi 3N π 3N/2 (2mE)3N/2−1 S(E, V, N ) = k ln V . 2Γ(3N/2 + 1) ! N 3.2 (3.7) Proprietà della funzione gamma Integrando per parti si ottiene la formula di ricorrenza Γ(z) = tz−1 e−t |0−∞ + (z − 1) Z ∞ dte−t tz−2 0 = (z − 1)Γ(z − 1). (3.8) Per z = n intero, la funzione gamma si riduce al fattoriale Γ(n) = (n − 1)Γ(n − 1) = . . . = (n − 1)!. (3.9) Nel caso di z semintero, è utile conoscere il caso z = 1/2 Γ(1/2) = Z ∞ 0 e−t dt √ t Z ∞ = 2 dxe−x 0 √ = π 2 (3.10) 3.3. TERMODINAMICA DEL GAS PERFETTO 23 Per z grande si può ottenere una formula approssimata mediante uno sviluppo dell’integrale di (12.4) con il metodo del punto di sella. Riscriviamo la funzione gamma nel modo seguente Z ∞ Γ(z) = dt e−f (t,z) 0 dove f (t, z) = t − (z − 1) ln t. La funzione f (t, z) ha un minimo in t∗ = z − 1. Infatti f 0 (t, z) = 1 − z−1 z−1 , f 00 (t, z) = 2 t t dove l’apice indica la derivata rispetto a t. La funzione gamma può quindi essere scritta Γ(z) = Z ∞ ∗ ,z)−(1/2)f 00 (t∗ ,z)(t−t∗ )2 dt e−f (t 0 = e −(z−1)+(z−1) ln(z−1) −z+1 z−1 ≈ (z − 1) e Z ∞ ∗ )2 /(2(z−1)) dte−(t−t Z ∞0 ∗ )2 /(2(z−1)) dte−(t−t −∞ q = (z − 1)z−1 e−z+1 2π(z − 1) √ ≈ z z e−z 2πz. (3.11) È interessante notare come nella (12.13), il fattore sotto radice rappresenta il contributo delle deviazioni del valore della funzione f (t, z) intorno al minimo, mentre gli altri fattori provengono dalla stima dell’integrale considerando solo il valore in cui f (t, z) è minima, cioè in cui l’integrando è massimo. È evidente che per z → ∞, le correzioni gaussiane sono piccole rispetto al primo termine. Ulteriori correzioni oltre i termini quadratici saranno ancora più piccole. Quindi l’approccio all’integrale con il metodo del punto di sella è giustificato. Nel caso di z intero e grande, la (12.13) produce la formula di Stirling √ (3.12) n! ≈ 2πnnn e−n , n → ∞. 3.3 Termodinamica del gas perfetto Se usiamo la formula di Stirling, l’entropia (3.7) diventa, a meno di termini ln N , ! 4πmE 3/2 3 S(E, V, N ) = N k ln V + N k. (3.13) 3N 2 24 CAPITOLO 3. IL GAS PERFETTO Risolvendo rispetto all’energia, otteniamo E ≡ U (S, V, N ) = 3N 2S −1 . exp 2/3 4πmV 3N k (3.14) Derivando rispetto a S otteniamo la temperatura T = ∂U ∂S ! = V,N 2 U 3 Nk (3.15) e derivando rispetto a V otteniamo la pressione ∂U P =− ∂V ! = S,N 2U . 3V (3.16) La (3.15) riproduce il noto fatto che l’energia del gas perfetto è funzione della sola temperatura. Inserendo la (3.15) nella (3.16) otteniamo la l’equazione di stato del gas perfetto P = N kT . V (3.17) Consideriamo adesso un contenitore di volume V diviso in due parti da un setto rimovibile. Le due parti hanno volumi V1 e V2 , rispettivamente. Consideriamo ora due gas diversi composti di N1 e N2 molecole, rispettivamente. Il primo gas si trova nel volume V1 e il secondo in V2 . Immaginiamo che i due gas si trovino alla stessa temperatura, T1 = T2 = T , e pressione, P1 = P2 = P . Ciò implica che i due gas abbiano la stessa densità N2 N1 P =k =k . T V1 V2 Le energie dei due gas sono naturalmente 3 3 E1 = N1 kT, E2 = N2 kT. 2 2 Se rimuoviamo il setto separatore, i due gas si mescolano. Come è noto questo è un processo irreversibile che comporta un aumento di entropia. Prima di rimuovere il setto separatore, l’entropia del sistema è la somma di quella dei due gas, cioè 3 3 Sprima = N1 k ln V1 (2πm1 T )3/2 + N1 k + N2 k ln V2 (2πm2 T )3/2 + N2 k. 2 2 (3.18) 3.3. TERMODINAMICA DEL GAS PERFETTO 25 Dopo la rimozione del setto separatore, ogni gas ha a disposizione l’intero volume V , per cui l’entropia diventa 3 3 Sdopo = N1 k ln V (2πm1 T )3/2 + N1 k + N2 k ln V (2πm2 T )3/2 + N2 k. 2 2 (3.19) La variazione di entropia è dunque ∆S = N1 k ln V V + N2 k ln . V1 V2 (3.20) Tale variazione di entropia è positiva come ci si aspetta per un mescolamento irreversibile. La variazione di entropia inoltre non dipende dalla natura dei due gas (le masse m1 e m2 non compaiono), ma solo dal fatto che i due gas sono diversi. L’aumento di entropia dovuta al mescolamento è dovuto all’aumento di entropia di ciascun gas che in seguito alla rimozione del setto separatore ha a disposizione un volume maggiore. Se ora immaginiamo di ripetere questo processo di mescolamento con due gas identici otteniamo un risultato paradossale, in quanto se calcoliamo la variazione di entropia, questa coincide con quella relativa al mescolamento di due gas identici. Se però abbiamo lo stesso gas in entrambi i volumi, la rimozione del setto non produce di fatto nessun mescolamento e non ci dovrebbe essere nessuna variazione di entropia. Infatti, cosı̀ come abbiamo rimosso il setto separatore, potremmo rimetterlo al suo posto e otterremmo nuovamente uno stato termodinamicamente identico a quello iniziale. Il fatto che la formula dell’entropia del gas perfetto ricavata nell’ensemble microcanonico non sia in grado di descrivere una variazione di entropia nulla quando mescoliamo due gas uguali, costituisce il cosidetto paradosso di Gibbs. Gibbs stesso notò che tale problema viene rimosso dividendo il volume dello spazio Γ per N !, di modo da ottenere per l’entropia la formula di Sackur-Tetrode V S(E, V, N ) = N k ln N 4πmE 3N 3/2 ! 5 + N k. 2 (3.21) A differenza della formula (12.15), l’espressione (3.21) è estensiva, cioè l’entropia di un sistema composto è sempre scrivibile come la somma delle parti che compongono il sistema. In tal modo il mescolamento di due gas identici non produce nessuna variazione di entropia. Questo fatto si può facilmente verificare. In base alla formula modificata (3.21), l’entropia iniziale, per gas uguali, è V1 5 V2 5 = N1 k ln (2πmT )3/2 + N1 k + N2 k ln (2πmT )3/2 + N2 k, N1 2 N2 2 (3.22) Sprima 26 CAPITOLO 3. IL GAS PERFETTO e quella finale è V 5 (2πmT )3/2 + N k. = N k ln N 2 Sdopo (3.23) Quest’ultima equazione può essere riscritta osservando che N = N1 + N2 come V 5 5 V Sdopo = N1 k ln (2πmT )3/2 + N1 k + N2 k ln (2πmT )3/2 + N2 k. N 2 N 2 (3.24) La variazione di entropia risulta quindi ∆S = N1 k ln V N2 V N1 + N2 k ln = 0, N V1 N V2 (3.25) in quanto la densità prima e dopo il mescolamento non è cambiata. Se avessimo considerato gas diversi con la formula modificata la variazione di entropia risulterebbe, come è facile verificare ∆S = N1 k ln V N1 V N2 + N2 k ln N1 V1 N2 V2 e coincide con il risultato (3.20) Notiamo che la divisione per N ! del volume dello spazio delle fasi è equivalente a modificare l’entropia con una costante, che in realtà è funzione di N . Tale funzione di N è quella che avevamo lasciato indeterminata alla fine del precedente capitolo. Il calcolo esplicito del gas perfetto ci ha indicato quale debba essere tale funzione di N affinchè l’entropia sia estensiva ed abbia il giusto comportamento nel mescolamento di due gas, uguali o diversi che siano. Per inciso, nel caso del mescolamento di due gas uguali, l’estensività è proprio la proprietà che determina che la variazione di entropia debba essere nulla. Infatti, nel caso di gas uguali, da un punto di vista termodinamico la rimozione del setto separatore o la sua reinserzione non produce nessun cambiamento che possa essere misurato per mezzo di parametri termodinamici. Quindi la richiesta di estensività, cioè che l’entropia totale del gas (senza setto separatore) sia uguale alla somma delle parti (in presenza del setto separatore), implica una variazione nulla. Da quanto detto risulta chiaro che la divisione per N ! equivale a richiedere l’estensività dell’entropia. È altresı̀ chiaro che tale divisione non è necessaria se le molecole sono localizzate rigidamente nei due volumi V1 e V2 . Questo corrisponde alla situazione che abbiamo discusso nel capitolo precedente. 3.4. IL CORRETTO CONTEGGIO DI BOLTZMANN 3.4 27 Il corretto conteggio di Boltzmann La divisione per il fattore N ! viene comunemente indicata come il corretto conteggio di Boltzmann. Nel paragrafo precedente tale conteggio è stato introdotto ad hoc in modo da ottenere un comportamento estensivo per l’entropia del gas perfetto. In questo paragrafo intendiamo discutere tale conteggio in modo più generale. Prima di addentrarci nella discussione di questo punto nell’ambito della meccanica statistica, può essere utile richiamare l’analisi che Pauli ha fatto a proposito dell’estensività dell’entropia in ambito termodinamico, a partire dalla definizione di Clausius dell’entropia dS = δQ , T (3.26) dove il differenziale deve essere preso lungo una trasformazione reversibile. Per un gas perfetto (monoatomico) , il differenziale dell’entropia è dV 3 dT + dS = N k 2 T V ! , (3.27) che implica un’entropia della forma 3 S(T, V, N ) = N k ln V + ln T + kf (N ), 2 (3.28) dove f (N ) è una costante d’integrazione, che dipende dal numero di particelle che viene tenuto costante durante la trasformazione reversibile. L’osservazione di Pauli è che l’estensività dell’entropia non è implicita nella definizione di Clausius, ma richiede una condizione sulla forma della funzione f (N ). Richiedere l’estensività significa richiedere che S(T, qV, qN ) = qS(T, V, N ), (3.29) dove q è un numero positivo. Imporre la (3.29) conduce per f (N ) all’equazione funzionale f (qN ) = −qN ln q + qf (N ). (3.30) Ponendo N = 1 si ottiene f (q) = −q ln q + qf (1), (3.31) che conduce, in quanto q è arbitrario positivo e quindi può essere anche un intero, alla soluzione f (N ) = −N ln N + N f (1), (3.32) 28 CAPITOLO 3. IL GAS PERFETTO dove f (1) è una costante d’integrazione. Scegliendo tale costante della forma f (1) = (3/2) ln(2πmk) + (5/2) si ritrova l’equazione di Sackur-Tetrode. Ritorniamo alla meccanica statistica. Riprendiamo la discussione iniziata nel capitolo precedente riguardo alle condizioni di equilibrio tra due sottosistemi. Nel caso presente, rispetto a quanto fatto in precedenza, concediamo ai due sottosistemi di poter scambiare particelle. Immaginiamo quindi di dividere un sistema isolato di energia totale E, volume V e numero di particelle N in due sottosistemi. Ad esempio immaginiamo un contenitore diviso in due da un setto separatore. Il setto è fisso e quindi i volumi V1 e V2 dei due sottosistemi sono tenuti costanti, ma nel setto è praticato un foro attraverso il quale i due sottosistemi possono scambiare particelle. Lo scambio di energia è anche permesso come già discusso nel capitolo precedente. I due sottosistemi hanno energia e numero di particelle E1 , E2 ed N1 , N2 , rispettivamente, con le condizioni E1 + E2 = E ed N1 + N2 = N . In analogia alla (2.17) dobbiamo scrivere ω(E, N ) = N! Z dE1 ω(E1 , N1 ) ω(E − E1 ). N1 !N2 ! (3.33) Il coefficiente binomiale che appare a membro di destra della (3.33) tiene conto del fatto che se nel sottosistema 1 si trovano N1 particelle e nel sottosistema 2 si trovano N2 particelle, esistono N !/(N1 !N2 !) modi di realizzare tale situazione microscopica. Infatti bisogna considerare il numero di modi in cui posso scegliere le N1 particelle da mettere nel sottosistema 1. Tale conteggio si basa sul fatto che le particelle classiche sono distinguibili. Abbiamo visto che per quanto riguarda lo scambio di energia, la situazione di equilibrio è quella corrispondente ad un valore di E1 ed E2 che rende massimo l’integrando della (3.33). Da qui abbiamo introdotto la temperatura come derivata dell’entropia rispetto all’energia. Vogliamo ora discutere quali siano i valori di N1 ed N2 che rendono massimo l’integrando della (3.33). Definiamo ω(E2 , N2 ) ω(E1 , N1 ) , ω2∗ = . (3.34) ω1∗ = N1 ! N2 ! La condizione di massimo diventa allora ∂ ln ω1∗ ∂ ln ω2∗ = ∂E1 ∂E2 ∗ ∂ ln ω1 ∂ ln ω2∗ = ∂N1 ∂N2 (3.35) Risulta quindi naturale definire l’entropia di ogni sottosistema come ωi Si = k ln ωi∗ ≡ k ln (3.36) Ni ! 3.4. IL CORRETTO CONTEGGIO DI BOLTZMANN 29 in modo che la (3.35) diventa ∂S1 ∂E1 ! = E1 =E1 ∂S2 ∂E2 ! , E2 =E2 ! ∂S1 ∂N1 = N1 =N1 ∂S2 ∂N2 ! . (3.37) N2 =N2 Introducendo l’entropia del sistema totale come S = k ln ω ∗ ≡ k ln ω(E, N ) , N! (3.38) la (3.33) indica chiaramente l’estensività dell’entropia. In tal modo abbiamo giustificato la divisione per N ! introdotta nella formula dell’entropia del gas perfetto. Nella presente discussione, inoltre, oltre a tener conto del gas perfetto, sono considerati anche i gas reali per i quali la funzione hamiltoniana contiene anche un termine di energia potenziale. La forma della funzione hamiltoniana è comunque ininfluente. Notiamo ancora che la deduzione della termodinamica fatta nel capitolo precedente (cf. eq.(2.24)) resta valida, in quanto effettuata a numero di particelle costante. Consideriamo ora una trasformazione lenta che vari energia, volume e numero di particelle. La (2.24) diventa P ∂S 1 dS = dS + dV + T T ∂N ! dN. (3.39) E,V La derivata parziale a membro di destra può essere riscritta ∂S ∂N ! E,V ∂(S, E, V ) ∂(S, N, V ) 1 = =− ∂(N, E, V ) ∂(S, N, V ) T ∂E ∂N ! S,V µ =− , T dove l’ultima uguaglianza segue dall’aver identificato l’energia E con l’energia interna termodinamica U dalla definizione di potenziale chimico µ= ∂U ∂N ! . (3.40) S,V Nell’ensemble microcanonico il potenziale chimico è quindi dato da µ ≡ −T ∂S ∂N ! . (3.41) E,N e la condizione di equilibrio termico e chimico (3.37) diventa T1 = T2 e µ1 = µ2 . Il segno meno nella (3.41) è dovuto al fatto che il sottosistema a potenziale chimico maggiore tende a cedere particelle al sottosistema a 30 CAPITOLO 3. IL GAS PERFETTO potenziale chimico minore. Infatti immaginiamo la (3.39) scritta per il caso in cui si abbiano due sottosistemi che possono scambiare particelle, ma temperatura e pressione sono tenute costanti T dS = −µ1 dN1 + µ2 dN2 = −(µ1 − µ2 )dN1 . (3.42) Poiché dS > 0 in un processo irreversibile, se dN1 > 0, allora deve essere µ2 > µ1 . 3.5 Connessione con il limite quantistico Desideriamo fare alcune osservazioni circa la rilevanza del limite quantistico in merito al paradosso di Gibbs e alla divisione per N !. In molti libri di testo si dice che la divisione per N ! può essere compresa solo nell’ambito della teoria quantistica, poichè il fattore N ! tiene conto della indistinguibilità delle particelle in meccanica quantistica. Come abbiamo visto nel paragrafo precedente, tale affermazione non è corretta. L’affermazione corretta è che la divisione per N ! può essere ottenuta sia ragionando classicamente (come abbiamo fatto) sia considerando il limite semiclassico del trattamento quantistico (come faremo in seguito nel paragrafo (8.4)). La distinguibilità o indistingubilità delle particelle è irrilevante dal punto di vista della divisione per N !. Ciò che è essenziale nel ragionamento classico è come si costruisce l’entropia per un sistema composto a partire dalle entropie delle parti componenti. Può essere utile dare due tipi di argomenti ad ulteriore rafforzamento del ragionamento classico. Il primo ragionamento consiste nell’osservare che è ormai possibile simulare al computer il comportamento di un gas a partire dalla dinamica microscopica delle particelle costituenti il gas. In tale simulazione si usa la meccanica classica. Se la divisione per N ! non potesse essere dedotta nell’ambito della meccanica statistica classica, ciò implicherebbe che i risultati delle simulazioni dovrebbero essere corretti per essere in accordo con i dati sperimentali. Ma ciò non avviene e le simulazioni numeriche di sistemi classici sono perfettamente in accordo con risultati sperimentali di sistemi che si trovano in un regime classico. Un secondo tipo di argomenti riguarda il fatto se esistono sistemi per i quali vale strettamente la meccanica statistica classica. Infatti nel caso dei gas dove abbiamo a che fare con atomi e molecole, uno potrebbe dire che in ultima analisi le particelle seguono la meccanica quantistica e solo nell’ambito di quest’ultima è possibile un trattamento rigoroso e pienamente coerente. In realtà sistemi come i colloidi sono classici nel senso che le particelle costituenti, benchè piccole, hanno tuttavia una struttura complessa che 3.5. CONNESSIONE CON IL LIMITE QUANTISTICO 31 le rende distinguibili. Per tali sistemi la meccanica statistica classica deve essere autosufficiente. Infine è bene sottolineare che usare il limite semiclassico della meccanica statistica quantistica è sicuramente corretto e nel caso di sistemi di particelle quantistiche rappresenta forse il metodo più rapido. Come già detto, daremo questo trattamento in seguito. Tra l’altro nel fare il limite semiclassico del trattamento quantistico troveremo nell’espressione dell’entropia la costante di Planck h, che è impossibile da introdurre in un contesto puramente classico. A questo proposito si rimanda al paragrafo (7.3). 32 CAPITOLO 3. IL GAS PERFETTO Capitolo 4 L’ensemble canonico 4.1 Distribuzione di Boltzmann Quando abbiamo considerato la proprietà estensiva dell’entropia, si è visto che il valore delll’entropia per un sistema composto di due sottosistemi di energia E1 ed E2 con E1 + E2 = E fissata è dominato dalla ripartizione di energie E1 ed E2 tali che il prodotto ω(E1 )ω(E2 ) è massimo. Si è anche visto che la condizione di massimo corrisponde alla situazione di equilibrio termico, in cui i due sottosistemi si trovano alla stessa temperatura. Immaginiamo ora che uno dei due sottosistemi, ad esempio il sottosistema 2, sia molto più grande dell’altro sottosistema, cioè il sottosistema 1. Il sottosistema 2 è detto reservoir. Da ora in poi quindi abbandoniamo la dizione di sottosistemi 1 e 2 e adottiamo quella di sistema e reservoir coll’ipotesi che il reservoir sia molto più grande del sistema. L’energia totale è conservata, mentre il sistema ed il reservoir possono scambiare energia E = Er + Es , (4.1) dove i suffissi r ed s si riferiscono al reservoir ed al sistema, rispettivamente. La condizione di reservoir implica che Er ≈ E, cioè gli scambi di energia tra sistema e reservoir alterano poco lo stato del reservoir, mentre possono variare molto lo stato del sistema. Lo stato di quest’ultimo dipenderà quindi dalla ripartizione energetica tra sistema e reservoir. Il nostro scopo è di determinare come lo stato del sistema dipende dalla ripartizione energetica. Ci chiediamo allora quale sarà la funzione di distribuzione del sistema con energia Es a prescindere dallo stato del reservoir. Se indichiamo con {qs , ps } e {qr , pr } le coordinate ed impulsi del sottosistema e del reservoir, siamo interessati alla funzione di distribuzione definita nello spazio Γ relativo al sistema, indipendentemente dalla posizione del reservoir nel suo spazio Γ. 33 34 CAPITOLO 4. L’ENSEMBLE CANONICO Possiamo quindi scrivere, a meno di una costante di normalizzazione, ρ({qs , ps }) = Z d3Nr q d3Nr p E<Es +Hr <E+∆ = Γr (E − Es ) = ∆ ωr (E − Es ) = eSr (E−Es )/k , (4.2) dove l’ultima relazione si è ottenuta invertendo la (2.14) per il reservoir. Poiché l’energia del sistema è piccola rispetto all’energia del reservoir e quindi rispetto anche all’energia totale possiamo fare lo sviluppo di Taylor dell’esponente della (4.2) ! ∂Sr Es + . . . . Sr (E − Es ) ≈ Sr (E) − ∂E (4.3) Sempre in virtù del fatto che l’energia del reservoir è circa uguale a quella totale ! ! ∂Sr (Er ) 1 ∂Sr ≈ ≡ , (4.4) ∂E ∂Er T dove T è la temperatura di equilibrio del sistema e del reservoir. Allora la funzione di distribuzione del sistema diventa ρ({qs , ps }) = eSr (E)/k e−Es /(kT ) . (4.5) Il primo fattore esponenziale a membro di destra della (4.5) non dipende dall’energia del sistema ed è quindi una costante. Il secondo fattore esponenziale aumenta notevolmente la convergenza degli integrali che coinvolgono la funzione di distribuzione. Per tale motivo, nel seguito, rilasseremo la condizione 0 < Es < E, adottando invece la condizione 0 < Es < ∞. Tale condizione, fisicamente, rappresenta il fatto che il reservoir ha virtualmente energia infinita rispetto al sistema. L’energia del sistema è determinata dalla funzione di Hamilton Es = Hs ({qs , ps }), per cui la funzione di distribuzione del sistema definita su tutto il suo spazio Γ avrà la forma ρ({q, p}) = 1 −βH e , Z (4.6) dove β ≡ 1/(kT ) ed abbiamo eliminato il suffisso s dal simbolo della funzione hamiltoniana del sistema, poiché da adesso in poi ci riferiremo esclusivamente al sistema. La quantità Z, che è costante rispetto alle coordinate ed impulsi 4.2. LA DEFINIZIONE DELL’ENERGIA LIBERA 35 del sistema, dipende dalla temperatura del sistema ed è introdotta affinchè la funzione di distribuzione sia normalizzata. Deve allora essere Z= Z d3N q d3N p e−βH({q,p}) , (4.7) dove l’integrale è esteso su tutto lo spazio Γ compatibile con il volume V occupato dal sistema. Qui N indica il numero di particelle del sistema. (Per la precisione avremmo dovuto usare la notazione Vs ed Ns , ma poiché avremo a che fare con il solo sistema abbiamo lasciato cadere il suffisso s per semplificare la notazione). Allora la quantità Z deve essere una funzione della temperatura, del volume e del numero di particelle, cioè Z = Z(T, V, N ). Tale quantità è detta funzione di partizione. La funzione di distribuzione (4.6) è la distribuzione di Boltzmann e definisce l’ensemble canonico. 4.2 La definizione dell’energia libera Nell’ensemble canonico, definito da (4.6) e (4.7), la connessione con la termodinamica è data dalla formula F (T, V, N ) = −kT ln 1 Z(T, V, N ), N! (4.8) che esprime l’energia libera di Helmoltz o energia libera in termini della funzione di partizione. Nella (4.8) abbiamo introdotto la divisione per N ! in accordo con il corretto conteggio di Boltzmann discusso nel capitolo precedente. Come già discusso in tale capitolo, l’introduzione del fattoriale è comprensibile solo quando si prenda in considerazione il fatto di un sistema composto le cui componenti possano scambiare particelle. Dunque nella definizione dell’ensemble canonico, dove il numero di particelle rimane costante, possiamo introdurre la divisione per N ! solo euristicamente. In ogni caso, cosı̀ come accade nel microcanonico, l’introduzione del fattoriale non modifica l’equazione di stato. Il fatto che la definizione (4.8) definisca proprio l’energia libera è in accordo con la teoria dei potenziali termodinamici, secondo cui un sistema a temperatura, volume e numero di particelle fissati evolve verso una situazione di equilibrio in cui l’energia libera è minima. Matematicamente si può inoltre verificare che la (4.8) è effettivamente l’energia libera definita in termodinamica dalla relazione F = U − TS = U + T ∂F . ∂T (4.9) 36 CAPITOLO 4. L’ENSEMBLE CANONICO Infatti ∂ ∂ F = ∂T ∂T 1 Z 3N 3N −βH −kT ln d q d pe N! 1 Z 3N 3N −βH Z 3N 3N e−βH H = −k ln d q d pe − d qd p N! Z T F U = − , (4.10) T T dove si è usato che U ≡< H >= Z 3N d qd 3N e−βH p H. Z (4.11) La (4.10) coincide con la (4.9) e quindi dimostra che la (4.8) definisce effettivamente l’energia libera. 4.3 Il gas perfetto Come abbiamo avuto modo di vedere nel caso dell’ensemble microcanonico, la funzione hamiltoniana di un gas perfetto è costituita dalla sola energia cinetica N X p2i . (4.12) H= i=1 2m Chiaramente la funzione hamiltoniana può essere scritta coma la somma delle funzioni hamiltoniane di tutte le particelle che costituiscono il gas. Questa separabilità implica la fattorizzazione della funzione di partizione del gas. Infatti secondo la definizione (4.7), l’esponenziale di una somma di termini si trasforma in un prodotto di termini, uno per ogni particella. Quindi abbiamo Z = Z0 N , (4.13) dove Z0 è la funzione di partizione di particella singola Z0 = Z d3 q V Z R3 2 /(2mkT ) d3 pe−p = V (2πmkT )3/2 . (4.14) L’energia libera risulta dunque eV (2πmkT )3/2 F (T, V, N ) = −kT N ln N (4.15) dove abbiamo usato nuovamente la formula di Stirling per ln N ! ≈ N ln N − N . Se richiamiamo le formule termodinamiche ∂F S=− ∂T ! ∂F , P =− ∂V V,N ! , µ= T,N ∂F ∂N ! , T,V (4.16) 4.4. DISTRIBUZIONE DI MAXWELL PER LE VELOCITÀ 37 derivando la (4.15) rispetto al volume si ottiene l’equazione di stato del gas perfetto kT N . (4.17) P = V Si può notare che la derivazione dell’equazione di stato è chiaramente indipendente dall’aver inserito il corretto fattore 1/N ! nella definizione dell’energia libera. Tale fattore è invece importante nella derivazione dell’entropia 5 V (2πmkT )3/2 + kN. S = kN ln N 2 (4.18) Calcoliamo l’energia con la formula U = F + T S 3 U = kT N 2 (4.19) in accordo con la (3.15). Usando la (4.19) per scrivere T in funzione di U , si riottiene l’entropia di Sackur-Tetrode della (3.21). 4.4 Distribuzione di Maxwell per le velocità Nella derivazione della pressione esercitata da un gas bisogna calcolare il valor medio del quadrato della velocità. Maxwell trovò la legge di distribuzione delle velocità in un gas perfetto. Alla luce della teoria dell’ensemble canonico la derivazione della legge di distribuzione di Maxwell è poco più di un’osservazione. Infatti vogliamo sapere quale sia la probabilità che una molecola qualunque del gas abbia il modulo della velocità compreso tra il valore v e il valore v + dv. Se consideriamo la legge di distribuzione dell’ensemble canonico per un gas di N particelle in un volume V , abbiamo ρ({q}, {p}) = 1 −βH({p}) e . Z (4.20) Ora integriamo sulle 3N coordinate e su 3(N − 1) impulsi Z 2 3N d qd 3(N −1) Z0N −1 V −βp2 /2m e−βp /2m e = . p ρ({q}, {p}) = Z (2πmkT )3/2 (4.21) Per avere la distribuzione del modulo delle velocità, dobbiamo ancora integrare sulle direzioni. Alla fine ponendo v = p/m si ha che la propbabilità che una molecola abbia velocità v è 4πm3 2 v 2 e−(m/2kT )v . 3/2 (2πmkT ) 38 CAPITOLO 4. L’ENSEMBLE CANONICO Poiché le molecole sono indipendenti, la distribuzione delle velocità risulta f (v) = N 4πm3 2 v 2 e−(m/2kT )v . 3/2 (2πmkT ) (4.22) È facile verificare che kT . m Il calcolo della pressione esercitata da un gas è hv 2 i = 3 P = 4.5 N1 N hmv 2 i = kT. V 3 V (4.23) (4.24) Formula di Gibbs per l’entropia È possibile derivare un’elegante formula dell’entropia. Indichiamo con Ei tutte le possibili energie che il sistema può assumere. In generale l’indice i corrisponde ad un insieme di variabili continue, che sono le variabili canoniche. Tuttavia indichiamo le variabili da cui dipende l’energia attraverso un unico indice i in modo formale. La probabilità associata allo stato con energia Ei è ovviamente data dalla distribuzione di Boltzmann X 1 −βEi e−βEi . , Z= e Z i pi = (4.25) L’entropia si ottiene dall’energia libera derivando rispetto alla temperatura ∂F ∂T ∂ = kT ln Z ∂T 1 1 X −βEi = k ln Z − e Ei TZ i 1 X −βEi = k ln Z + k e (− ln pi − ln Z) Z i S = − = −k X pi ln pi . (4.26) i La (4.26) è la formula di Gibbs per l’entropia, espressa in termini della distribuzione di probabilità. Tale formula diventa particolarmente istruttiva quando la distribuzione di probabilità è definita su un insieme finito e discreto di stati, cioè i = 1, . . . , L. 4.5. FORMULA DI GIBBS PER L’ENTROPIA 39 In meccanica quantistica, lo spettro degli stati di un sistema contenuto in volume finito è discreto. Questo vuol dire che lo stato fondamentale di minima energia è separato dagli altri stati. Possiamo prendere, senza perdere di generalità, l’energia dello stato fondamentale come lo zero dell’energia. A temperatura nulla può essere popolato solo lo stato fondamentale. Dalla (4.25) vediamo che pi può essere diversa da zero solo se Ei = 0. A temperatura nulla, l’entropia del sistema può essere scritta S = −k s X pi ln pi , (4.27) i=1 dove s indica la degenerazione dello stato fondamentale. Poiché i diversi stati a energia nulla sono tutti equiprobabili deve essere pi = 1/s e la (4.27) diventa S = k ln s. (4.28) Ora se lo stato fondamentale non è degenere (s = 1) l’entropia è zero, in accordo con il principio di Nerst. Se lo stato fondamentale non è degenere, ma la degenerazione è piccola rispetto al numero di particelle, cioè s N , l’entropia è di fatto nulla nel limite termodinamico in quanto non estensiva. Ciò è sufficiente per essere in accordo con il principio di Nerst. Per avere una violazione del principio di Nerst deve accadere che la degenerazione dello stato fondamentale sia esponenzialmente grande nel numero di particelle s ∝ eN . 40 CAPITOLO 4. L’ENSEMBLE CANONICO Capitolo 5 L’ensemble grancanonico 5.1 La funzione di distribuzione grancanonica Abbiamo visto che il passaggio dall’ensemble microcanonico a quello canonico corrisponde a considerare un sistema isolato ad energia costante nel primo caso oppure un sistema in contatto con un reservoir a temperatura costante nel secondo caso. In entrambi i casi, il numero di particelle del sistema resta costante. Vogliamo ora considerare la situazione in cui il sistema che vogliamo studiare può scambiare particelle con l’ambiente e ci poniamo il problema di determinare la funzione di distribuzione in questo caso. Il modo di procedere è simile al passaggio dal microcanonico al canonico nel senso che immaginiamo un sistema composto di due sottosistemi. Immaginiamo che il sistema composto nel suo insieme sia descritto da un ensemble canonico e si trovi ad una certa temperatura T . I due sottosistemi occupano rispetticamente i volumi Vs e Vr con la condizione V = Vs + Vr , dove V è il volume del sistema complessivo. Il numero di particelle N del sistema è ripartito tra i due sottosistemi N = Ns + Nr . Nello spirito della trattazione fatta per ricavare l’ensemble canonico, immaginiamo che Nr Ns e che i due sottosistemi possano scambiare particelle tra loro. Vogliamo determinare la funzione di distribuzione corrispondente ad una data ripartizione di particelle tra i due sottosistemi. Più precisamente vogliamo determinare la funzione di distribuzione relativa al sottosistema s contenente Ns indipendentemente dal valore che assumono le coordinate ed impulsi del sottosistema r. Dunque scriveremo N ! 1 −βH({qs ,ps }) Z 3Nr 3Nr −βH({qs ,ps }) e d q d pe , ρ({qs , ps }, Ns ) = Ns !Nr ! Z 41 42 CAPITOLO 5. L’ENSEMBLE GRANCANONICO dove Z è la funzione di partizione del sistema totale. Il coefficiente binomiale è stato introdotto in accordo con la discussione a proposito del corretto conteggio di Boltzmann. Effettuando l’integrazione sulle variabili del reservoir arriviamo all’espressione ρ({qs , ps }, Ns ) = N ! e−βH({qs ,ps }) Zr (T, Vr , N − Ns ). Z Ns ! (5.1) Scrivendo la funzione di partizione del sottosistema r in termini della corrispondente energia libera abbiamo N ! e−βH({qs ,ps }) −βFr (T,Vr ,N −Ns ) ρ({qs , ps }, Ns ) = e . Z Ns ! (5.2) Sfruttando la condizione che Ns N , possiamo sviluppare l’energia libera che appare nel secondo esponenziale della (5.2) Fr (T, Vr , N − Ns ) ≈ Fr (T, Vr , N ) − Ns ∂Fr + . . . = Fr (T, Vr , N ) − Ns µ ∂N per modo che possiamo finalmente scrivere la funzione di distribuzione relativa al sottosistema s nella forma 1 e−β(H({q,p})−µN ) Z N! ρ({q, p}, N ) = (5.3) dove abbiamo soppresso l’indice s in quanto d’ora in avanti avremo a che fare con il solo sistema s. La (5.3) è la funzione di distribuzione che definisce l’ensemble grancanonico. La quantità Z è stata introdotta per rendere la funzione di distribuzione normalizzata ed è definita da Z= ∞ Z X d 3N 3N qd N =0 e−β(H({q,p})−µN ) . p N! (5.4) Nella (5.4) la somma su N si estende da zero all’infinito, in quanto il fattoriale a denominatore aumenta la convergenza della somma, nello stesso modo in cui nel passaggio al canonico l’integrale sull’energia è stato esteso su tutto il semiasse reale positivo. 5.2 Il granpotenziale In termini della funzione di partizione grancanonica si introduce il granpotenziale Ω(T, V, µ) = −kT ln Z(T, V, µ). (5.5) 5.2. IL GRANPOTENZIALE 43 Ricordiamo che il granpotenziale è la trasformata di Legendre, rispetto al numero di particelle, dell’energia libera di Helmoltz, cioè Ω = F − µN (5.6) con le relazioni ∂Ω N =− ∂µ ! ∂Ω , S=− ∂T T,V ! µ,V ∂Ω , P =− ∂V ! . T,µ È facile verificare che il granpotenziale soddisfa la relazione Ω−T ∂Ω = U − µN. ∂T (5.7) Deriviamo rispetto a T la (5.5) ∞ Z β(µN −H) 1 X ∂Ω 3N 3N e = −k ln Z − d qd p ∂T T N =0 N !Z Ω 1 = − (U − µN ), T T (5.8) che coincide con la (5.7). È utile richiamare un’altra utile relazione per il granpotenziale. Per dimostrarla ricordiamo la definizione dell’energia libera di Gibbs, che è la trasformata di Legendre, rispetto al volume, dell’energia libera di Helmoltz. Si ha G = F + P V, (5.9) con le relazioni µ= ∂G ∂N ! T,P ∂G , S=− ∂T ! , V = µ,P ∂G ∂P ! . T,µ L’energia libera di Gibbs deve essere estensiva come qualsiasi potenziale termodinamico, cioè deve essere della forma G(T, P, N ) = N g(T, P ) da cui si ricava che µ = g(T, P ). Allora si ha dalla (5.9) G ≡ µN = F + P V, che implica, usando la (5.6) Ω = F − µN = F − G = −P V. (5.10) 44 CAPITOLO 5. L’ENSEMBLE GRANCANONICO In termini della (5.10) si ha P = kT ln Z(T, V, µ), V che insiema alla N = kT ∂ ln Z(T, V, µ) ∂µ (5.11) (5.12) produce l’equazione di stato in forma implicita. Infatti dalla (5.12) si ricava il potenziale chimico come funzione di temperatura, volume e numero di particelle µ = µ(T, V, N ). Tale funzione deve essere poi inserita nella (5.11). 5.3 Il gas perfetto La funzione di granpartizione del gas perfetto si ottiene facilmente a partire dal calcolo fatto per l’ensemble canonico. Si ha Z= ∞ X eβµN N βµ Z0 = eZ0 e , N =0 N ! (5.13) dove Z0 = V (2πmkT )3/2 è stata calcolata nella (4.14). Usando la (5.11) si ottiene kT βµ e V (2πmkT )3/2 (5.14) P = V e dalla (5.12) N = eβµ V (2πmkT )3/2 . (5.15) L’inserzione della (5.15) nella (5.14) produce ancora una volta l’equazione di stato dei gas perfetti. Capitolo 6 Teorema di equipartizione e fluttuazioni 6.1 Il teorema di equipartizione Il teorema di equipartizione afferma hxi ∂H i = δij kT, ∂xj (6.1) dove xi e xj sono due variabili canoniche qualsiasi (coordinata o impulso). La dimostrazione, che svolgiamo nell’ensemble microcanonico, è abbastanza semplice. hxi ∂H 1 Z 3N 3N ∂H i = d q d p δ(E − H)xi ∂xj ω(E) ∂xj Z 1 ∂ ∂H = θ(E − H)xi d3N q d3N p ω(E) ∂E ∂xj Z 1 ∂ ∂H = d3N q d3N p θ(E − H)xi ω(E) ∂E ∂xj Z ∂H 1 ∂ = d3N q d3N p xi ω(E) ∂E H<E ∂xj Z 1 ∂ ∂ = (H − E), d3N q d3N p xi ω(E) ∂E H<E ∂xj (6.2) dove abbiamo usato il fatto che E non dipende da xi . Riscriviamo l’integrando della (6.2) usando xi ∂ ∂ (H − E) = (xi (H − E)) − δij (H − E) ∂xj ∂xj 45 46CAPITOLO 6. TEOREMA DI EQUIPARTIZIONE E FLUTTUAZIONI in modo che la (6.2) diventa hxi ∂H 1 ∂ Z ∂ i = (xi (H − E)) d3N q d3N p ∂xj ω(E) ∂E H<E ∂xj 1 ∂ Z −δij d3N q d3N p (H − E). ω(E) ∂E H<E (6.3) Il primo integrale a membro di destra della (6.3) è nullo, in quanto si riduce ad un integrale sulla superficie H = E, dove l’integrando è nullo. Poiché H non dipende da E, il secondo integrale diventa hxi 1 ∂ Z ∂H i = δij d3N q d3N p E ∂xj ω(E) ∂E H<E 1 Z d3N q d3N p = δij ω(E) H<E 1 = δij Σ(E) ω(E) " = δij #−1 ∂ ln Σ(E) ∂E " ∂S = kδij ∂E = δij kT. #−1 (6.4) Un caso importante è quello in cui la funzione hamiltoniana dipende da una variabile canonica quadraticamente H = ax2 + . . ., dove x è una variabile canonica 1 hax2 i = kT. (6.5) 2 Ad esempio, nel caso del gas perfetto di N particelle 3 hHi = N kT. 2 6.2 (6.6) Fluttuazioni di energia Come si è visto nel caso dei gas perfetti, tutti gli ensembles danno risultati equivalenti. Per capirne la ragione, consideriamo l’energia nel microcanonico e nel canonico. Nel microcanonico, l’energia è fissata e coincide con l’energia interna della termodinamica. Nel caso del canonico, dove l’energia non è fissata, l’energia interna corrisponde all’energia media calcolata sull’ensemble. Risulta quindi naturale chiedersi quanto l’energia media sia rappresentativa 6.2. FLUTTUAZIONI DI ENERGIA 47 dell’energia tipica nell’ensemble. A tale scopo bisogna considerare l’entità delle fluttuazioni di energia intorno al valor medio. Se le fluttuazioni sono piccole, ciò significa che il valor medio è rappresentativo della maggior parte dei valori dell’energia per i vari sistemi dell’ensemble. Per valutare le fluttuazioni dobbiamo calcolare la variazione quadratica media h(H − hHi)2 i = hH 2 i − hHi2 −βH H e−βH H 2 Γe − = Z Z ∂ = − hHi ∂β ! ∂ ∂F = − F −T , ∂β ∂T P P Γ !2 (6.7) dove nell’ultimo passaggio abbiamo usato la relazione (4.9). Inoltre con il P simbolo Γ abbiamo sinteticamente indicato l’integrazione sullo spazio Γ. Passando dalla derivazione in β a quella in T , otteniamo ∂F F −T ∂T ∂ h(H − hHi) i = kT ∂T 2 2 ! = −kT 3 ∂ 2F . ∂T 2 (6.8) , (6.9) In base al primo principio dU = T dS − P dV, il calore specifico a volume costante è cV ≡ dU dT ! =T V ∂S ∂T ! = −T V ∂ 2F ∂T 2 ! V in modo che la variazione quadratica media diventa h(H − hHi)2 i = kT 2 cV . (6.10) La (6.8) o equivalentemente la (6.10) mostra quindi che la variazione quadratica media è proporzionale al numero di particelle dato il carattere estensivo dell’energia libera e delle sue derivate rispetto ad una variabile intensiva come la temperatura. Per valutare l’entità delle fluttuazioni, bisogna confrontare lo scarto quadratico medio con il valor medio q h(H − hHi)2 i hHi √ √ T kcV N 1 = ≈ =√ U N N (6.11) 48CAPITOLO 6. TEOREMA DI EQUIPARTIZIONE E FLUTTUAZIONI e nel limite termodinamico della meccanica statistica tale rapporto tende a zero. In generale quindi le fluttuazioni, in presenza di un gran numero di costituenti, tendono a essere relativamente piccole in rapporto al valor medio. Quest’ultimo quindi rappresenta bene i valori tipici all’interno dell’ensemble. La distribuzione di probabilità relativa ai valori dell’energia è dunque relativamente stretta e piccata. Ci si aspetta quindi che valor medio e valore più probabile non differiscano molto. Tale osservazione è alla base del metodo della distribuzione più probabile che discuteremo in seguito. Nella (6.11) si è usato il fatto che cV ∼ N , in quanto è una proprietà estensiva. Ciò ci ha portato a concludere che le fluttuazioni sono piccole nel limite termodinamico. Per avere fluttuazioni grandi nel limite termodinamico deve accadere che il calore specifico sia singolare. In realtà ciò è proprio quello che accade in prossimità del punto critico del diagramma di fase di una sostanza reale. La descrizione teorica di tale fatto esula però dal programma di un corso elementare di meccanica statistica. Nel caso dei gas perfetti, in base alla (6.6) il calore specifico è 3 cV = N k 2 (6.12) e la (6.11) diventa q h(H − hHi)2 i hHi 6.3 √ 2 =√ . 3N (6.13) Fluttuazioni del numero di particelle In modo analogo a quanto discusso per le fluttuazioni di energia nell’ensemble canonico, è possibile considerare le fluttuazioni del numero di particelle nell’ensemble grancanonico. h(N − hN i)2 i = hN 2 i − hN i2 eβµN N 2 ZN − Z ∂ kT hN i ∂µ ∂ 2Ω −kT 2 ∂µ ∂ 2P kT V . ∂µ2 P = = = = N P N eβµN N ZN Z !2 (6.14) 6.3. FLUTTUAZIONI DEL NUMERO DI PARTICELLE 49 Osserviamo che possiamo considerare P e µ come funzioni di T e v = V /N , in quanto variabili intensive. Allora, a temperatura fissata ∂P ∂µ ! T ∂(P, T ) ∂(P, T ) ∂(v, T ) ∂P = = = ∂(µ, T ) ∂(µ, T ) ∂(v, T ) ∂v ∂µ ∂v !−1 . (6.15) L’energia libera di Helmoltz può essere scritta F (T, V, N ) = N f (T, V /N ) (6.16) in modo che ∂P = −f 00 ∂v ∂µ = −vf 00 , ∂v (6.17) (6.18) dove f 00 indica la derivata seconda rispetto ad x di f (T, x). Quindi 1 ∂P = . ∂µ v (6.19) Allora la derivata secondo della pressione rispetto al potenziale chimico diventa ∂ 2P ∂ 1 1 ∂v 1 ∂v N 2 ∂V = = − = − = − . (6.20) ∂µ2 ∂µ v v 2 ∂µ v 3 ∂P V 3 ∂P Se introduciamo la compressibilità isoterma κT = − 1 ∂V , V ∂P (6.21) possiamo riscrivere la (6.14) h(N − hN i)2 i = N kT N .κT V (6.22) Il rapporto tra scarto quadratico e valor medio produce quindi q h(N − hN i)2 i <N > 1 q =√ kT (N/V )κT , N (6.23) che nel limite termodinamico tende a zero, nell’ipotesi di un comportamento regolare della compressibilità. 50CAPITOLO 6. TEOREMA DI EQUIPARTIZIONE E FLUTTUAZIONI Capitolo 7 La meccanica statistica quantistica 7.1 Ensembles quantistici In meccanica quantistica lo stato di un sistema fisico è rappresentato da un vettore in uno spazio vettoriale di Hilbert. Lo spazio vettoriale di Hilbert è lo spazio degli stati possibili per il sistema. Se nello spazio di Hilbert introduciamo una base ortonormale di vettori |ii tale che hi|ji = δij , (7.1) allora lo stato del sistema al tempo t è definito da |v(t)i = X ci (t)|ii, X c∗i (t)ci (t) = 1 (7.2) i i dove le ci (t) sono le ampiezze di probabilità al tempo t relative al vettore di base |ii. Il valor medio di un osservabile O rispetto al vettore di stato |v(t)i è dato da X c∗i (t)cj (t)hi|O|ji. (7.3) hOi(t) ≡ hv(t)|O|v(t)i = i,j Come nel caso della meccanica statistica classica, il valore termodinamico di un osservabile deve essere associato ad un valor medio temporale su un intervallo di tempo sufficientemente lungo rispetto ai tempi di rilassamento tipici del sistema. Da questo punto di vista valgono le medesime considerazioni fatte nel caso classico. La media temporale dell’osservabile acquista la forma X O= c∗i cj hi|O|ji, (7.4) i,j 51 52 CAPITOLO 7. LA MECCANICA STATISTICA QUANTISTICA dove la barra indica la media temporale. Continuando l’analogia con il caso classico, la meccanica statistica quantistica si sviluppa assumendo di poter sostituire la media temporale con una media su un ensemble statistico. La definizione di ensemble statistico per il caso quantistico significa definire la quantità c∗i cj . 7.1.1 Ensemble microcanonico Assumumiamo i seguenti due postulati. I Postulato delle fasi casuali c∗i cj = δij ρi . (7.5) Un sistema isolato, in generale, ha un’evoluzione temporale che mantiene la coerenza di fase delle ampiezze di probabilità. In tali fasi è quindi immagazzinata la storia del sistema. Poiché un sistema all’equilibrio tende a rimanervi, indipendentemente dal modo in cui è arrivato all’equilibrio, sembra ragionevole assumere che non vi sia coerenza di fase tra ampiezze di probabilità relative a stati di base diversi. Questo è il significato del postulato delle fasi casuali. II Postulato dell’uguale probabilità a priori ρi (E, V, N ) = C δ(E − Ei ). (7.6) Questo secondo postulato è chiaramente l’analogo di quello introdotto nel caso classico e non c’è bisogno di commenti ulteriori. La connessione con la termodinamica si ottiene definendo l’entropia come nel caso classico. Ad esempio X S = k ln ρi ≡ k ln Trρ, (7.7) i dove la somma sugli stati del sistema è stata indicata con il simbolo di traccia applicato alla matrice di distribuzione di probabilità. 7.1.2 Ensemble canonico La distribuzione di probabilità ha la forma tipica del canonico ρi = e−βEi , Z (7.8) con funzione di partizione Z= X e−βEi . (7.9) i La termodinamica è naturalmente derivata per mezzo dell’energia libera F = −kT ln Z(T, V, N ). (7.10) 7.2. STATISTICHE QUANTISTICHE: GAS PERFETTI 7.1.3 53 Ensemble grancanonico Per l’ensemble grancanonico, nuovamente in analogia con il caso classico, abbiamo la funzione di partizione grancanonica ∞ X Z(T, V, µ) = eβµN Z(T, V, N ), (7.11) N =0 con il granpotenziale Ω(T, V, µ) = −kT ln Z(T, V, µ). 7.2 (7.12) Statistiche quantistiche: gas perfetti Anche nel caso quantistico, il primo esempio cui applicare i metodi della meccanica statistica è quello dei gas perfetti. Per gas perfetto intendiamo un sistema di N particelle confinate in un volume V e interazione reciproca nulla. A differenza del caso classico, in virtù della mancanza della nozione di traiettoria, le particelle sono indistinguibili. Ciò implica un diverso modo di descrivere lo stato del gas. Se infatti le particelle possono trovarsi in stati con energia k , lo stato del gas risulta determinato se specifichiamo nk , cioè il numero di particelle che si trovano nello stato k. Indichiamo con {nk } l’insieme dei numeri di occupazione degli stati. Nell’ensemble microcanonico, l’enumerazione di tutti gli stati implica la somma su tutti gli insiemi che sono compatibili con i vincoli che esprimono la conservazione del numero di particelle e dell’energia X nk = N, (7.13) nk k = E. (7.14) k X k Nell’ensemble grancanonico, dove entrambi i vincoli sono rilassati il calcolo è molto più agevole. La funzione di granpartizione risulta Z= ∞ X N =0 eβµN X e−βE({nk }) , (7.15) {nk } dove E({nk }) è l’energia dello stato corrispondente ad una particolare scelta di numeri di occupazione {nk }. La somma più interna sugli insiemi {nk } deve soddisfare il vincolo (7.13). Tale somma può essere combinata con la 54 CAPITOLO 7. LA MECCANICA STATISTICA QUANTISTICA somma più esterna relativa al numero totale di particelle. La funzione di granpartizione può quindi essere scritta e−β(E({nk })−µN ) , X Z= (7.16) {nk } dove la somma è su tutti i possibili insiemi {nk } senza alcuna restrizione sul numero totale di particelle. Se il sistema è costituito di particelle indipendenti, l’energia può essere espressa come somma delle energie relative agli P stati di singola particella, cioè E = k nk k . La (7.16) diventa Z = e−β X P k (k −µ)nk {nk } = XY = X = YX e−β(k −µ)nk {nk } k e−β(1 −µ)n1 . . . X n1 e−β(k −µ)nk . . . nk e −β(k −µ)nk . (7.17) nk k Il vantaggio della formula ottenuta è che adesso possiamo sommare su un numero di occupazione per volta. Richiamando l’espressione del granpotenziale Ω = −kT ln Z YX = −kT ln e−β(k −µ)nk = −kT k nk ln X X nk k = X e−β(k −µ)nk Ωk , (7.18) k dove si è introdotto il granpotenziale per lo stato k-esimo. Nel caso dei fermioni, a motivo del principio di esclusione di Pauli, ogni stato può essere occupato al più da una particella. La somma sui valori dei numeri di occupazione è quindi ristretta a due soli valori n= 0, 1. Come conseguenza Ωk = −kT ln 1 + e−β(k −µ) . (7.19) Nel caso dei bosoni non ci sono restrizioni. Quindi si ottiene Ωk = −kT ln ∞ X e−β(k −µ)nk nk =0 = kT ln 1 − e−β(k −µ) , (7.20) 7.2. STATISTICHE QUANTISTICHE: GAS PERFETTI 55 dove nella risommazione della serie geometrica si è assunto k − µ > 0, ∀k. (7.21) Poiché k ≥ 0 deve essere µ ≤ 0. Usando la formula ∂Ωk (7.22) hnk i = − ∂µ otteniamo 1 , (7.23) hnk i = β( −µ) k e ±1 dove i segni + e − si riferscono ai fermioni e bosoni, rispettivamente. Consideriamo adesso più specificatamente i livelli di energia del gas perfetto. Immaginiamo che le particelle del gas siano contenute in un volume V , all’interno di una scatola cubica di lato L, in modo che V = L3 . I livelli di energia sono ovviamente determinati dai tre numeri quantici corrispondenti agli autovalori dell’impulso nelle tre direzioni degli assi p = p2 , p2 = p2x + p2y + p2z , 2m (7.24) dove 2πh̄ 2πh̄ 2πh̄ nx , py = ny , p z = nz , (7.25) L L L e nx , ny , nz = 0, 1, . . .. Nella formula (7.18), la somma su k va sostituita con quella sui tre numeri quantici nx , ny , nz . Nel limite termodinamico, quando il volume tende all’infinito, anche il valore del lato della scatola tende all’infinito. I livelli di energia diventano progressivamente più fitti. In questo limite, la somma può essere sostituita da un integrale. Quando il numero quantico nx varia di uno, l’autovalore px varia di ∆p = 2πh̄/L. Quindi 1/∆p rappresenta la densità di livelli. Il passaggio dalla somma all’integrale deve essere fatto in modo da conservare il numero di livelli X 1 Z ... → dp . . . . ∆p nx px = Considerando la somma sui tre numeri quantici si ha quindi X V Z d3 p . . . . ... → 3 R3 (2πh̄) nx ,ny ,nz (7.26) In tal modo arriviamo finalmente alle equazioni che determinano la termodinamica nel caso delle statistiche quantistiche V Z p U = d3 p β(p −µ) (7.27) 3 (2πh̄) R3 e ±1 V Z 1 d3 p β(p −µ) N = . (7.28) 3 3 (2πh̄) R e ±1 56 CAPITOLO 7. LA MECCANICA STATISTICA QUANTISTICA 7.3 Il limite classico Nella meccanica statistica classica abbiamo definito l’entropia in termini di un logaritmo di un volume nello spazio Γ. Tale volume ha le dimensioni del cubo di un azione. Affinché l’argomento del logaritmo sia adimensionale, il volume nello spazio Γ deve essere diviso per una costante delle dimensioni del cubo di un’azione. Chiaramente la divisione per tale costante del volume dello spazio Γ implica l’aggiunta di una costante all’entropia. Nell’ambito della fisica classica ciò non rappresenta un problema in quanto l’entropia è definita a meno di una costante. In meccanica quantistica la costante di Planck h̄ ha proprio le dimensioni di un azione. In effetti uno sguardo alle formule (7.27-7.28) mostra che l’elemento di volume relativo ad un grado di libertà deve essere diviso per la quantità 2πh̄. Allora tutte le formule classiche ottenute precedentemente devono essere corrette introducendo un fattore (2πh̄)−3N . (7.29) Vediamo adesso in dettaglio come si ottiene il limite classico dalle formule (7.27-7.28). Introduciamo la fugacità z = eβµ al posto del potenziale chimico. Dal trattamento del gas perfetto nel grancanonico abbiamo visto dalla (5.15) che N (7.30) eβµ = z = (2πmkT )−3/2 . V Tale formula deve essere modificata introducendo la costante di Planck z= N 3 2πh̄ λ , λ≡ , V (2πmkT )1/2 (7.31) dove abbiamo introdotto la cosidetta lunghezza d’onda termica λ. Tale lunghezza d’onda termica è dell’ordine della lunghezza d’onda di De Broglie di una particella di massa m ed energia kT . Se introduciamo la separazione media tra le particelle 1/3 V l= , (7.32) N l’espressione classica della fugacità (cf. (7.31)) può essere scritta come il cubo del rapporto della lunghezza d’onda termica e della separazione media. Poichè il limite classico corrisponde a h̄ → 0, cioè λ → 0, la fugacità classica deve soddisfare la condizione z 1, (7.33) che implica µ → −∞ nel limite classico. La condizione (7.33) fornisce il parametro di sviluppo delle equazioni (7.27-7.28) al fine di ottenere il limite 7.3. IL LIMITE CLASSICO 57 classico. A tal fine accanto all’introduzione della fugacità z, facciamo il cambio di variabile p2 β = x2 . 2m Le (7.27-7.28) diventano 2 Z ∞ 2 −x V 4 2 x ze √ kT dx x λ3 π 1 ± ze−x2 0 2 ze−x V 4 Z∞ 2 √ dx x N = λ3 π 0 1 ± ze−x2 Z ∞ h i V 4 2 dx x2 ln 1 ± ze−x , P V = ∓ 3 √ kT λ π 0 U = (7.34) (7.35) (7.36) dove abbiamo aggiunto anche l’equazione per il granpotenziale. In questa forma possiamo sviluppare in serie di Taylor secondo le potenze di z. L’ordine più basso dello sviluppo conduce alle formule Z ∞ V 3 V 4 2 dx x4 e−x = z 3 kT, U = z 3 √ kT λ π λ 2 0 Z ∞ V 4 V 2 N = z 3√ dx x2 e−x = z 3 , λ π 0 λ Z ∞ V 4 V 2 P V = z 3 √ kT dx x2 e−x = z 3 kT , λ π λ 0 (7.37) (7.38) (7.39) che riproducono i risultati dell’ensemble grancanonico classico. Considerando gli ordini successivi in z si possono ottenere le correzioni quantistiche al risultato classico. Gli integrali che appaiono nelle (7.37-7.39) si ottengono osservando che ! Z ∞ 1 l+1 l −x2 dx x e = Γ . (7.40) 2 2 0 58 CAPITOLO 7. LA MECCANICA STATISTICA QUANTISTICA Capitolo 8 Il metodo della distribuzione più probabile Secondo il metodo dell’ensemble statistico di Gibbs, il valore di un osservabile termodinamico per un dato stato macroscopico del sistema in studio è dato da un valor medio preso su una funzione di distribuzione definita nello spazio delle fasi Γ del sistema stesso. Quando il numero delle particelle costituenti il sistema è grande, cioè quando siamo nel limite termodinamico, le fluttuazioni rispetto al valor medio sono piccole. Ciò significa che la distribuzione deve essere molto piccata intorno al valore massimo, che sarebbe il valore più probabile. In questa situazione il contributo più importante al valor medio dell’osservabile deve essere dovuto al valore più probabile. Tutto ciò suggerisce che i risultati ottenuti con il metodo della media sull’ensemble possano essere ottenuti in modo più generale considerando il valore più probabile. Tale tipo di analisi costituisce il metodo della distribuzione più probabile. 8.1 Il caso classico Consideriamo lo spazio delle fasi di singola particella, normalmente indicato come spazio µ. Seguendo Boltzmann, dividiamo tale spazio in celle, che indichiamo con un indice i = 1, . . . , K, dove K può anche tendere all’infinito. Indichiamo con Gi il numero di stati di singola particella all’interno della cella i-esima. Sia i l’energia media di singola particella relativa alla cella i-esima. Lo stato macroscopico del gas è completamente caratterizzato assegnando i numeri di occupazione Ni ad ogni cella. Uno stato microscopico o microstato corrisponde ad una particolare distribuzione delle particelle nelle celle e negli stati. È evidente che microstati diversi possono dare luogo allo stesso insieme di numeri di occupazione e quindi allo stesso macrostato. Il peso statistico di 59 60CAPITOLO 8. IL METODO DELLA DISTRIBUZIONE PIÙ PROBABILE un macrostato è quindi dato dal numero di microstati compatibili con esso. Nel rispetto dei vincoli riguardo al numero totale di particelle e all’energia totale K X Ni = N (8.1) Ni i = E, (8.2) i=1 K X i=1 il problema è di determinare il peso statistico di uno stato macroscopico del gas. Ad esempio, se K = 2 e N = 2 particelle con G1 = G2 = 1, abbiamo 3 possibili insiemi di numeri di occupazione: (N1 = 2, N2 = 0), (N1 = 1, N2 = 1), (N1 = 0, N2 = 2). Ovviamente il secondo insieme ha maggior peso statistico potendo essere realizzato in due modi, che corrispondono a scegliere quale delle due particelle debba andare in una data cella. Notiamo, di passaggio, che in tale conteggio è importante tener conto della distinguibilità delle particelle. Infatti è proprio la distinguibilità che ci permette di dire quale particella è andata in una data cella. Indichiamo con Wi il numero di modi in cui possiamo distribuire Ni particelle negli Gi stati della cella i-esima. Se le particelle sono indipendenti, ogni particella ha quindi Gi modi diversi di essere assegnata alla cella i-esima. Ciò significa che in totale i ci sono GN i modi di assegnare le Ni particelle alla cella i-esima. Anche qui stiamo usando il fatto che le particelle sono distinguibili in quanto calcoliamo il numero di stati in cui ciascuna di esse può andare indipendentemente da cosa fanno le altre particelle. Se indichiamo con Wi il peso associato ad una data cella, il peso complessivo dovrebbe essere il prodotto dei pesi di ogni cella, cioè W = K Y i=1 Wi = K Y i GN i . i=1 Tale formula però sottostima il peso complessivo totale. Infatti, proprio perchè le particelle sono distinguibili, esistono diversi modi (microscopici) di mettere N1 particelle nella cella 1, N2 nella 2, etc. Precisamente esistono N !/(N1 ! . . . NK !) modi di ripartire N oggetti identici (ma distinguibili) in K gruppi composti di N1 , N2 , . . ., oggetti. Allora la formula per il peso complessivo diventa K i Y GN i . (8.3) W = N! i=1 Ni ! Il problema è quindi di determinare l’insieme {Ni } che rende massimo W compatibilmente con i vincoli (8.1-8.2). Più precisamente associamo l’entro- 8.2. BOSONI 61 pia al logaritmo del peso complessivo W S = k ln W, (8.4) in modo che la condizione di equilibrio corrisponda al massimo dell’entropia. Utilizziamo il metodo dei moltiplicatori di Lagrange. Vogliamo determinare le condizioni di estremo per la quantità GNi ln N ! i + λi Ni + µNi − λE − µN, Ni ! K X # " i=1 (8.5) dove µ e λ sono moltiplicatori di Lagrange per i vincoli (8.1) e (8.2), rispettivamente. Usando la formula di Stirling otteniamo δNi [ln Gi − ln Ni − 1 + λi + µ] = 0. (8.6) Se a questo punto introduciamo i numeri medi di occupazione di ogni cella ni = Ni , Gi (8.7) la condizione di estremo diventa ln ni = λi + µ − 1, (8.8) in modo che la funzione di distribuzione acquista la forma di MaxwellBoltzmann ni = e1−µ eλi . (8.9) I moltiplicatori λ e µ devono essere determinati imponendo i vincoli (8.1-8.2) K X Gi e1−µ eλi = N, (8.10) Gi e1−µ eλi i = E. (8.11) i=1 K X i=1 8.2 Bosoni Secondo la meccanica quantistica le particelle sono indistinguibili. Nel caso classico il conteggio dei modi di ripartire Ni particelle in Gi stati era basato sul fatto che per ogni data particella, distinguibile dalle altre (anche se identica), potevamo scegliere in quale stato metterla. Adesso con particelle indistinguibili possiamo solo dire se in un dato stato ci sono particelle e quante 62CAPITOLO 8. IL METODO DELLA DISTRIBUZIONE PIÙ PROBABILE ce ne sono. Nel caso dei bosoni non ci sono limitazioni al numero di particelle che possono trovarsi in un dato stato. Una particolare configurazione può essere rappresentata come nel caso particolare riportato sotto. • • | • • • || • | • • • •||• Le barre verticali rappresentano le divisioni tra uno stato ed un altro. Con Gi stati, abbiamo bisogno di Gi − 1 barre verticali. Nell’esempio si ha Gi = 7 e Ni = 11. I punti neri indicano le particelle. Nel primo stato della cella i-esima ci sono 2 particelle, 3 nel secondo, 0 nel terzo, etc. Fissato il numero di particelle e di stati, una diversa configurazione corrisponde ad una diversa permutazione dell’insieme delle barre e dei punti neri. La domanda che dobbiamo porci è di determinare il numero di modi di disporre Gi − 1 + Ni oggetti, di cui Gi − 1 di un tipo e Ni di un altro tipo. L’analisi combinatoria immediatamente conduce a W = K Y i=1 Wi = K Y (Gi − 1 + Ni )! . i=1 Ni !(Gi − 1)! (8.12) Notiamo che ora il peso complessivo può essere scritto come un prodotto dei pesi relativi alle singole celle. Infatti, essendo le particelle indistinguibili, c’è un solo modo di assegnare N1 particelle alla prima cella, N2 alla seconda e via fino a NK alla cella K-esima. È utile vedere come il limite classico emerge dalla formula dovuta al conteggio quantistico. Il comportamento classico si applica a sistemi diluiti ad alta temperatura e bassa pressione. Ciò significa che in media in ogni cella il numero di particelle presenti è piccolo rispetto al numero di stati Ni Gi . (8.13) In quest’ipotesi otteniamo (Gi − 1 + Ni )! i = Gi (Gi + 1) . . . (Gi − 1 + Ni ) ≈ Gi Gi . . . Gi = GN i , (8.14) (Gi − 1)! e se inseriamo tale risultato nella (8.12) riproduciamo il risultato classico della (8.3). Per determinare la funzione di disribuzione, procediamo come nel caso classico. La variazione rispetto ai numeri di occupazione produce δNi [ln(Gi − 1 + Ni ) − ln Ni − 1 + λi + µ] = 0. (8.15) La funzione di distribuzione assume allora la forma di Bose-Einstein Gi − 1 1 ni = . (8.16) −λ +µ−1 Gi e i −1 8.3. FERMIONI 8.3 63 Fermioni Nel caso dei fermioni, oltre al carattere quantistico dell’indistinguibilità dobbiamo aggiungere l’osservanza del principio di esclusione di Pauli in base al quale uno stato può essere occupato al massimo da una sola particella. Ciò significa che il numero di particelle Ni deve essere inferiore o uguale al numero di stati Gi . Una qualsiasi distribuzione consisterà nel fatto che alcuni stati sono occupati, mentre gli altri sono vuoti. Il problema combinatorio diventa allora quello di scegliere quali sono gli stati occupati. Naturalmente gli stati occupati sono in numero di Ni . Allora il numero di modi di ripartire Ni particelle in Gi stati diventa quello di determinare il numero di modi di scegliere Ni oggetti in un insieme di Gi oggetti. Tale numero è determinato dal coefficiente binomiale e conduce alla W = K Y Wi = i=1 K Y Gi ! . i=1 Ni !(Gi − Ni )! (8.17) Il limite classico si ottiene in modo identico al caso dei bosoni. Osserviamo che Gi ! i = (Gi − Ni + 1) (Gi − Ni + 2) . . . Gi ≈ Gi Gi . . . Gi = GN i , (8.18) (Gi − Ni )! che inserita nella (8.17), riproduce la (8.3). Per determinare la funzione di disribuzione, procediamo nuovamente come nel caso classico. La variazione rispetto ai numeri di occupazione produce δNi [ln(Gi − Ni ) − ln Ni − 1 + λi + µ] = 0. (8.19) La funzione di distribuzione assume allora la forma di Fermi-Dirac ni = 8.4 1 e−λi +µ−1 +1 . (8.20) A proposito del corretto conteggio di Boltzmann È utile alla fine di questo capitolo ridiscutere il cosidetto corretto conteggio di Boltzmann anche alla luce dei risultati quantistici. Cominciamo coll’osservare che la divisione di una cella in Gi stati può essere un’aprossimazione dal punto di vista classico: divido lo spazio delle fasi Γ in regioni elementari. Dal punto di vista quantistico, invece, si ragiona proprio in termini di stati. 64CAPITOLO 8. IL METODO DELLA DISTRIBUZIONE PIÙ PROBABILE Il fatto notevole è quello di poter usare lo stesso linguaggio nei due contesti classico e quantistico in modo da poter concentrare il ragionamento sugli aspetti squisitamente probabilistici. Come ci ha insegnato la (8.12) nel caso del gas di Bose, il numero di modi di di assegnare Ni particelle a Gi stati è (Gi − 1 + Ni )! , Ni !(Gi − 1)! che nel limite classico diventa i GN i , Ni ! i cioè il valore classico GN i diviso per Ni !. Infatti il conteggio classico, a causa della distinguibilità delle particelle, sovrastima il numero dei possibili modi di ripartire Ni particelle in Gi stati. Allora l’affermazione che spesso si trova nei libri che è necessario dividere il conteggio classico per N ! al fine di ottenere il risultato corretto è naturalmente corretta. Facciamo un esempio. Consideriamo di avere 2 particelle che vogliamo dividere in 2 stati. Classicamente abbiamo 22 = 4 modi di fare questo. Infatti possiamo mettere entrambe le particelle in uno stato, oppure possiamo metterle entrambe nell’altro stato. Finora abbiamo due modi. Poi possiamo mettere una particella per stato. Ma ci sono due modi di farlo in quanto dobbiamo scegliere quale particella si trova in un dato stato. Otteniamo quindi quattro modi come deve essere. In meccanica quantistica la situazione in cui abbiamo una particella per stato conta per un solo modo in quanto, a causa dell’indistinguibilità, non ha senso di stabilire quale particella si trova in un dato stato. Abbiamo quindi in totale 3 modi in accordo con la formula (2 − 1 + 2)! = 3. 2!(2 − 1)! C’è ancora un punto da chiarire. La formula classica (8.3) contiene il corretto Ni ! a denominatore, pur senza aver fatto alcun ragionamento quantistico. Ciò non è in contraddizione con quanto discusso finora. Infatti il fattore Ni ! che compare nella (8.3) non origina da un conteggio relativo alla sola cella i-esima, ma discende dal fatto di considerare la ripartizione complessiva tra tutte le K celle. Tale ripartizione, come già indicato, implica la necessità di specificare chi sono le Ni particelle, distinte fra tutte le N , che i sono assegnate alla cella i-esima. Se indichiamo con ωi,c = GN i il conteggio classico dei modi relativo ad una data cella, abbiamo che il corrispondente conteggio quantistico soddisfa la relazione ωi,q = ωi,c , Ni ! 8.4. A PROPOSITO DEL CORRETTO CONTEGGIO DI BOLTZMANN65 come abbiamo avuto modo di sottolineare. Supponiamo ora per semplicità di avere solo due celle, cioè K = 2. Allora classicamente il peso complessivo classico è N! ω1,c ω2,c . Wc = N1 !N2 ! Il peso complessivo quantistico è invece Wq = ω1,q ω2,q = ω1,c ω2,c . N1 ! N2 ! Quindi il peso complessivo quantistico si relaziona a quello classico nello stesso modo in cui si relazionano i pesi relativi alle singole celle. La richiesta di estensività implica che il peso comlessivo debba essere scelto come prodotto dei pesi delle singole celle. Nel caso quantistico, tale proprietà appare in modo naturale. 66CAPITOLO 8. IL METODO DELLA DISTRIBUZIONE PIÙ PROBABILE Capitolo 9 Il gas di Fermi In questo capitolo ci occupiamo del gas di Fermi non relativistico, cioè un sistema di fermioni non interagenti aventi la legge di dispersione di una particella libera non relativistica p = p2 /2m, dove m è la massa della particella. I fermioni sono all’interno di un volume V . Questo sistema oltre naturalmente ad essere un esempio semplice di applicazione della statistica di Fermi-Dirac, rappresenta un modello per gli elettroni di conduzione nei metalli. Gli elettroni hanno spin 1/2 in modo che ogni stato individuato dai numeri quantici dell’impulso può essere occupato da due elettroni con spin opposto. Indichiamo con gs = 2 la degenerazione di spin. Il punto di partenza sono le espressioni per l’energia ed il numero di particelle (7.27-7.28) p V Z 3 d p (2πh̄)3 R3 eβ(p −µ) + 1 Z V 1 N = gs d3 p β(p −µ) . 3 (2πh̄) R3 e +1 U = gs (9.1) (9.2) È utile introdurre la cosidetta densità degli stati definita nel modo seguente ν(E) = gs V Z d3 p δ(E − p ). (2πh̄)3 R3 (9.3) In termini della densità degli stati gli integrali nelle espressioni dell’energia e del numero di particelle possono essere riscritti nella forma U = N = Z ∞ −∞ Z ∞ dE ν(E) dE ν(E) −∞ 67 E eβ(E−µ) 1 eβ(E−µ) (9.4) +1 +1 . (9.5) 68 9.1 CAPITOLO 9. IL GAS DI FERMI Lo stato fondamentale Poiché i fermioni devono soddisfare al principio di esclusione di Pauli, lo stato fondamentale a T = 0 deve consistere nell’occupazione di tutti gli stati a partire da quello ed energia più bassa sino all’esaurimento delle particelle. Vediamo come questo accade nelle formule (9.4-9.5). A temperatura nulla la funzione di distribuzione di Fermi-Dirac diventa una funzione a gradino o funzione θ di Heavside 1 = θ(µ − E) (9.6) lim β(E−µ) β→∞ e +1 in modo che gli integrali delle (9.4-9.5) diventano U = N = Z EF −∞ Z EF dE ν(E) E (9.7) dE ν(E) , (9.8) −∞ dove EF = µ(T = 0) è detta energia di Fermi e corrisponde al valore del potenziale chimico a temperatura nulla. La densità degli stati della (9.3) può essere calcolata esplicitamente usando il fatto che l’energia dipende solo dall’impulso e si può risolvere l’integrale mediante il cambio di coordinate √ √ p2 = , p2 dp = 2m3/2 2m in modo che si ottiene √ V 3/2 (2m) E, E > 0 (2πh̄)3 ν(E) = 0, E < 0 ν(E) = 2πgs (9.9) Usando la forma esplicita (9.9), gli integrali (9.7-9.8) diventano molto semplici e danno V 2 3/2 2 5/2 (2m) E = ν(EF )EF2 , F (2πh̄)3 5 5 V 2 3/2 2 (2m)3/2 EF = ν(EF )EF , N = 2πgs 3 (2πh̄) 3 3 U = 2πgs (9.10) (9.11) dove abbiamo introdotto la densità degli stati al livello di Fermi ν(EF ). Dividendo membro a membro le due equazioni di sopra otteniamo l’energia in funzione del numero di particelle 3 3 U = N EF ≡ N kTF , 5 5 (9.12) 9.2. REGIME DI BASSE TEMPERATURE E SVILUPPO DI SOMMERFELD69 dove TF è detta temperatura di Fermi. Dalla (9.11), l’energia di Fermi è dell’ordine EF ∼ (N/V )2/3 h̄2 /m. Usando h̄ ∼ 10−27 erg s, N/V ∼ 1022 cm−3 , m ∼ 10−27 g, si ottiene EF ∼ 10−12 erg, cioè EF ∼ 1 eV. La temperatura di Fermi è dunque dell’ordine TF ∼ 104 K. Se confrontiamo la (9.12) con l’espressione dell’energia di un gas perfetto classico 3 U = N kT, 2 vediamo che a temperatura ambiente (∼ 300K) l’energia classica è molto più piccola dell’energia dello stato fondamentale di elettroni. Dunque a temperatura ambiente un gas di elettroni si trova in uno stato che differisce poco da quello a temperatura nulla. In questa situazione si dice che il gas di elettroni si trova in regime di degenerazione. La temperatura di Fermi è detta anche temperatura di degenerazione e discrimina il regime di basse ed alte temperature per il gas di elettroni. A temperature alte, T TF il gas di elettroni tende al comportamento di un gas classico, mentre a basse temperature T TF esibisce il comportamento quantistico. 9.2 Regime di basse temperature e sviluppo di Sommerfeld Vogliamo adesso indagare più esplicitamente il regime delle basse temperature. A tal fine riscriviamo le (9.4-9.5) operando il cambio di variabile E = µ + kT x. (9.13) Arriviamio allora alle equazioni seguenti Z ∞ (x + µ/kT )3/2 V 3/2 5/2 (2m) (kT ) dx U = 2πgs (2πh̄)3 ex + 1 −µ/kT Z ∞ V (x + µ/kT )1/2 3/2 3/2 N = 2πgs (2m) (kT ) dx . (2πh̄)3 ex + 1 −µ/kT (9.14) (9.15) Entrambi gli integrali hanno la stessa forma e possono essere integrati per parti Z ∞ −µ/kT dx Z ∞ (x + µ/kT )n 1 (x + µ/kT )n+1 ∞ (x + µ/kT )n+1 ex = | + dx −µ/kT ex + 1 n+1 ex + 1 (n + 1)(ex + 1)2 −µ/kT (9.16) 70 CAPITOLO 9. IL GAS DI FERMI ed è facile verificare che il primo termine a membro di destra è nullo. Per risolvere il restante integrale, osserviamo che la funzione ex 1 = x x 2 (e + 1) (e + 1)(e−x + 1) è pari in x e fortemente piccata intorno al valore x = 0. Ciò suggerisce di sviluppare in serie di Taylor la funzione (x+µ/kT )n che varia più lentamente intorno al valore x = 0. Abbiamo n+1 (µ/kT + x) n+1 ≈ 1 µ n + 1 kT n+1 1 + (n + 1) kT n(n + 1) x+ µ 2 kT µ !2 x2 + . . . . (9.17) A questo punto è conveniente approssimare l’estremo inferiore dell’integrale con −∞. Fisicamente ciò corrisponde alla condizione µ/kT 1. Poichè ancora non abbiamo calcolato µ(T ), tale condizione deve essere verificata a posteriori. L’integrale corrispondente al termine di ordine zero si integra facilmente Z ∞ 1 ∞ ex =− | = 1, (9.18) dx x 2 (e + 1) 1 + ex −∞ −∞ mentre quello di ordine uno si annulla per la simmetria della funzione integranda Z ∞ xex = 0. (9.19) dx x (e + 1)2 −∞ L’integrale del termine di ordine due richiede alcune manipolazioni Z ∞ −∞ dx Z ∞ x2 ex x2 ex dx = 2 (ex + 1)2 (ex + 1)2 0 Z ∞ x dx x = 4 e +1 0 = 4 ∞ X (−1)n n=0 ∞ X Z ∞ dx xe−(n+1)x 0 (−1)n Z ∞ = 4 ds se−s 2 0 n=0 (n + 1) = 4 ∞ X (−1)n+1 n2 n=1 "∞ X ∞ X 1 1 = −4 − 2 2 n=1 (2n) n=0 (2n + 1) ∞ 1 1 X 1 = −4 − 1− 4 4 n=1 n2 = π2 . 3 # (9.20) 9.2. REGIME DI BASSE TEMPERATURE E SVILUPPO DI SOMMERFELD71 Possiamo allora scrivere V 15π 2 3/2 2 5/2 U = 2πgs µ 1 + (2m) (2πh̄)3 5 24 kT µ V 3π 2 3/2 2 3/2 N = 2πgs µ 1 + (2m) (2πh̄)3 3 24 kT µ !2 (9.21) !2 , (9.22) che sono accurate sino a termini dell’ordine T 2 . In queste equazioni il potenziale chimico dipende dalla temperatura e queste equazioni permettono di derivarne la dipendenza (ovviamente con accuratezza T 2 ). Ponendo T = 0 ed identificando µ(T = 0) = EF ritroviamo le (9.10-9.11). Nella (9.22) sostituiamo il numero di particelle con l’espressione (9.11) ed otteniamo 3/2 µ3/2 = EF − 3π 2 (kT )2 . 24 µ1/2 (9.23) Il secondo termine amembro di destra è già di ordine T 2 , quindi possiamo sostituire µ(T ) a denominatore con il valore a T = 0, cioè EF . Otteniamo allora #2/3 " " # 3π 2 (kT )2 π 2 (kT )2 3/2 ≈ EF 1 − µ = EF − . (9.24) 24 EF1/2 12 EF2 Questa equazione rappresenta l’andamento del potenziale chimico in funzione della temperatura in regime di basse temperature. Notiamo che la correzione è negativa come ci aspettiamo, in quanto ad alte temperature il potenziale chimico deve tendere a meno infinito. Quello che ci resta da fare è inserire la (9.24) nella (9.21) per ottenere l’espressione dell’energia 15π 2 V 3/2 2 5/2 (2m) µ 1 + U = 2πgs (2πh̄)3 5 24 kT µ !2 π 2 (kT )2 V 3/2 2 5/2 (2m) ≈ 2πgs (E ) 1 − F (2πh̄)3 5 12 EF2 " V 5π 2 3/2 2 5/2 ≈ 2πgs (2m) (E ) 1 + F (2πh̄)3 5 12 = U (T = 0) + π2 ν(EF )(kT )2 . 6 #5/2 kT EF 15π 2 1 + 24 kT EF !2 !2 (9.25) Poiché la densità degli stati dipende dal volume e dal numero di particelle (attraverso l’energia di Fermi), la (9.25) permette di calcolare il calore 72 CAPITOLO 9. IL GAS DI FERMI specifico a volume e numero di particelle costanti cV = ∂U ∂T ! = V,N π2 ν(EF )k 2 T. 3 (9.26) Usando la (9.11) possiamo riscrivere il calore specifico nel modo suggestivo seguente π2 T π 2 kT Nk = N k. (9.27) cV = 2 EF 2 TF Vediamo che solo quando T ∼ TF l’espressione per il calore specifico tende a quella del gas perfetto classico. Il fattore T /TF rappresenta la frazione di elettroni che sono eccitabili alla temperatura T . Infatti a temperature basse la funzione di distribuzione di Fermi-Dirac assomoglia ad un gradino smussato dove l’estensione dello smussamento è dell’ordine della temperatura. Capitolo 10 Il gas di Bose 10.1 La condensazione di Bose-Einstein In questo capitolo studiamo un gas di bosoni non relativistico con spettro di energia quadratico nell’impulso p = p2 /2m. Esattamente come nel caso del gas di fermioni, il punto di partenza sono le espressioni per l’energia ed il numero di particelle (7.27-7.28) p V Z 3 d p (2πh̄)3 R3 eβ(p −µ) − 1 Z V 1 N = d3 p β(p −µ) , 3 (2πh̄) R3 e −1 U = (10.1) (10.2) dove a differenza del caso dei fermioni non appare nessun fattore di degenerazione in quanto stiamo considerando per semplicità bosoni di spin zero. La forma della densità degli stati è naturalmente simile al caso fermionico V Z d3 p δ(E − p ) (2πh̄)3 R3 √ V (2m)3/2 E = 2π 3 (2πh̄) ν(E) = (10.3) In termini della densità degli stati gli integrali nelle espressioni dell’energia e del numero di particelle possono essere riscritti nella forma U = Z ∞ dE ν(E) 0 N = Z ∞ dE ν(E) 0 E eβ(E−µ) 1 eβ(E−µ) (10.4) −1 −1 . (10.5) Esprimendo il potenziale chimico in termini della fugacità z = eβµ ed operando un cambio di variabile nell’integrale dell’espressione (10.5) per il numero 73 74 CAPITOLO 10. IL GAS DI BOSE di particelle, otteniamo N= Z ∞ 0 √ Z ∞ xz ν(E)z V 3/2 3/2 = 2π . dE βE (2m) (kT ) dx x 3 e −z (2πh̄) e −z 0 (10.6) Come abbiamo discusso in precedenza (cf. 7.34), nel limite classico la fugacità tende a zero, poiché µ → −∞. Nell’espressione (10.6) la dipendenza dalla temperatura proviene quindi, oltre che dal fattore T 3/2 , dalla funzione z(T ). La dipendenza della fugacità dalla temperatura è determinata dal fatto che deve compensare la dipendenza del fattore T 3/2 in modo che resti costante il numero di particelle. Uno sguardo all’integrale che appare nella (10.6) mostra che fintanto che z < 1, l’integrale è ben definito. Allora la condizione sulla fugacità 0 < z < 1 implica che il potenziale chimico deve tendere a zero nel regime quantistico. Il punto cruciale è a quale temperatura il potenziale chimico raggiunge il valore zero. Notiamo che al diminuire della temperatura, la diminuzione del fattore T 3/2 deve essere compensata da un aumento dell’integrale dovuto a sua volta da un aumento dell’integrando. Ciò accade a causa della diminuzione del denominatore ex − z al crescere di z. Ponendo z = 1 nella (10.6) troviamo il valore della temperatura T0 a cui ciò avviene √ Z ∞ x V 3/2 3/2 (2m) (kT0 ) dx x . (10.7) N = 2π 3 (2πh̄) e −1 0 Utilizzando i risultati (10.34-10.39) per il calcolo degli integrali, la temperatura T0 è data da 1 N (2πh̄)3 T0 = 2mk V 2πΓ(3/2)ζ(3/2) " #2/3 . (10.8) Il significato fisico di questa temperatura può essere reso più trasparente ricordando la definizione della lunghezza d’onda termica (cf. (7.31)) λ= 2πh̄ . (2πmkT )1/2 Infatti se indichiamo con λ0 il valore della lunghezza d’onda termica alla temperatura T0 , la condizione (10.8) corrisponde al fatto che la lunghezza d’onda termica è circa uguale alla distanza media tra le particelle l (cf. (7.32)) λ0 = (ζ(3/2))1/3 l ≈ 1.377l. (10.9) Cosa accade per T < T0 ? Poiché z resta uguale a uno come richiesto dalla convergenza dell’integrale, l’espressione (10.6) implica, per T < T0 , un numero di particelle più piccolo. Ciò naturalmente non può essere in quanto 10.1. LA CONDENSAZIONE DI BOSE-EINSTEIN 75 il numero di particelle è costante. Quest’apparente contraddizione si risolve osservando che l’integrale sugli impulsi con cui approssimiamo la somma sui valori discreti dell’impulso in un volume finito V sottostima il numero di particelle che si trovano nello stato ad impulso nullo. Infatti uno sguardo alla densità degli stati (10.3) mostra che tende a zero quando l’energia tende a zero. Fintanto che l’occupazione dello stato con energia zero è limitata ad un numero finito di particelle, il trascurarla non implica un errore importante. Al diminuire della temperatura quando il numero di particelle che si trovano nello stato di minima energia aumenta, l’occupazione di tale stato diventa rilevante nel limite termodinamico. In altre parole se indichiamo con N0 il numero di particelle nello stato ad energia zero (e quindi ad impulso zero) allora, per T < T0 il rapporto N0 /N tende ad un valore dell’ordine dell’unità. In questo caso si dice che l’occupazione dello stato ad impulso nullo è macroscopica, in quanto il numero di particelle in questo stato è dello stesso ordine del numero di particelle totale. Il corretto modo di procedere, quindi, nel passaggio dalla somma all’integrale, è di separare l’occupazione dello stato ad impulso nullo da tutte le altre X = p X p=0 + X . p6=0 L’integrale tiene conto solo del secondo termine a membro di destra. Per T > T0 , quando l’occupazione dello stato ad impulso nullo è dello stesso ordine di tutte le altre occupazioni, il trascurarla implica un errore dell’ordine 1/N che diventa trascurabile nel limite termodinamico. Per T < T0 possiamo quindi scrivere il numero di particelle come la somma di due termini: il primo corrispondente alle particelle nello stato ad impulso nullo ed il secondo corrispondente alle particelle in tutti gli altri stati √ Z ∞ x V 3/2 3/2 (2m) T dx x N = N0 + 2π 3 (2πh̄) e −1 0 √ 3/2 Z ∞ V x T 3/2 3/2 2π (2m) T0 dx x = N0 + 3 T0 (2πh̄) e −1 0 = N0 + N T T0 3/2 . (10.10) Si dice che le particelle che si accumulano nello stato ad impulso nullo condensano e tale fenomeno di accumulo viene chiamato condensazione di BoseEinstein. Tale fenomeno di condensazione ha le modalità di una transizione di fase con temperatura di transizione T0 . Un accumulo macroscopico nello stato ad impulso nullo è detto condensato. La frazione di particelle nel condensato gioca un ruolo simile alla magnetizzazione in una transizione dallo 76 CAPITOLO 10. IL GAS DI BOSE stato paramagnetico a quello ferromagnetico con N0 = N 0 ( 1− T T0 , T > T0 3/2 , T < T0 . (10.11) Per mettere in evidenza il comportamento termodinamico alla transizione calcoliamo la pressione del gas di bosoni. Più avanti nel capitolo richiamiamo la trattazione standard di una transizione di fase. Usando le relazioni (7.347.36), otteniamo ∂P V V = kT N = kT 3 g3/2 (z), (10.12) z ∂z λ ed usando la proprietà (10.39) (vedi oltre nel capitolo) si ha ( P = (kT /λ3 )g5/2 (z) , T > T0 (kT /λ3 )g5/2 (1) , T < T0 , (10.13) dove si è usato il fatto che z = 1 per T < T0 . Notiamo che per avere l’equazione di stato, per T > T0 , dobbiamo eliminare z dalle due equazioni kT g5/2 (z) λ3 V N = g3/2 (z). λ3 P = (10.14) (10.15) Alla coesistenza delle due fasi, dobbiamo avere necessariamente z = 1 affinché ci siano particelle nel condensato. Ponendo z = 1 nella (10.14) si ottiene la curva di coesistenza P (T ) nel diagramma di fase. Considerando la derivata rispetto a T otteniamo ∂P ∂T ! 5 1 = k 3 g5/2 (1). 2 λ (10.16) Per interpretare il significato di quest’equazione, ricordiamo che la curva di coesistenza di una transizione di fase deve soddisfare l’equazione di Clapeyron (cf. eq.(10.33) nel paragrafo seguente) ∂P ∂T ! = sn − sc , vn − vc (10.17) dove con sn , vn e sc , vc indichiamo entropia e volume specifico (per particella) nelle fasi normale e condensata, rispettivamente. Per vedere la compatibilità delle due equazioni (10.16-10.17), calcoliamo l’entropia. Per ciò abbiamo 10.1. LA CONDENSAZIONE DI BOSE-EINSTEIN 77 bisogno dell’energia libera di Helmoltz F , che otteniamo da quella di Gibbs mediante la nota relazione F = G − P V = N µ − P V = N kT ln z − P V, (10.18) dove abbiamo espresso il potenziale chimico in termini della fugacità. L’entropia risulta allora dalla derivazione rispetto alla temperatura, sia dove appare in modo esplicito sia attraverso la dipendenza tramite z S = −N k ln z + V dg5/2 (z) dz 1 dz 5V + kT 3 . kg5/2 (z) − N kT 3 2λ z dT λ dz dT (10.19) Usando nuovamente la (10.39) vediamo che vale la relazione kT V dg5/2 (z) V 1 1 = kT g (z) = N kT 3/2 λ3 dz λ3 z z (10.20) che permette di semplificare notevolmente la (10.19) e di riscrivere in entrambi gli intervalli di temperatura ( S= −N k ln z + 52 λV3 kg5/2 (z) , T > T0 5 V kg5/2 (1) , T < T0 . 2 λ3 (10.21) Osserviamo che l’entropia per T < T0 può essere riscritta nella forma S= 5V 5 λ30 g5/2 (1) kg (1) = N k , 5/2 2 λ3 2 λ3 g3/2 (1) (10.22) dove abbiamo usato N = (V /λ30 )g3/2 (1). Esprimendo le lunghezze d’onda termica in funzione della temperatura, l’entropia acquista la forma suggestiva S 5 g5/2 (1) T = k N 2 g3/2 (1) T0 3/2 5 g5/2 (1) N − N0 = k , 2 g3/2 (1) N (10.23) che mostra come l’entropia, per T < T0 sia dovuta solo al contributo delle particelle fuori del condensato. Si ha quindi 5 g5/2 (1) sc = 0, sn = k . 2 g3/2 (1) (10.24) Se confrontiamo quest’ultima equazione con la (10.16), otteniamo la differenza dei volumi specifici delle fasi normale e condensata vn − vc = λ3 . g3/2 (1) (10.25) 78 CAPITOLO 10. IL GAS DI BOSE Ma per z = 1, la quantità a membro di destra coincide con il volume specifico della fase normale e quindi si deduce che vc = 0. Calcoliamo infine il calore specifico. Per T < T0 , dalla (10.21) otteniamo 3 T cV = s n 2 T0 3/2 →T →T0 3 sn . 2 (10.26) Per T > T0 otteniamo invece " # 5 g5/2 (z) T dz 3 + . cV = N k 2 2 g3/2 (z) z dT (10.27) Per valutare la derivata di z rispetto a T , deriviamo la (10.15) rispetto a T T dz 3 g3/2 (z) =− . z dT 2 g1/2 (z) (10.28) Ora quando z = 1, g1/2 (z) tende all’infinito e il secondo termine in parentesi quadra a membro di destra della (10.27) si annulla. Il calore specifico è continuo alla transizione. Ad alte temperature nel limite classico z → 0 e possiamo usare gl (z) ≈ z. Il termine in parentesi quadra a membro destro della (10.27) tende a uno e si ottiene il risultato classico, come deve essere. 10.2 Equazione di Clapeyron Al fine di rendere più trasparente il comportamento termodinamico della condensazione di Bose-Einstein, richiamiamo la trattazione di una transizione di fase tipo liquido-vapore. Scriviamo l’energia libera di Gibbs come la somma delle energie libere delle fasi liquida e vapore G = Nl µl + Nv µv . (10.29) Alla coesistenza delle due fasi, la condizione di equilibrio termodinamico, implica che l’energia libera G deve essere un minimo. Poiché, a temperatura e pressione costanti, l’unico grado di libertà in gioco è il numero di particelle in ciascuna fase, possiamo scrivere la condizione di estremo dNl (µl − µv ) = 0, (10.30) 10.3. ALCUNE UTILI RELAZIONI 79 dove si è usata la conservazione del numero totale di particelle Nl + Nv = N . In termini dei potenziali chimici delle due fasi, definiamo le entropie e volumi specifici ! ! ∂µv ∂µl , sv = − (10.31) sl = − ∂T P ∂T P e vl = ∂µl ∂P ! , vv = T ∂µv ∂P ! . (10.32) T Combinando le (10.31-10.32) e utilizzando le proprietà ben note degli jacobiani otteniamo l’espressione della curva di coesistenza nel diagramma di fase temperatura-pressione ∂(µl −µg ) ∂T P ∂(µl −µg ) ∂P T = ∂P ∂T ! = L sv − sl ∆s = , = vv − vl ∆v T ∆v (10.33) dove L è il calore latente. La (10.33), che mette in relazione la pendenza della curva di coesistenza con il rapporto delle differenze di entropie e volumi specifici è la ben nota equazione di Clapeyron. Normalmente la fase vapore ha volume ed entropia specifici maggiori della fase liquida e quindi la curva P (T ) ha pendenza positiva (l’acqua è una ben nota eccezione). Notiamo infine che una transizione tra due fasi con volumi ed entropie specifici diversi è detta del primo ordine in quanto le derivate prime dell’energia libera sono discontinue. 10.3 Alcune utili relazioni Gli integrali che si incontrano nella teoria del gas di Bose si risolvono sviluppando in serie di potenze l’integrando e integrando termine a termine. Lo sviluppo in serie sfrutta la serie geometrica con ragione e−x . Si ha Z ∞ 0 √ dx Z ∞ ∞ X √ xz n+1 = dx xe−(n+1)x z x e −z 0 n=0 Z ∞ ∞ X zn √ −s = ds se 3/2 0 n=1 n ∞ X zn = Γ(3/2) 3/2 n=1 n ≡ Γ(3/2)g3/2 (z), (10.34) 80 CAPITOLO 10. IL GAS DI BOSE dove incontriamo nuovamente la funzione Gamma e introduciamo la nuova funzione gl (z). In modo analogo si ha Z ∞ 0 dx x3/2 z = Γ(5/2)g5/2 (z). ex − z Ricordiamo alcuni valori della funzione Gamma √ √ 3 π π Γ(3/2) = , Γ(5/2) = . 2 4 (10.35) (10.36) Quando z = 1, la funzione gl (z) si riduce alla funzione Zeta di Riemann gl (1) = ∞ X 1 = ζ(l). l n=1 n (10.37) Valori approssimati rilevanti per il problema in studio sono ζ(3/2) ≈ 2.612, ζ(5/2) ≈ 1.341. (10.38) Dalla sua definizione, è facile derivare un’utile relazione per la funzione gl (z) ∂gl (z) = gl−1 (z). (10.39) z ∂z Capitolo 11 Teoria della radiazione di corpo nero 11.1 Introduzione Una delle conferme sperimentali più importanti della statistica quantistica è fornita dallo spettro di emissione della radiazione di corpo nero. Più precisamente è proprio dallo studio dei risultati sperimentali sulla radiazione di corpo nero che, storicamente, ha mosso i primi passi la teoria quantistica attraverso il lavoro di Planck del 1900. Nello studio dell’interazione tra materia e radiazione si definisce: • e = potere emissivo di un corpo = energia irraggiata da un corpo per unità di superficie e epr unità di tempo; • a = potere assorbente di un corpo = frazione di energia assorbita da un corpo per unità di superficie. In generale sia e che a dipendono dalla natura specifica di un corpo. Questa dipendenza è dovuta alla natura specifica dei costituenti elementari della materia: i nuclei carichi positivamente e gl ielettroni carichi negativamente. In seguito allo sviluppo della teoria elettromagnetica, si sapeva, nella seconda metà dell’ottocento che cariche elettriche in moto accelerato emettono radiazione e, vivecersa, un campo di radiazione perde energia compiendo lavoro sulle cariche elettriche. Benchè e ed a possono variare da corpo a corpo, il loro rapporto è una funzione universale che dipende solo dalla temperatura. Questa affermazione è un teorema dovuto a Kirchoff (1958) e si dimostra con argomenti termodinamici. Un corpo nero, per definizione, è un corpo con potere assorbente pari a uno. Tale corpo quindi assorbe, senza riflessione e trasmissione, tutta 81 82 CAPITOLO 11. TEORIA DELLA RADIAZIONE DI CORPO NERO la radiazione incidente su di esso. Da questa definizione segue che il potere emissivo di un corpo nero è una funzione universale dipendente solo dalla temperatura. Il corpo nero cosı̀ definito è una idealizzazione a cui un determinato sistema sperimentale può avvicinarsi con una determinata precisione. La comprensione della forma della funzione universale che caratterizza il potere emissivo di un corpo nero dipende dalla conoscenza che abbiamo dei meccanismi che regolano l’interazione tra radiazione e materia. Dal punto di vista sperimentale un corpo nero può essere realizzato mediante una cavità all’interno di un corpo mantenuto ad una data temperatura. Se viene praticato un piccolo foro nelle pareti che delimitano la cavità, la radiazione incidente dall’esterno attraverso il foro subirà molte riflessioni prima che possa uscire nuovamente attraverso il foro. In tal modo se la frazione di radiazione che riesce ad uscire è minimizzata il più possibile, la cavità si trova ad avere un potere assorbente praticamente uguale a uno e il suo spettro di emissione è di fatto quello di un corpo nero. È bene a questo punto fare un quadro della situazione sperimentale e teorica alla fine dell’ottocento. 11.1.1 Situazione sperimentale La quantità in studio è la distribuzione spettrale della densità di energia della radiazione, u(ν, T ), che dipende dalla frequenza della radiazione e dalla temperatura della cavità. I fatti sperimentali rilevanti sono i seguenti: • u(ν, T ) ha un andamento non monotono con un massimo; • la frequenza del massimo dipende dalla temperatura ed aumenta all’aumentare della temperatura. 11.1.2 Situazione teorica Il tentativo di spiegazione classico è basato su argomenti termodinamici e sulle leggi dell’elettromagnetismo classico. I risultati di un’analisi classica possono essere riassunti nelle due leggi seguenti: • Legge di Stefan (1879) j = σT 4 , (11.1) dove j rappresenta l’energia irraggiata per unità di superficie ed unità di tempo e σ è una costante, detta di Stefan. • Legge di Wien (1893) u(ν, T ) = ν 3 F ν T . (11.2) 11.2. TEORIA QUANTISTICA DELLA RADIAZIONE DI CORPO NERO83 La legge di Wien è anche detta legge dello spostamento del massimo. F non può essere determinata con argomenti generali, ma bisogna utilizzare un modello specifico. Planck propose come modello un insieme di oscillatori carichi e calcolo la densità di energia della radiazione in equilibrio con questo sistema di oscillatori. Il risultato di questa analisi è la deduzione della legge sperimentale legge di Rayleigh-Jeans ν T 8πν 2 kT. (11.3) c3 Questa legge è in accordo con i dati sperimentali a piccole frequenze, ma è palesamente in disaccordo ad alte frequenze. Questo fenomeno è detto catastrofe ultravioletta. Planck trovò la legge corretta (1900) postulando che lo scambio di energia tra radiazione e materia potesse avvenire solo in quantità finite. Non riportiamo qui la derivazione di Planck, ma mostriamo la derivazione della legge di Planck come un’applicazione della statistica quantistica di Bose-Einstein al caso del gas di fotoni. u(ν, T ) = 11.2 Teoria quantistica della radiazione di corpo nero Secondo la meccanica quantistica la radiazione è descritta in termini di un gas di particelle relativistiche a massa nulla. Tali paricelle sono dette fotoni ed hanno natura bosonica. Le condizioni del gas di fotoni sono le seguenti: • la relazione di dispersione energia-impulso è = cp, dove c è la velocità delle onde elettromagnetiche; • i valori dell’impulso sono determinati dalle condizioni al bordo, p = (h/L)(nx , ny , nz ), dove il volume è quello di un cubo di lato L e gli ni (i = x, y, z) sono interi; • per valore dell’impulso esistono due stati di polarizzazione; • il numero di fotoni non è conservato e si richiede quindi µ = 0. Nel limite di volume molto grande, l’energia del gas di fotoni risulta allora d3 p cp . (11.4) h3 eβcp − 1 Per completare la derivazione occorre introdurre un’ulteriore ipotesi. Questa riguarda la connessione tra energia del fotone e la frequenza della radiazione: cp = hν ⇒ ν = . (11.5) h U (T, V ) = 2V Z 84 CAPITOLO 11. TEORIA DELLA RADIAZIONE DI CORPO NERO In tal modo l’energia diventa 8πV Z ∞ hν 3 , U (T, V ) = 3 dν βhν c e −1 0 (11.6) da cui evidentemente si ricava la densità spettrale di energia u(ν, T ) = 8πν 2 hν . c3 eβhν − 1 (11.7) A basse frequenze, βhν 1, sviluppando l’esponenziale a denominatore, si ritrova la legge di Rayleigh-Jeans della (11.3). Ad alte frequenze, βhν 1 si ottiene la legge sperimentale di Wien u(ν, T ) = 8π 3 −βhν ν e . c3 (11.8) Se deriviamo la (11.7) rispetto alla ferquenza otteniamo d ν2 ν3 = ((3 − βhν)eβhν − 3) = 0. dν eβhν − 1 (eβhν − 1)2 (11.9) Allora la frequenza a cui si annulla la derivata è data dalla condizione βhν = x, dove x soddisfa l’equazione trascendente 3 − x = 3e−x , (11.10) che ha soluzione approssimata x ≈ 2.822. Allora si ottiene la legge dello spostamento del massimo νmax = 2.822 kT . h (11.11) Vogliamo ora connettere la densità di energia con il potere emissivo del corpo nero e. Se u(ν, T ) rappresenta l’energia di radiazione in un elemento di volume, il flusso di energia irraggiato, isotropicamente, per unità di angolo solido è c u(ν, T ). (11.12) f= 4π Consideriamo la superficie di un corpo su cui incide la radiazione del corpo nero. Sia θ l’angolo tra la normale alla superficie e la direzione d’incidenza della radiazione. Il flusso di radiazione incidente sul corpo è quindi f cos(θ) = c u(ν, T ) cos(θ). 4π (11.13) 11.2. TEORIA QUANTISTICA DELLA RADIAZIONE DI CORPO NERO85 Per tener conto di tutta la radiazione incidente sul corpo dobbiamo integrare la (11.13) su metà angolo solido e si ottiene Z 2π 0 dφ Z π/2 0 c dθ cos(θ)f = u(ν, T ). 4 (11.14) Allora il potere emissivo per unità di volume del corpo nero risulta cZ∞ e= dνu(ν, T ) = σT 4 4 0 (11.15) dove σ è la costante di Stefan σ= 2π 5 k 4 . 15c2 h3 (11.16) 86 CAPITOLO 11. TEORIA DELLA RADIAZIONE DI CORPO NERO Capitolo 12 Calori specifici 12.1 Calori specifici nei gas Il caso più semplice è il gas monoatomico, cioè quello per cui la molecola è composta di un unico atomo. Se tralasciamo la struttura interna dell’atomo fatta di elettroni e nucleo, gli unici gradi di libertà meccanici sono i tre moti traslatori della molecola. Dal teorema di equipartizione sappiamo che ogni grado di libertà che appare quadraticamente nella funzione di Hamilton, contribuisce con un termine kT all’energia del sistema. Allora otteniamo il risultato già incontrato in precedenza che l’energia di un gas monoatomico formato di N molecole, ha energia 3 Emono = N kT, 2 (12.1) in modo che il suo calore specifico a volume costante risulta 3 3 cV = N k ≡ R 2 2 (12.2) dove abbiamo introdotto la costante dei gas R = N k. Per analizzare il calore specifico di gas poliatomici, è necessario considerare, oltre ai gradi di libertà traslatori, anche quelli interni. Ad esempio, prendiamo il caso di un gas biatomico, cioè formato da due atomi. In questo, avendo a che fare con due atomi, la molecola ha un totale di 6 gradi di libertà, corrispondenti ai gradi di libertà di ciascun atomo. Questi 6 gradi di libertà possono essere divisi in due gruppi. Nel primo gruppo mettiamo i gradi di libertà traslazionali della molecola nel suo complesso, cioè quelli corrispondenti al moto traslatorio del centro di massa della molecola. Chiaramente il numero di questi gradi di libertà è pari a 3. I restanti gradi di libertà, sempre nel numero di 3, descrivono i moti interni della molecola. Nel 87 88 CAPITOLO 12. CALORI SPECIFICI caso sotto considerazione di una molecola biatomica, l’asse individuato dalla retta congiungente i due atomi della molecola determina l’orientazione della molecola stessa. In altre parole, tutti i moti rotatori della molecola possono essere descritti in termini dei moti che cambiano l’orientazione di tale asse. Naturalmente la lunghezza di tale asse, cioè la distanza tra i due atomi può anche variare. Tale variazione corrisponde i possibili moti vibratori della molecola. Per visualizzare tali moti possiamo immaginare di posizionare il centro di massa della molecola al centro di una sfera. Il centro di massa della molecola si trova chiaramente sull’asse della molecola stessa. Se la molecola è composta di due atomi identici, tale posizione sarà a metà dell’asse, altrimenti sarà spostata verso l’atomo più pesante. Per semplicità immaginiamo di avere due atomi uguali. Consideriamo allora che la sfera il cui centro coincide con il centro di massa abbia raggio pari alla metà della distanza interatomica. Allora una qualunque orientazione dell’asse della molecola corrisponderà alla posizione su tale sfera di uno dei due atomi. I gradi di libertà rotatori corrispondo quindi ai gradi di libertà necessari ad identificare un punto su una sfera. Il numero di tali gradi di libertà è pari a 2. Le coordinate sferiche θ e φ descrivono appunto tali due gradi di libertà. L’energia cinetica di rotazione associata alle velocità angolari θ̇ e φ̇ dipende quadraticamente dai momenti canonici (Si veda in seguito per un calcolo esplicito), per cui l’energia rotazionale del gas biatomico sarà data da 1 Erot = 2 N kT = N kT = RT. 2 (12.3) Per quanto riguarda l’energia vibrazionale, corrispondente alle variazioni di lunghezza della distanza interatomica, possiamo, per piccole oscillazioni, assumere un andamento di oscillatore armonico. Allora l’energia vibrazionale, che dipende quadraticamente dalla coordinata ed impulso dell’oscillatore armonico, è pari a 1 Evibra = 2 N kT = N kT = RT. 2 (12.4) Il calore specifico del gas biatomico risulta allora dalla somma dei contributi dovuti ai diversi gradi di libertà del moto molecolare 3 7 cV = +1+1 R= R 2 2 (12.5) dove i contributi in parentesi corrispondono ai gradi traslatori, rotatori e vibrazionali, rispettivamente. Ricordiamo che per avere il calore specifico a pressione costante basta usare la relazione valida per i gas perfetti cP = cV + R. (12.6) 12.1. CALORI SPECIFICI NEI GAS 89 Il risultato (12.6) è il risultato classico. L’estensione quantistica non presenta difficoltà in quanto è necessario considerare la quantizzazione dei vari tipi di moto. Quello che è importanete ai fini del confronto con i dati sperimentali del calore specifico è la valutazione della spaziatura dei livelli energetici per un dato tipo di moto e come tale spaziatura si confronta con l’energia termica kT . In generale, se la spaziatura dei livelli è molto piccola rispetto all’energia termica, è naturale attendersi che molti livelli energetici saranno popolati e che la statistica di Boltzmann sarà una buona approssimazione. Se d’altro canto la spaziatura dei livelli è grande rispetto all’energia termica, bisogna usare la statistica quantistica e pochi livelli, vicini a quello fondamentale, hanno una probabilità apprezzabile di essere occupati. In tal caso appare come se i gradi di libertà con moti aventi una spaziatura dei livelli grande rispetto a kT fossero congelati. In un gas biatomico, ad esempio, a temperatura ambiente, i gradi di libertà vibrazionali sono congelati e la formula del calore specifico a volume costante diventa 5 cV = R. 2 (12.7) Per rendersi conto di questo fatto, facciamo una stima. A temperatura ambiente kT ∼ 10−14 erg. L’energia rotazionale deve essere dell’ordine Erot ∼ h̄2 /I dove I è il momento d’inerzia della molecola. Questo può essere stimato I ∼ ma2B ∼ 10−40 gr cm2 , (12.8) dove abbiamo usato la massa del protone e il raggio di Bohr (come ordini di grandezza). Si ha allora che Erot ∼ 10−54 1040 erg = 10−14 erg, (12.9) che è dell’ordine dell’energia termica. Per l’energia del moto vibrazionale osserviamo che la scala di energia in gioco è data dalle energie degli stati elettronici. Infatti una molecola biatomica può essere vista come formata da due nuclei carichi positivamente e dagli elettroni provenienti dai due atomi all’origine della molecola. L’interazione tra i nuclei ha due contributi. Il primo è la repulsione coulombiana dovuta al fatto che i due nuclei sono carichi positivamente. Se questo fosse l’unico potenziale, la molecola non si formerebbe. Il secondo contributo proviene dalla presenza degli elettroni che vanno ad occupare livelli energetici molecolari. L’energia tipica di tali livelli molecolari è simile a quella dei livelli atomici. Ci aspettiamo dunque che l’energia vibrazionale abbia come valore tipico quello degli eV. Poiché 1eV ∼ 10−12 erg, la spaziatura dei livelli vibrazionali è mediamente circa cento volte più grande dell’energia termica. 90 12.1.1 CAPITOLO 12. CALORI SPECIFICI Moto di una particella su una sfera Consideriamo le coordinate sferiche definite da x = r cos(φ) sin(θ) (12.10) y = r sin(φ) sin(θ) (12.11) z = r cos(θ). (12.12) Partendo dall’energia cinetica in coordinate cartesiane è facile ottenere la funzione lagrangiana nella forma m 2 ṙ + sin(θ)2 r2 φ̇ + r2 θ̇ . (12.13) L= 2 La funzione di Hamilton è quindi ! p2φ 1 p2θ 2 H= pr + 2 2 + . (12.14) 2m r sin (θ) r2 Come anticipato la dipendenza dai momenti coniugati a θ e φ è quadratica e usando il teorema di equipartizione si conclude facilmente che i due gradi di libertà angolari contribuiscono un fattore kT /2 ciascuno. Nel fare gli integrali necessari al calcolo della funzione di partizione è utile notare dxdydz = sin(θ)r2 drdθdφ ed anche dpx dpy dpz = 12.2 r2 1 dpr dpθ dpφ . sin(θ) (12.15) (12.16) Calori specifici nei solidi Insieme alla legge di distribuzione spettrale del corpo nero, un’altra importante conferma della statistica quantistica è venuta dalla comprensione dell’andamento a basse temperature del calore specifico dei solidi. È stato merito di Einstein nel 1907 capire che l’ipotesi dei quanti di energia di Planck potesse essere applicata non solo alla radiazione elettromagnetica. Infatti, il punto di partenza è di considerare un solido come un sistema di oscillatori. Per calcolare il calore specifico bisogna calcolare l’energia media e quindi derivare rispetto alla temperatura. Un sistema di N oscillatori accoppiati in tre dimensioni ha, in base al teorema di equipartizione, energia E = 3N kT, (12.17) che comporta un calore specifico cV = 3N k ≡ R. (12.18) 12.2. CALORI SPECIFICI NEI SOLIDI 91 Questo è il risultato classico ed è in accordo con l’andamento dei calori specifici ad alte temperature, noto come legge di Dulong-Petit. Einstein sottolinea che è errato usare la statistica classica. Egli argomenta che, se da un lato è appropriato usare il modello degli oscillatori, dall’altro è necessario calcolare la loro energia media mediante la statistica quantistica. Egli introduce l’ipotesi semplificatrice di oscillatori di stessa energia 0 ed assume per l’energia media la formula di degli oscillatori di Planck. In tal modo arriva per l’energia del sistema di oscillatori alla formula U (T ) = 3N 0 . −1 eβ0 (12.19) Ad alte temperature, β → 0, U (T ) → 3N kT e si ritrova il risultato classico. In base alla formula di Einstein (12.19) il calore specifico ha l’espressione cV = 3N 20 eβ0 . T 2 (eβ0 − 1)2 (12.20) La formula (12.20) descrive abbastanza bene i dati sperimentali, anche se ci sono discrepanze. L’origine di queste discrepanze è dovuta all’ipotesi troppo semplificatrice di un’unica frequenza. Debye nel 1912 ha proposto un’estensione dell’idea di Enstein. Per capire l’estensione di Debye è utile ricordare che un sistema di oscillatori, nel regime di piccole oscillazioni, è descritto in termini di modi normali, ciascuno caratterizzato da una determinata frequenza di oscillazione. Inoltre come è ben noto a basse energie i modi normali di vibrazione corrispondono alle onde sonore. In analogia con la quantizzazione dei modi normali di un campo elettromagnetico in una cavità, i modi normali quantizzati sono detti fononi ed obbediscono alla statistica di Bose-Einstein1 . La velocità del suono gioca, per i fononi, quindi un ruolo analogo a quello della alla velocità della luce per i fotoni. La statistica dei fononi diventa quindi quella di un gas di bosoni, i fononi appunto, con energia = vs p dove vs è la velocità del suono. L’impulso p è legato alla lunghezza d’onda del suono dalla relazione standard λ= h . p (12.21) Per un dato vettore d’onda k = p/h̄ l’onda sonora può trovarsi in uno di tre diversi stati di polarizzazione, a differenza dei fotoni che hanno solo due stati di polarizzazione. I fononi possono essere creati e distrutti e quindi il 1 È interessante notare che la statistica di Bose-Einstein arriva storicamente solo nel 1920. 92 CAPITOLO 12. CALORI SPECIFICI loro numero non è una quantità conservata. Ciò richiede l’annullarsi del loro potenziale chimico. L’espressione dell’energia dei modi normali in funzione del vettore d’onda deve essere, in generale, determinata dalla struttura geometrica specifica del cristallo che descrive il solido in esame. L’insieme dei vettori d’onda è anch’esso specificato dalla geometria. Quando usiamo l’approssimazione in termini della velocità del suono, non abbiamo più alcuna informazione sui vettori d’onda da considerare. Infatti nel caso dei fotoni esistono modi normali del campo elettromagnetico di frequenza arbitraria, cioè esistono infiniti modi normali. Nel solido sappiamo che il numero di modi normali deve essere N . Debye nota quindi che la relazione di dispersione = vs p deve valere fino a lunghezze d’onda non troppo piccole, cioè fino ad un impulso massimo pM . Tale impulso massimo è determinato dalla richiesta che il numero di modi normali sia effettivamente pari a 3N (qui includiamo tutte le possibili polarizzazioni). Abbiamo quindi 3N = 3V 4π Z pM 0 3 4π Z νM 2 4πV νM p2 dp = 3V ν dν = , h3 vs3 0 vs3 (12.22) dove abbiamo usato la relazione ν = vs p/h. La frequenza massima risulta νM = 3N vs3 4πV !1/3 . (12.23) Siamo ora in grado di scrivere l’energia degli oscillatori 3V 4π Z νM hν 3 . U (T, V ) = vs3 0 eβhν − 1 (12.24) La frequenza massima definisce la cosidetta temperatura di Debye Θ= hνM k (12.25) in termini della quale possiamo riscrivere, dopo un cambio di variabile x = βhν, la (12.25) 3V 4πk 4 T 4 Z Θ/T x3 U (T, V ) = . (12.26) vs3 h3 ex − 1 0 La temperatura di Debye discrimina i regimi di bassa ed alta temperatura. A bassa temperatura, T Θ, l’integrale può essere calcolato mandando all’infinito il limite superiore senza commettere un errore rilevante. In tal modo l’integrale diventa indipendente dalla temperatura e l’energia dipende dalla 12.2. CALORI SPECIFICI NEI SOLIDI 93 quarta potenza della temperatura. Allora l’andamento del calore specifico a basse temperature deve essere proporzionale al cubo della temperatura cV ∼ T 3 . (12.27) Ad alte temperature, T Θ, si ritrova il limite classico. Infatti considerando che l’estremo superiore dell’integrale è molto minore di uno, possiamo sviluppare l’integrando per piccoli valori di x 3 3V 4πk 4 T 4 Z Θ/T 2 V 4πk 3 Θ3 V 4πνM x = kT = kT = 3N kT, vs3 h3 vs3 h3 vs3 0 (12.28) dove abbiamo usato la (12.25) e (12.22). U (T, V ) ≈ 94 CAPITOLO 12. CALORI SPECIFICI Appendice A Potenziali termodinamici Per processi reversibili, i due principi della termodinamica corrispondono all’equazione dU = T dS − P dV. (A.1) Poichè sappiamo che l’energia interna è una funzione di stato, la Eq.(A.1) implica ! ! ∂U ∂U , P =− (A.2) T = ∂S V ∂V T e la prima relazione di Maxwell ∂T ∂V ! S ∂P =− ∂S ! . (A.3) V Per processi irreversibili si ha invece dU < T dS − P dV. (A.4) Per un sistema che compie una trasformazione mentre è termicamente (dS = 0) e meccanicamente (dV = 0) isolato, l’approccio all’equilibrio richiede una diminuzione dell’energia interna, che dunque deve essere minima in equilibrio. Un tale comportamento è ben noto in meccanica, dove le posizioni di equilibrio corrispondono ai minimi del potenziale. I potenziali termodinamici assolvono una funzione simile riguardo agli stati di equilibrio termodinamico e l’energia interna U è il primo esempio di potenziale termodinamico. L’uso di U deriva dall’aver scelto S e V come variabili termodinamiche. Supponiamo di voler utilizzare T e V come variabili, cioè, consideriamo un sistema contatto con un bagno termico alla temperatura T e di volume dato V . Per mezzo della relazione d(T S) = SdT + T dS, otteniamo dU < d(T S) − SdT − P dV 95 96 APPENDICE A. POTENZIALI TERMODINAMICI da cui deriviamo l’esistenza di un’altra funzione di stato d(U − T S) ≡ dF < −SdT − P dV. (A.5) La funzione di stato F è chiamata energia libera di Helmholtz. Procedendo come nel caso dell’energia interna, otteniamo la seconda relazione di Maxwell ∂F S=− ∂T ! ∂F , P =− ∂V V ! ∂S ∂V , T ! ∂P ∂T = T ! . (A.6) V Se invece usiamo S and P come variabili indipendenti, attraverso lo stesso tipo di procedimento, ricaviamo la funzione di stato entalpia, H, per la quale d(U + P V ) ≡ dH < T dSV dP, (A.7) e da cui discende la terza relazione di Maxwell ∂H T =− ∂S ! , V = P ∂H ∂P ! ∂T ∂P , S ! = S ∂V ∂S ! . (A.8) P Infine se usiamo T and P come variabili indipendenti, si ottiene l’energia libera di Gibbs definita da d(U − T S + P V ) ≡ dG < −SdT + V dP, (A.9) insieme con la quarta relazione di Maxwell ∂G S=− ∂T ! , V = P ∂G ∂P ! , T ∂S ∂P ! T ∂V =− ∂T ! . (A.10) P Finora abbiamo tenuto fissato il numero di perticelle N costituenti il sistema. Se includiamo N tra le variabili termodinamiche, l’energia libera di Helmholtz sarà funzione di T , V e N . Definiamo quindi il potenziale chimico µ= ∂F ∂N ! . (A.11) T,V Se scegliamo T , V e µ come variabili termodinamiche, siamo condotti alla funzione di stato granpotenziale Ω definito da Ω = U − T S − µN = F − µN. (A.12) Se consideriamo l’energia libera di Gibbs come funzione di N , insieme a T e P , il potenziale chimico diventa µ= ∂G ∂N ! . T,P (A.13) 97 Osserviamo adesso che T e P sono variabili intensive e quindi deve essere G(T, P, N ) = N g(T, P ) poichè G deve essere evidentemente intensiva, Segue quindi che il potenziale chimico corrisponde all’energia libera di Gibbs per particella µ = g(T, P ). (A.14) Per meglio afferrare il significato del potenziale chimico, consideriamo un sistema (ad una componente) in uno stato in cui coesistono due fasi in equilibrio (ad esempio fase vapore e fase liquida oppure fase liquida e fase solida). A temperatura e pressione costanti, una variazione infinitesima di G è dG = µ1 dN1 + µ2 dN2 , dove µ1,2 and N1,2 sono i potenziali chimici e i numeri di particelle nelle due fasi. Se il numero totale di particelle è conservato dN1 = −dN2 e in equilibrio si ha µ1 = µ2 , (A.15) che rappresenta la condizione per la coesistenza di due fasi. 98 APPENDICE A. POTENZIALI TERMODINAMICI Bibliografia [Hua97] Kerson Huang. Meccanica Statistica. Zanichelli, 1997. [Leb99] Joel L. Lebowitz. Statistical mechanics: A selective review of two central issues. Rev. Mod. Phys., 71(2):S346–S357, Mar 1999. [LL99] Lev D. Landau and Evgenij M. Lifsic. Fisica statistica. Editori Riuniti, 1999. [Pel03] Luca Peliti. Appunti di Meccanica Statistica. Bollati Boringhieri, 2003. [Ray84] John R. Ray. Correct boltzmann counting. European Journal of Physics, 5:219, 1984. 99