June 2, 2017
Avvertenza .............................................................................................................................1
Parte I. N oggetti e D celle .....................................................................................................3
Il processo stocastico fondamentale .......................................................................................10
Una particella in un termostato ..............................................................................................15
Limite termodinamico. Dalla Polya alla binomiale negativa .................................................17
Limite continuo. Dalla Polya alla Beta ..................................................................................20
Dalla Beta alla Gamma ..........................................................................................................24
Un modello sbagliato? ...........................................................................................................26
Frequenze di frequenze ..........................................................................................................29
Boltzmann 1877 .....................................................................................................................32
Parte II. Entra Brillouin ..........................................................................................................36
La teoria unificata ..................................................................................................................39
Configurazioni, microstati e macrostati .................................................................................44
Due passi avanti e uno indietro ..............................................................................................48
L'entropia ...............................................................................................................................51
Entropia delle particelle o entropia degli oscillatori? ............................................................54
Parte III. Le statistiche come processi parzialmente scambiabili ...........................................57
Distribuzione di equilibrio ad energia esattamente fissata.....................................................57
Il processo subordinato ..........................................................................................................59
La temperatura .......................................................................................................................63
Entropia assoluta ed entropia subordinata .............................................................................65
Boltzmann 1868 rivisitato. .....................................................................................................67
Distribuzione microcanonica .................................................................................................69
Distribuzione grandcanonica generalizzata ...........................................................................69
Fluttuazioni ............................................................................................................................71
Parte IV.Processo di crescita ed equilibrio ............................................................................74
La crescita canonica ...............................................................................................................74
Processi di crescita e matrici di creazione .............................................................................75
Processi di svuotamento e matrici di distruzione ...................................................................77
Processi di riaggiustamento ...................................................................................................79
Le pulci di Ehrenfest generalizzate ........................................................................................80
Cenni al processo markoviano verso l'equilibrio. ..................................................................82
La probabilità .........................................................................................................................83
Riferimenti bibliografici ........................................................................................................94
...........................................................................................................................
...........................................................................................................................
........................................................................................................................... Scambiabilità e
...........................................................................................................................
dell
(ovvero la caratterizzazione predittiva
delle distribuzioni della meccanica statistica)
D.Costantini, U.Garibaldi
Avvertenza
Il presente lavoro intende contribuire alla fondazione probabilistica dei metodi
elementari della meccanica statistica delle particelle identiche. A tal fine si propone
una formulazione unificata, consistente ed esatta dei risultati noti come le statistiche
di Maxwell-Boltzmann, di Bose-Einstein e di Fermi-Dirac. Per formulazione
unificata si intende una deduzione che riduca al minimo le ipotesi che differenziano i
diversi comportamenti delle particelle elementari; per formulazione consistente si
intende una deduzione che riduca al minimo l'irruzione di nozioni extraprobabilistiche nel campo proprio della trattazione statistica; per formulazione esatta
si intende una formulazione che eviti per quanto possibile approssimazioni non
essenziali, e persino dannose per chi intenda correttamente la distinzione tra
probabilità e frequenza relativa. Il primo requisito va contro l'usuale distinzione delle
possibilità elementari (o microstati), che dividono in partenza la trattazione
probabilistica dei tre casi; il secondo fa sì che nozioni quali quella di
"(in)distinguibilità" possano essere espunte dalla trattazione, e discusse in modo
adeguato; il terzo riguarda essenzialmente il metodo del macrostato più probabile, nel
merito e per le conseguenze concettuali che esso implica. Il lavoro inizia con un
excursus di tipo storico, ma non ha alcuna pretesa di completezza filologica, non
essendo la nostra analisi basata sui testi originali (con la sola eccezione di Brillouin),
ma sui lavori di Bach e degli altri storici citati. Anche i lavori di Bose e Einstein sono
stati consultati nella comoda traduzione italiana citata in bibliografia. La parte
centrale del lavoro si basa su articoli da noi pubblicati negli ultimi quattro anni, dopo
i primi tentativi di uno di noi, che risalgono ad un decennio fa. La riscoperta (da parte
di Bach) del lavoro di Brillouin ci ha stimolato in questo senso. La parte finale sull'
approccio all'equilibrio è nuova e tuttora in elaborazione, per cui non si va oltre la
presentazione ed alcuni cenni sui possibili sviluppi. Questo vale in parte anche per il
complesso dell'esposizione, che meriterebbe forse un approccio più coerentemente
deduttivo, anziché erratico e tortuoso, sulle tracce com'é del possibile percorso storico
di idee ed approcci metodologici che divengono unificati ed apprezzabili alla luce di
concezioni e metodi che solo la statistica attuale ha sviluppato in piena
consapevolezza. Un possibile merito di questa presentazione consiste nel conservare
un linguaggio il più possibile intuitivo ed aderente ai concreti problemi nel momento
in cui sorsero; con ciò non si intende sminuire l'importanza di una presentazione
sistematica della materia, che seguirà in un futuro prossimo. La riformulazione
unificata delle statistiche apre forse più problemi di quanti non ne chiuda: per
esempio, quali sono gli "elementi ultimi della realtà" che siano rilevanti per la
descrizione (statistica) di un sistema termodinamico? La possibilità di trattare in
modo formale le cosiddette "parastatistiche" ha un significato fisico?
2
Parte I. N oggetti e D celle
In un recente lavoro[1] A.Bach riprende e commenta la procedura seguita da
Boltzmann in una memoria giovanile[2] per derivare la distribuzione di Maxwell
delle velocità delle molecole, in particolare le distribuzioni marginali di v2 in due e
tre dimensioni, che si possono scrivere nella forma
f2(x) = a2 exp (-2 x)
f3(x) = a3 x exp (-3 x),
che, come é ben noto, sono due casi particolari della distribuzione

n,r(x)= Error!, con (n)= Error!
Il lavoro di Bach ha il grande merito di permettere l'accesso a quelle parti delle
fondamentali ricerche di Boltzmann che sono state scarsamente studiate, sia per la
presunta oscurità che per l'obbiettiva complessità del linguaggio. Questo approccio é
meno noto del famosissimo metodo basato sul termine "di permutabilità" Error!, che
verrà introdotto da Boltzmann solo successivamente[3], visto che il metodo che
stiamo per illustrare conduce a risultati non completamente soddisfacenti. Questo
metodo (il metodo Boltzmann '68) introduce una discretizzazione negli stati delle
particelle, e permette quindi l'uso di distribuzioni di probabilità discrete ( o elementari
nel senso di Kolmogorov): passando al limite continuo il metodo produce esattamente
un gran numero di distribuzioni, mostrando così la sua potenza.
Cominciamo la nostra analisi consideriamo tutte le possibili sistemazioni di N oggetti
indistinguibili su D celle o, in modo equivalente, le combinazioni con ripetizione di D
oggetti di classe N :
W(N,D) = ( N+D-1;N)
(1)
Ovviamente a livello combinatorio non si precisa il significato del termine
"indistinguibile" se non facendo riferimento al linguaggio comune: ma cosa si intende
per "oggetti indistinguibili" nel linguaggio fisico? Il contesto ci aiuta a precisare
rispetto a quale procedura di distinzione gli oggetti sono appunto "indistinguibili": tali
oggetti vanno sistemati su D celle, ed un modo di sistemazione sarà individuato
univocamente dal numero di oggetti sistemati su ciascuna cella. Indichiamo questa
sistemazione con la sequenza N=(N1,..,ND), che deve soddisfare la condizione
∑iNi=N. L'indistinguibilità degli N oggetti significa allora che si considera irrilevante
il nome degli Ni oggetti che stanno sulla cella i-ma, ma non il loro numero; questo
3
numero può allora essere considerato come l'attributo che definisce lo stato dell'i-ma
cella. Si pensi alla distribuzione di N banconote da £ 100.000 su D beneficiari:
chiunque risponderebbe che un distinto modo di ripartire la somma tra i D beneficiari
é proprio una sequenza o vettore1 N=(N1,..,ND), pur sapendo che le banconote sono
perfettamente individuabili dal numero di serie. Questo accade se l'attenzione é
concentrata (con una punta di invidia) sui beneficiari, per cui ciò che conta é la
disponibilità finanziaria di ciascuno; in questo caso la seconda formulazione
(combinazioni con ripetizione di D oggetti di classe N), che non menziona il concetto
di indistinguibilità, é perfettamente adeguata alla situazione. Se invece alcune
banconote fossero false, e fossimo interessati (con spirito investigativo) a sapere
quale beneficiario incautamente le possegga, useremmo come definizione di "modo
distinto" quella che assegna ad ogni banconota il nome del suo proprietario.
Affermare perciò che gli N oggetti sono indistinguibili equivale a supporre che le D
celle rappresentino quelle che in linguaggio statistico si definiscono "unità
statistiche", ciascuna delle quali può essere nello stato Ni=0,1,..,N; allora una
sequenza N=(N1,..,ND) sarà detta una "descrizione di stato" delle D celle rispetto
agli stati Ni=0,1,..,N, e cioé una descrizione della popolazione delle D celle rispetto
alla modalità "numero di oggetti contenuti".
Da quanto si é detto sopra é evidente come la stessa situazione fisica ammetta una
molteplicità di descrizioni statistiche, in cui i termini "unità statistiche", "descrizione
di stato" e "popolazione" (ovvero l'insieme delle unità statistiche) assumono di volta
in volta significati diversi. Ricordiamo che unità statistiche e modalità corrispondono
a ciò che i logici chiamano "individui" (o meglio "costanti individuali") e "proprietà"
(o meglio "predicati a un posto"), cosicché una descrizione di stato corrisponde ad
una congiunzione di enunciati atomici che attribuiscono a ciascun individuo le
proprietà di cui gode.
Se di fronte alla sistemazione degli N oggetti sulle D celle fossimo principalmente
interessati al destino degli oggetti, un descrizione di stato della popolazione degli N
oggetti sarebbe una sequenza di N valori (x1,..,xN) con xi=1,..,D. E' chiaro che questo
1E'
comodo rappresentare come un vettore a D componenti i valori delle variabili
casuali (dette appunto in statistica variabili casuali vettoriali) X=(X1,..,XD) che
rapprentano le D modalità del carattere prescelto. In quel che segue il termine
"vettore" va considerato semplicemente come sinonimo di "sequenza ordinata", e non
và pertanto confuso con la nozione di elemento di uno spazio vettoriale.
4
linguaggio é più raffinato del primo, dato che una descrizione di stato delle celle
N=(N1,..,ND) é esprimibile in termini delle descrizioni di stato degli oggetti x=
(x1,..,xN), mentre non vale il viceversa. Una descrizione di stato N delle D celle é
l'insieme delle descrizioni di stato (degli oggetti) tali che N1 oggetti stiano nella cella
1, .., ND oggetti stiano nella cella D, il cui numero é W(N)= Error!. Nel linguaggio
degli oggetti, questa descrizione viene detta "insieme (o vettore) dei numeri di
occupazione" o a volte "macrostato" dai fisici; "(vettore di) composizione",
"descrizione di struttura" o "distribuzione di frequenze" dagli statistici. E' comunque
chiaro che N, essendo la classe di equivalenza delle x rispetto alle permutazioni dei
nomi degli oggetti che lasciano invariati gli stati delle celle, non menziona i nomi dei
particolari oggetti. Lo schema prevede che ciascuna cella contenga da 0 a N oggetti,
naturalmente col vincolo ∑iNi=N.
Se adesso denotiamo con Zk il numero delle celle che contengono k oggetti
(nell'esempio precedente, il numero dei beneficiari nel livello di ricchezza o stato k),
la sequenza Z=(Z0,Z1,..,ZN) ripetto ad N=(N1,..,ND) ha lo stesso significato che
aveva quest'ultimo ripetto a x. Infatti così come Ni conta il numero di oggetti nello
stato (cella) i, allo stesso modo Zk conta il numero delle celle nello stato (numero di
oggetti contenuti) k. Quindi Z=(Z0,Z1,..,ZN) é un vettore di occupazione per le D
celle, mentre é una "frequenza di occupazione" (od "occupancy number ") per gli N
oggetti. Infatti per essi Zk é il numero di celle in cui si sono sistemati esattamente k
oggetti. Il fatto che vi siano esattamente N oggetti e D celle pone le seguenti
condizioni sui vettori x, N e Z : x(1,..,D)N; Error!=N; Error!=D; Error!=N
Se partiamo dai diversi tipi di vettori e ne consideriamo il ruolo assunto in ciascuna
delle popolazioni statistiche introdotte per descrivere con diverso grado di
accuratezza il medesimo schema fisico di N oggetti su D celle, o schema (N,D),
abbiamo la seguente tabella:
descrizioni
individui
 x=(x1,..,xN)
N=(N1,..,ND)
(x{1,..,D)N) ( Error!=N)
5
Z=(Z0,Z1,.,ZN)
(Error!=D e Error!=N)

N oggetti
descrizioni di stato
numeri di occupazione
frequenze di
occupazione
D celle
descrizioni di stato
numeri di occupazione
Cioé x , che é la descrizione di stato degli oggetti, non compare nella descrizione che
assume le celle come individui; N, che é la descrizione di stato delle celle, é una
distribuzione di frequenza degli oggetti; Z, che é una distribuzione di frequenza delle
celle, é una frequenza di frequenza degli oggetti. Alternativamente, se partiamo dalle
popolazioni e dai differenti livelli di descrizione, abbiamo:
descrizioni di stato
vettori di occupazione
occupazione
N oggetti
x= (x1,..,xN)
N=(N1,..,ND)
D celle
N=(N1,..,ND) Z=(Z0,Z1,..,ZN)
....
Z=(Z0,Z1,..,ZN)
.........
frequenze di
Z=(Z0,Z1,.,ZN)
.........
in cui i puntini indicano possibili estensioni dello schema verso "individui" sempre
più astratti e "stati" sempre più generici.
Vediamo il significato di questo schema di classificazione in Boltzmann '68.
Nel caso di Boltzmann N è il numero delle frazioni di energia totale, che chiameremo
"elementi di energia", che vengono distribuiti su D molecole2. In altri termini, se
l'energia totale ED della popolazione di D molecole é suddivisa in N parti uguali =
Error!, lo stato dinamico di ciascuna molecola sarà determinato dal numero di
elementi che essa possiede, cioé N=(N1,..,ND) sarà la descrizione di stato della
popolazione di D molecole rispetto alle N+1 modalità del carattere "numero di
elementi di energia". Da un altro punto di vista (trascurato da Boltzmann), se
partiamo dagli elementi di energia, N può essere legittimamente considerato come il
2Non
intendiamo in questo lavoro soffermarci sul significato referenziale delle ipotesi
introdotte da Bolzmann allo scopo di classificare le possibilità elementari del gas e
calcolarne poi le probabilità. Per un'analisi più ravvicinata e filologicamente più
correttta rimandiamo al nostro lavoro "L.Boltzmann a la nascita della Meccanica
Statistica", in corso di pubblicazione su "Statistica".
6
vettore "numero di occupazione", cioé la descrizione che per ognuna delle D modalità
(molecole) del carattere "insieme di molecole" specifica il numero di unità statistiche
che ne godono (cioé elementi di energia che vi sono sistemati). E' chiaro che nella
procedura di Boltzmann Z=(Z0,Z1,..,ZN) descrive per ogni livello energetico il
numero di molecole che hanno quel valore. E' cioé il corrispettivo discreto della
densità continua f(E)dE , intesa come il numero delle molecole contenute
nell'elemento dE(v) dello spazio  delle velocità . Forzando col senno di poi il
discorso di Boltzmann, potremmo dire che Z0 descrive il numero di molecole nello
stato fondamentale, Z1 quelle del I stato eccitato, e così via. Se chiamiamo
"oscillatore" ogni cella dello spazio  risultante dalla suddivisione dell'energia in
elementi finiti, Z sarà una descrizione di stato degli oscillatori, che a tutti gli effetti
possono essere considerati a loro volta una popolazione di "terzo livello", costituita
perciò dagli N+1 oscillatori attivabili.
Fino ad ora abbiamo parlato di descrizioni più o meno raffinate connesse allo schema
fisico di accomodamento (N,D): vediamo adesso quali siano le loro relazioni. Una
descrizione di stato degli oscillatori rispetto al carattere "numero di eccitazioni degli
oscillatori", ovvero particelle, è indicata con Z=(Z0,Z1,..,ZN): essa contiene Error!
descrizioni di stato delle D particelle rispetto al carattere "numero di eccitazioni delle
particelle", ovvero elementi di energia. Ciascuna di queste descrizioni, indicate con
N, a sua volta contiene Error!descrizioni di stato x degli N elementi di energia
rispetto al carattere "particella su cui si accomoda". Il modo più semplice di definire
una distribuzione di probabilità su questo schema consiste nel definire una probabilità
Pr(x) sull' insieme Ω=(1,..,D)N di tutte le possibili descrizioni x :
1) Pr(x)≥0,
2)Error!=1,
da cui si ricava gerarchicamente, tenendo conto che N e Z sono sottoinsiemi di Ω, e
che gli insiemi {N: Error!=N} e {Z: Error!=D; Error!=N} sono partizioni di Ω:
Pr(N)=Error!,
Pr(Z)=Error!=Error!.
Se imponiamo che Pr(x) sia una funzione regolare, e cioé che il suo supporto coincida
col dominio Ω=(1,..D)N, che consiste in DN punti, saranno regolari tutte le
descrizioni N tali che Error!=N, il cui numero é Error!, e tutte le Z tali che Error!
=D e Error!=N.
7
Nel lavoro del '68 Boltzmann affronta il problema di descrivere i possibili stati
dinamici di D particelle con N eccitazioni (elementi di energia) in tutto.
Conseguentemente non si occupa della probabiltà delle descrizioni x, ma si limita a
calcolare il numero delle descrizioni di stato delle D particelle compatibili con N
assegnati elementi di energia e a definirne la probabilità:
-1
Pr(N)= (N+D-1;N) .
(2)
Questa funzione di probabilità é uniforme, per cui ogni distribuzione (nel senso di
ripartizione) dell'energia totale sulle D particelle, ritenendo distinte due distribuzioni
che differiscono per il numero di elementi su qualche ricettacolo, é posta come
equiprobabile. Questo ci autorizza a dire che Boltzmann consideri gli "elementi di
energia" come oggetti indistinguibili? Da quanto abbiamo detto é evidente che la
trattazione di Boltzmann semplicemente non li prende in considerazione, dato che la
funzione di probabilità é definita direttamente sugli stati delle particelle, ed il numero
totale degli elementi serve a considerare solo gli stati delle particelle che soddisfano
la conservazione dell'energia N. La più semplice funzione di probabilità sull'insieme
degli x compatibile conError!
la (2) é la seguente:
-1
-1
Pr(x)=Error!
.
(3)
Dato N, la probabilità di x ( probabilità di x condizionata ad N) risulta essere:
-1
(4)
Pr(x|N)=Error! ,
che afferma l'equiprobabilità di tutte le x che appartengono al medesimo N. La
probabilità elementare (3), che come abbiamogià detto non compare in Boltzmann
'68, ha però un grande valore per una ricostruzione probabilistica accurata della
meccanica statistica. Come Bach giustamente sottolinea, la (3) é alla base della
derivazione probabilistica della statistica di Bose-Einstein. Di portata ancor più
generale é la (4), che appunto afferma l'equiprobabilità di tutte le x che appartengono
al medesimo N . Se si rammenta che due distinti x che appartengono al medesimo N
differiscono solo per lo scambio di almeno due elementi tra due celle, si ha che
Pr(x1=i1,..,xN=iN)= Pr(xπ(1)=i1,..,xπ(N)=iN),
(5)
con π(1),.., π(N) indichiamo una permutazione di 1,..,N. Questo equivale a supporre
che per ogni N la legge temporale del processo stocastico x1,..,xN, cioé della
distribuzione di probabilità congiunta delle variabili casuali che lo compongono,
dipenda solo dai risultati delle N variabili e non dal loro ordine di osservazione
( dipenda cioé solo da N).
8
Questa é la definizione di scambiabilità per N variabili aleatorie[4]. La
nozione di scambiabilità ha finito per dominare la statistica bayesiana del secondo
dopoguerra, dopo che i fondamentali lavori di B.deFinetti [5] divennero noti in
America e di lì si irradiarono universalmente. Questa nozione non è altrettanto nota
tra i fisici (con la notevole eccezione del più volte citato A.Bach): da qui lo stupore
che ha accolto alcuni lavori abbastanza recenti [6], che fanno uso inconsapevole di
tale nozione.
Dalla (5) segue che le N variabili aleatorie che vi compaiono sono equidistribuite
come in un processo bernoulliano, e cioé Pr(xj=i)=Pr(xk=i); a differenza di
quest'ultimo processo, di cui costituiscono un'importante generalizzazione, esse sono
correlate, nel senso che in generale Pr(x1=i1,..,xk=ik) ≠ Pr(x1=i1)..P(xk=ik).
E' chiaro che una popolazione di N unità statistiche distribuite su D modalità
(predicati) ammette una pluralità di metodi di osservazione completa, cioé metodi che
osservano tutti gli individui una ed una sola volta: una osservazione completa
consisterà in una sequenza di N valori (i1,.., iN) che assegnano ad ogni osservazione
una modalità. E' evidente che ad ogni metodo di osservazione corrisponderà una
diversa famiglia di variabili casuali, che avranno in comune il codominio (1,..,D), ma
con distribuzione congiunta in generale diverse. Nell'interpretazione di Bach, la
deduzione della distribuzione (2) a partire dall' assunzione delle (3)-(5) equivale a
considerare la distribuzione (2) quale probabilità sulle composizioni finali del
processo stocastico in cui si osservano le sistemazioni delle N particelle in ordine
"alfabetico", intendendo con questo qualunque ordine legato a proprietà intrinseche
delle particelle. Supposto che questo segno distintivo esista, e quindi esista un nome
per ogni particella, per osservare x bisognerà attendere che le particelle siano
sistemate, e poi osservarle nell'ordine prescelto. Questo processo, o processo delle
configurazioni, verrà detto processo epistemico, perché il suo termine generico
Pr(xk+1=i|x1=i1,..,xk=ik) terrà conto del modo in cui l'informazione sullo stato delle
particelle di nome 1,..,k agisce sulla distribuzione della particella di nome k+1. E'
chiaro come sia problematica un'interpretazione fisica diretta di tale processo se le
particelle sono davvero identiche, e se ogni identificazione di tipo dinamico é
metodologicamente esclusa.
Un'interpretazione alternativa e fisicamente più convincente consiste nel considerare
un processo di osservazione completa ottenuto campionando la popolazione una volta
che gli individui sono sistemati sulle celle, estraendo "a caso" un individuo,
9
registrandone la modalità e facendolo uscire dal sistema. Stiamo prospettando con ciò
un processo di svuotamento del sistema, in cui l'uscita di una particella non modifica
lo stato delle particelle non ancora osservate. Questo processo u produce sequenze
(u1=i1,.., uN=iN) i cui indici rappresentano l'ordine di osservazione delle particelle;
essendo connesso ad uno svuotamento fisico, ogni particella viene osservata una ed
una sola volta, evitando ogni riferimento a questioni di indistinguibilità. Naturalmente
i processi x e u saranno interconnessi se dovranno descrivere la stessa popolazione; in
particolare dovranno essere uguali le probabilità di osservare una qualunque
composizione N. Mentre la supposta scambiabiltà di x, cioé l'equiprobabilità delle
sequenze subordinatamente a N, é ragionevole in assoluto perché le particelle sono
fisicamente identiche, l' ipotesi di scambiabilità del processo u riguarderà le modalità
del processo di estrazione, e sarà ragionevole quando quest'ultimo non sia influenzato
dallo stato delle particelle.
Abbandoniamo comunque la ricostruzione del lavoro di Boltzmann in termini di x
(che é la strada seguita da Bach), e tralasciamo le considerazioni su u, per presentare
una terza ricostruzione ad essa simile nella forma, ma sostanzialmente diversa per
metodo e significato.
Il processo stocastico fondamentale
Per ogni valore fissato di N e D la distribuzione (2), interpretata come la distribuzione
sui numeri di occupazione degli elementi di energia, può considerarsi come il
risultato di alcune condizioni probabilistiche sulla legge temporale del processo
stocastico N-dimensionale che descrive l'accomodamento degli N elementi di energia
sulle D molecole; queste condizioni, che adesso illustreremo, fanno sì che tale
processo sia scambiabile e invariante. Consideriamo il seguente processo di
preparazione: date D particelle nello stato di energia minima (posta
convenzionalmente uguale a zero), ad esse viene somministrata energia in quantità
elementari, fino ad un totale di N. Ad ogni passo una (ed una sola) particella accresce
la propria energia esattamente di . Questo processo può essere descritto attraverso la
probabilità di transizione P(j|M) per ogni j=1,..,D e tutti gli M regolari con
M=∑jMj=0,1,..,N-1. Quando il sistema contiene M elementi di energia e lo stato delle
particelle é M, l'(M+1)-mo passo (esperimento) è quello che aggiunge al sistema un
10
elemento di energia3. Ne segue che l'esperimento (M+1)-mo è una decomposizione
dell'evento certo ΩM+1=A1;M+1 G;M+1 , in cui Aj;M+1 è l'evento che si
verifica quando l'esperimento (M+1)-mo aumenta l'energia della j-ma particella. In
questo caso lo stato del sistema passa da
M = (M1,..,Mj,.., MD) a Mj= (M1,..., Mj+1,..,MD), e quindi il numero di occupazione
della j-ma particella passa da Mj a Mj+1.
Se Yj;M è la variabile indicatrice dell'evento Aj;M , cioé Yj;M =1 se e solo se YM=j,
il vettore casuale del M-mo esperimento è dato da (Y1;M ,....., YD;M ) e il vettore
casuale "numero di occupazione dopo m esperimenti" è
XM= ( X1;M ,....., XD;M ) = Error!, che è la somma dei vettori casuali di tutti gli
esperimenti dal primo al M-mo compreso.
Consideriamo ora una sequenza di vettori d'occupazione : {M; 0≤ M ≤ N-1},tale che
il primo termine della sequenza sia 0= (0,...,0), il secondo sia 0j, e in generale il
termine (M+1)-mo sia Mj e l'ultimo termine sia N. Diremo che una tale sequenza è
una traiettoria da 0 a N , o più semplicemente una traiettoria ad N. Una traiettoria (o
realizzazione) del processo di creazione é perciò una sequenza y=(y1,..,yN), che
precisa ad ogni passo su quale particella si accomoda ogni successivo elemento di
energia. Il numero di distinte realizzazioni é DN, e ci sono Error!traiettorie a N. Da
ciò si vede che le traiettorie y e le configurazioni x degli elementi di energia hanno
una struttura matematica identica. Mentre però una configurazione di oggetti davvero
indistinguibili non ha alcun significato empirico diretto, una realizzazione del
processo di riempimento di D contenitori può essere in principio controllata
empiricamente, se il vettore M é osservabile passo dopo passo. Chiameremo
traiettoria principale a N quella in cui i primi N1 elementi di energia si accomodano
sulla prima particella, i successivi N2 sulla seconda, e così via fino a che le ultime
ND sulla D-ma particella.
Sia ora
Pr{j | M}= Pr{Yj;M+1 =1 |M}
(7)
j
la probabilità della transizione da M a M . La (7) è una probabilità subordinata : è
cioè la probabilità dell'incremento dello stato di occupazione della j-ma particella
quando il vettore di occupazione del sistema è M. Pr{j|M}è una funzione di
3Possiamo
considerare ciascun passo del processo come un processo di creazione di
una eccitazione; allora il termine P(j|M) indica la probabilità che l' eccitazione sia
creata nello stato j dato M,
11
probabilità scambiabile quando per ogni M regolare, cioè Pr{M}>0, soddisfa le
condizioni seguenti :
C1.
Pr{j | M} ≥ 0 per ogni j=1,..,D;
C2.
Error!4,
C3.
Pr{j | M}Pr{h| Mj} = Pr{h| M}Pr{j | Mh} j ≠ h .
E' evidente da C3 che se Pr{j|M} è una funzione di probabilità scambiabile, allora
essa assegna la stessa probabilità a tutte le traiettorie a N . Infatti due distinte
traiettorie a N differiscono solo per l'ordine di occupazione delle celle. Consideriamo
la probabilità della traiettoria principale (1,.,1,1,2,2,..,2,...): essa sarà il prodotto di N
probabilità di transizione (7). Se applichiamo C3 quando M é (N1-1,0,..,0) otteniamo
che la traiettoria (1,.,1,2,1,2,..,2,...) ha la medesima probabilità della traiettoria
principale. Infatti le prime N1-1 transizioni sono le stesse, le ultime N-N1-1 sono
ancora le stesse, ed il prodotto delle due centrali ha la stessa probabilità per C3.
Procedendo in questo modo si ottiene l'equiprobabilità di tutte le traiettorie allo stesso
N.
Poichè Pr(N)=Error!, e poichè le distinte traiettorie a N sono Error!, si ottiene di
nuovo:
-1
Pr(y)=Error! Pr(N)
(3')
o, dalla definizione di probabilità condizionata,
-1
(4')
Pr(y|N)=Error!
per yN
Ora una traiettoria è una sequenza di transizioni; se si è in grado di calcolare Pr{j|M}
per ogni M si potrà quindi determinare la probabilità di una qualunque traiettoria.
Osserviamo che condizioni C1,C2, e C3 non fissano in modo univoco Pr{j|M}.
Per introdurre le altre condizioni necessarie a determinare la probabilità di transizione
passiamo attraverso la nozione di quoziente di eterorilevanza a M :
Qh;j(M) = Error!
j≠h
valida ovviamente per Pr{j | M} diverso da zero.
In termini del quoziente di eterorilevanza C3 é equivalente alla seguente:
C3'.Qh;j(M) =Qj;h(M)
Imponiamo un'ulteriore condizione, quella di invarianza del quoziente di
eterorilevanza.
4Nel
caso in cui il processo si applichi a fermioni questa relazione naturalmente varrà
per tutti i vettori regolari eccetto n=(1,1,..,1), in cui il processo si arresta.
12
C4. Qh;j(M') = Qq;f(M") = Q(M) per h ≠ j, q ≠ f, ∑jMj'=∑jMj"=M,
Se Pr{j | M} è una funzione di probabilità scambiabile che soddisfa anche C4 allora
Pr{j | M} é detta invariante.
Denotiamo con  il quoziente di eterorilevanza a 0 : =Qh;j(0) = Error!, h≠j. Se vale
C4 questo parametro non dipende da j e da h, e può assumere qualsiasi valore
compreso nell'intervallo (0,Error!]. In termini delle condizioni C1-C4 si può
dimostrare il seguente teorema fondamentale[7]:
Teorema. Se Pr{j |M} è una funzione di probabilità scambiabile ed invariante,
allora vale la seguente espressione :
Pr{j | M} =P(j |Mj,M)= Error!
(9)
dove pj=Pr{j|0} e  = Error!.
Per determinare completamente Pr{j|M}, che é funzione solo di Mj e M, e' necessario
fissare il valore della distribuzione iniziale p={pj} e di  (oppure )In particolare si
ottiene la distribuzione (2) per =D, cioé:
C5:
=Error!= Error!,
e per p={pj} uniforme, cioé:
C6:
pj=D-1, j=1,..,D
Questa caratterizzazione della distribuzione (2), intendendo con questo termine
l'esplicitazione dell' insieme delle condizioni sulla funzione di probabilità Pr{j | M}
che regola il processo, evidenzia in modo semplice la legge cui gli elementi di energia
devono obbedire per produrre una distribuzione uniforme sui numeri di occupazione
(gli stati delle particelle). Diremo che Pr{j | M} è una "legge individuale", cioé la
distribuzione di probabilità che regola il comportamento probabilistico dell' M+1-ma
unità statistica (descritta dalla M+1-ma osservazione) condizionata all'evidenza
empirica, riassunta dalla "statistica sufficiente" M. La legge risultante Pr(N), di cui la
(2) é un esempio, viene detta "legge N-predittiva", poiché descrive la distribuzione
sulle possibili composizioni N della popolazione di N individui. La nostra
ricostruzione può perciò riassumersi nella esplicitazione delle condizioni sulla legge
individuale che riproducono una assegnata legge N-predittiva. Si dimostra facilmente
che la legge N- predittiva generata dalla (9) è la seguente:
Pr(N;,p) = Error!
(9')
che per è la distribuzione di Polya D-variata. Si vede immediatamente che la (2)
si ottiene dalla (9') ponendo pi=1 per ogni i, che è il modo più sintetico di esprimere
13
le due condizioni C5 e C6. Allora la legge individuale che soddisfa l'insieme delle
condizioni C1-C6, e conseguentemente genera la (2), é la seguente:
Pr{j | M} = Error!
(10)
[8]
in cui si riconosce immediatamente
il termine "classico" Error!ed il cosiddetto
termine di "emissione stimolata" Error!, responsabile di prevedibili correlazioni
positive tra gli "elementi di energia". Infatti all'inizio Mj=0, M= 0 e P(j|0,0)=Error!.
Se il primo oggetto si è sistemato nella cella j-ma, la probabilità che il secondo
oggetto si sistemi nella stessa cella sarà : Mj=1, M=1 e P(j|1,1)= Error!.
E' utile introdurre il quoziente di autorilevanza iniziale Qj;j(0) Error!; esso
confronta la probabilità di un secondo accomodamento in una cella già occupata con
la probabilità iniziale, e vale  = Error!>1; perciò la realizzazione (y1=j,y2=j) avrà
probabilità Pr(y1=j,y2=j)= Pr(y1=j)Pr(y2=j)>pj2=D-2. Il quoziente di eterorilevanza
iniziale Error!confronta invece la probabilità di un accomodamento al secondo
tentativo in una cella ancora vuota con la probabilità iniziale, e vale  = Error!<1; la
realizzazione (y1=j,y2=i) avrà probabilità Pr(y1=j,y2=i)=Pr(y1=j)Pr(y2=i)<pjpj=D-2
. Perciò al secondo passo é più probabile trovare una particella assegnata con energia
pari a 2 che due particelle assegnate con un elemento ciascuna. Entrambi i
coefficienti descriveranno la correlazione esistente tra gli insediamenti degli elementi
di energia e saranno uguali a 1 nel caso di indipendenza. Ma tralasciamo per ora il
processo fondamentale e torniamo al problema di Boltzmann.
Una particella in un termostato
Supponiamo allora che le D particelle con energia pari a N siano descritte dalla (2):
vogliamo dedurre la distribuzione di probabilità per gli stati di una fissata particella.
Se raggruppiamo le particelle in due sottoinsiemi, rispettivamente con d e D-d
particelle, e sommiamo su tutti i possibili valori n e N-n di elementi di energia per i
due sottosistemi, potremo scrivere la (1) nel modo seguente:
W(N,D)=(N+D-1;N) =Error!=
=Error!
(11)
in cui il simbolo ";" separa le variabili dai parametri che identificano i due sottostemi.
Consideriamo adesso un vettore di occupazione che assegna k elementi alla jma particella e, in modo qualsiasi, i restanti N-k sulle altre D-1 particelle.
Calcoliamo la probabilità marginale per la particella j-ma : in modo del tutto naturale
considereremo le restanti D-1 particelle raggruppate insieme come costituenti un
14
"serbatoio", o "bagno termico" in grado di scambiare eccitazioni con la particella
prescelta. Dobbiamo calcolare Pr{Nj=k} dati i parametri N e D.
{Nj=k} corrisponde alla bipartizione del sistema W(k,N-k; 1,D-1), dalla (2) con d=1
e n=k
W(k,N-k; 1,D-1)= ( N-k+D-2;N-k) ,
e allora, data l'uniformità della distribuzione (2), si avrà:
Pr{Nj=k; N,D)=Pr(k; N,D)= Error! (12)
in cui i valori dopo il segno ";" vanno intesi come parametri che caratterizzano il
sistema particella + bagno termico. Più esattamente, la (12) é la distribuzione
marginale per lo stato della particella, espressa in funzione dei valori N e D. Questi
ultimi non sono valori aleatori, su cui sia definita una probabilità. In questo caso
avrebbe senso la scrittura Pr(k| N,D), che indicherebbe l'usuale probabilità di k
condizionata agli eventi N e D.
La (12) è ancora una legge N-predittiva riconducibile alla forma (9'), che può
ricavarsi come legge temporale del processo bidimensionale seguente:
(0,N)
(1,N-1)
(0,0)
(N,0)
15
Il vettore finale del processo (k,N-k) descrive il numero k di elementi che si
sistemano sulla particella e quello N-k di elementi che si sistemano sul termostato. La
legge di composizione di questa popolazione di due "individui", la particella e il
termostato, é Pr(k,N-k; N,D), che sottointendendo i parametri può scriversi
semplicemente Pr(k), dove k é lo stato finale della particella. La legge individuale
della particella, che ne descrive l'accrescimento in energia, é una marginalizzazione
della (10), così come la (12) lo è della (2). Se con aM+1 indichiamo l'accomodamento
dell' M+1-mo elemento sulla particella, si ha Pr(aM+1|m,M-m)= Error!, mentre
Pr(bM+1|m,M-m)=1-Pr(aM+1|m,M)=Error!descrive l'accomodamento dell' M+1-mo
elemento nel termostato.
La probabilità di una realizzazione della composizione (k,N-k) vale
Error!,
ed il numero delle distinte realizzazioni di (k,N-k) é Error!, per cui :
Pr(k,N-k)= Error!=Error!,
cioé la (12).
La (12) non dipende da j, per cui le distribuzioni marginali sugli stati delle D
particelle sono eguali. Essendo fissato il numero totale di elementi N, varrà perciò per
il valor medio della (12) che D<k>=N, come é facile verificare; perciò
<k> =:=:∑kkPr(k; N,D)=Error!,
(13)
e la media dell'energia della particella é <E> =  = w. Il fatto che il numero medio
di eccitazioni per particella , dove la media và intesa su tutte le realizzazioni del
processo, sia pari al numero totale di eccitazioni diviso il numero di particelle, che è
il parametro esterno Error!, segue dall'essere le distribuzioni marginali delle D
particelle tutte eguali.
Come abbiamo visto, in questa ricostruzione della (2) e della (12) gli N elementi sono
necessariamente correlati positivamente. Anche le energie delle particelle sono
correlate, poichè l' energia totale del sistema ED=Nè fissata da N. Questo secondo
tipo di correlazione, negativa, può essere indebolita quanto si vuole operando nel
modo seguente.
Limite termodinamico. Dalla Polya alla binomiale negativa
Aggiungiamo al sistema particelle ed elementi di energia in modo che, per N ∞ e
D∞, si conservi il numero di elementi per particella Error!=, e osserviamo come
16
cambia la probabilità marginale per la generica particella . Questo accrescimento del
serbatoio che conserva l'energia media delle particelle é normalmente giustificato in
fisica dal grande numero di particelle elementari che costituicono i corpi
macroscopici. Esso viene definito "limite termodinamico"
Pr(k; N,D) = Error!=
= Error!N∞,D∞,Error!=
k
k
 Error! Error! = Error! =PrT(k; );
cioé
PrT(k; )= Error!
k
k=0,1,....
(14)
La (14) dipende solo da , che risulta così l'unico parametro che caratterizza le
distribuzioni nel T-limite. Osserviamo che naturalmente ∑kkPrT(k;N,D)=, cioé il
limite termodinamico conserva la media della distribuzione .
Ponendo x= Error!la (14) diventa:
P( k; x()) = (1-x) xk
k=0,1,....
(15)
Nel caso del "limite termodinamico" della distribuzione uniforme (2) si ottiene come
probabilità marginale la distribuzione geometrica5.
Scelto opportunamente lo zero dell'energia, la particella ha l'energia Ek se contiene k
elementi; la probabilità di avere l'energia Ek è perciò:
P(k) = xk (1-x) = Error!
(16)
E' intuitivamente plausibile in questa nuova situazione (di accrescimento del
serbatoio che conserva le proprietà "locali", o "intensive", della particella, in questo
caso l'energia media) che il vincolo della costanza dell'energia totale divenga
irrilevante, e che la correlazione negativa tra le energie delle diverse particelle tenda a
zero.
Infatti é già evidente dalla (16) che la particella j può assumere tutti i valori di energia
da 0 ad ∞. L'energia totale del sistema é infatti cresciuta fino all'infinito, ed é
possibile che tutta l'energia disponibile si concentri sulla particella .
5La
distribuzione geometrica è la distribuzione dei tempi di attesa del primo
insuccesso, quando lo schema di estrazione é bernoulliano. In genere è Pr {X1= h}=p
qh-1, h=1,2.. In questo caso la stessa distribuzione risulta quale limite di un processo
stocastico in cui gli incrementi sono positivamente correlati.
17
Adesso consideriamo d particelle, immerse nel serbatoio costituito dalle restanti D-d
compagne, e vogliamo calcolare Pr{N1=k1&..&Nd=kd}, dati i parametri N e D.
Se la somma di tutti i elementi k1+..+kd vale n, ogni stato n delle d particelle sarà
compatibile con le (N-n+D-d-1;N-n) possibili situazioni del termostato. Per cui di
nuovo
Pr(n; N,D)=Error!
(17)
dove n indica lo stato d-dimensionale delle d particelle. La (17) é una
generalizzazione della (12) al caso di d particelle.
Passiamo al limite termodinamico N∞, D∞, Error!=  : la probabilità di un ben
preciso stato n delle d particelle diventa, in un modo del tutto analogo al caso
precedente:
Pr(n; N,D)=Error!=Error!

 Error!= xn(1-x)d,
(18)
dove x= Error!, e di nuovo la probabilità dipende solo da d e Error!=.
Dato che P(n; ) é la congiunzione degli stati energetici k1,..,kd delle d particelle con
k1+..+kd=n, é evidente dalla (16) e dalla (18) che
P(n; )=P(k1,..,kd ; )= P(k1; )..P(kd; ),
cioè gli stati energetici delle d particelle diventano indipendenti.
Questo naturalmente non vale per le distribuzioni P{n; N,D}e P{k; N,D}, come si
può facilmente verificare dalla (13) e dalla (17).
Con ciò può dirsi dimostrato quanto intuitivamente appariva plausibile. Avendo a che
fare con una popolazione finita, soggetta a vincoli precisi, "deterministici", l'esistenza
del vincolo introduce una correlazione negativa "eliminabile" , che può appunto
essere eliminata considerando la popolazione data quale sottoinsieme di una
popolazione infinita che conservi i valori medi "locali". Tornando all'esempio di
Boltzmann, ci si può chiedere la probabilità che il sottosistema di d particelle abbia
energia pari ad n elementi, cioè Ed=n.
Si vede dalla (17) che la probabilità di uno stato del sottosistema dipende solo dalla
sua energia totale, per cui tutti gli stati corrispondenti allo stesso n sono
equiprobabili. Quindi la probabilità cercata sarà
Pr(n; )=(n+d-1;n) Pr(n; )=(n+d-1;n) xn(1-x)d
(19)
La (19) è la distribuzione di Pascal o binomiale negativa ed è la generalizzazione
della distribuzione geometrica .
18
Limite continuo. Dalla Polya alla Beta
Ripartiamo dalla probabilità (3) di avere k oggetti in una cella (o k elementi su una
particella), dati il numero totale N distribuito sull'insieme delle D celle.
P(k; N,D) =Error!
Aumentiamo il numero di oggetti , N »1 , tenendo fisso questa volta il numero D delle
celle. Nella sopra detta interpretazione fisica questa operazione potrà corrispondere
ad un aumento graduale dell'energia del sistema fino all'infinito se il quanto di energia
é finito. Alternativamente l' operazione può essere compensata da una diminuzione
del valore del quanto di energia , di modo che ED=N=Dw, dove w é l'energia per
particella, restino invariate. Questa seconda fu naturalmente la strada seguita da
Boltzmann, che doveva liberarsi alla fine della discontinuità "quantica" genialmente
introdotta all'inizio per poter operare in modo combinatorio sul problema.
P(k ; N,D) =Error!=
Error!D)Error!
per cui possiamo scrivere :
D-2
Pr(k; N,D) Error! = Error!B(Error!;1;D-1) ,
dove B(Error!; 1;D-1) è la distribuzione Beta : B(x ;  = Error!
Questa convergenza in distribuzione può essere utilmente inquadrata alla luce del
teorema di rappresentazione di deFinetti[5]. Partiamo infatti dal nostro processo
scambiabile ed invariante caratterizzato da =D e pj=D-1 e consideriamone la
marginalizzazione su due sole celle, una contenente la j-particella e l'altra le restanti
D-1. Ad ogni passo j=1 indichi l'accomodamento sulla particella e j=2 quello sul
termostato. La probabilità iniziale sarà p1=D-1 e p2=1-D-1, ed il vettore di
occupazione N=(N1,N2) sarà funzione solo di N1=k e di N. Indichiamo questo
vettore con (k,N), e interpretiamolo come "k successi in N prove". Il teorema di
deFinetti afferma che in un processo scambiabile indefinitamente proseguibile
Pr(k,N) ammette la seguente rappresentazione:
Pr(k,N)= Error!xk (1-x)N-k f(x) dx
in cui f(x): f(x)≥0 eError!f(x) dx=1 é la densità di probabilità iniziale sul simplesso
dei possibili valori del parametro x, e Pr(k,N|x)= (N;k) xk(1-x)N-k é la probabilità di
(k,N) dato x: essa é la distribuzione binomiale di parametro x, ed esprime il fatto che
il processo é indipendente subordinatamente ad ogni valore di x. Quando Pr(k,N|x)
19
sia pensato come una funzione di x con parametri (k,N) viene detta verosimiglianza
di x.
Il teorema di deFinetti, che rende rigorose e generali le tecniche inferenziali di
ascendenza laplaciana, é il cardine della "filosofia della scambiabilità" che permea la
contemporanea visione della stima statistica. Un processo scambiabile é una mistura
di processi indipendenti: la "distributione peso" f(x) esprime l'ignoranza iniziale (in
senso laplaciano), o la probabilità soggettiva iniziale (secondo le interpretazioni
soggettivistiche) riguardo alle possibili composizioni di una popolazione infinita.
Come si può vedere a proposito di scattering di fotoni[8], f(x) può rappresentare la
frequenza relativa con cui si realizza il valore x del parametro che regola il processo.
Se il parametro fosse noto, allora f(x) si ridurrebbe a (x-x0), da cui Pr(k,N) =
Pr(k,N|x0)= = (N;k) x0k(1-x0)N-k, ed il processo sarebbe indipendente. Un secondo
significato di f(x) é il seguente: la densità iniziale può essere intesa come la
distribuzione limite cui converge (in legge) la successione della distribuzioni delle
variabili casuali frequenze relative. Mostriamolo in modo non formale.
La verosimiglianza (N;k) xk(1-x)N-k per grandi N e k tende ad una Gaussiana
(N;k) xk(1-x)N-k ≈ Error!= Error!,
che per N∞ tende alla funzione Error!, la quale concentra tutta la verosimiglianza
su x=Error!
Per cui si avrà:
Pr(k,N)= Error!xk (1-x)N-k f(x) dx  Error!Error!f(x) dx= Error!f(Error!
),
cioé NPr(k,N)f(Error!).
Per grandi valori di N si ha che Pr(k; N,D) tende a zero perché il dominio della
distribuzione cresce senza limite, ma NPr(k,N) resta finito. Se passiamo alla variabile
casuale frequenza relativa u=Error!, si avrà per le densità p(k)dk=p(Error!)d(Error!
), cioé NPr(k,N)=p(u); per cui la densità della frequenza relativa (e dell'energia
relativa) sarà proprio il peso iniziale f(u).
Se il processo, oltre che scambiabile, é invariante, allora vi é una corrispondenza
biunivoca tra la densità iniziale f(x) ed i parametri  e {pj} della legge individuale:
cioé f(x)=B(x;p1;(1-p1). Quindi nel nostro caso
Pr(k,N)= Error!xk (1-x)N-k B(x;1;D-1) dx
dato che =p=1=(1-p)=D-1
20
Nel -limite (i.e.D=cost, N∞) si ha dunque che la probabilità dello stato della
particella dipende solo da D.La particella assorbe comunque sempre infiniti elementi
di energia, per cui si può dare un significato fisico a tutto ciò solo mandando a zero il
valore del quanto e considerando l'energia quale limite continuo della variabile
discreta k. In tal caso basterà interpretare come la frequenza relativa Error!della
particella come la frazione dell'energia totale che le appartiene.
Lo stesso limite N∞ può essere effettuato per il sottosistema di d particelle.
Partendo dalla (17), e passando al numero totale dei quanti del sottosistema, si ha :
Pr(n; N,D)=Error!.
Per N>>D,n>>d si può scrivere:
(n+d-1;n) Error!;
(N+D-1;N) Error!;
(N-n+D-d-1;N-n) Error!;
per cui
d-1
D-d-1
Pr(n; N,D)Error!=Error! Error!
=
=Error!B(Error!;d,D-d).
Si può qui ripetere, in modo più generale, quanto espresso sopra nel caso di una sola
particella. Se passiamo alla variabile casuale "frequenza relativa del sottosistema" v=
Error!, si avrà per le densità p(n)dn=p(n(v))dn(v)=p(n(v))Error!dv; per cui la
densità della frequenza relativa (e dell'energia relativa Error!) sarà proprio
p(v)=B(v; d,D-d).
A questo punto, partendo dalle distribuzioni di probabilità del numero di occupazione
di un insieme di d individui che condividono con altri D-d individui N elementi di
energia, abbiamo studiato il sistema in due direzioni ben distinte:
a:(T-lim): abbiamo fatto crescere indefinitamente molecole ed elementi di energia, in
modo da conservare le proprietà "locali" del sistema (cioè );
b:(-lim): abbiamo fatto crescere indefinitamente il numero di elementi di energia, in
modo da conservare però il numero delle molecole. In questo secondo caso abbiamo
introdotto le variabile aleatorie E=k, Ed=n,ED=N, che per 0 restano finite.
Le distribuzioni di partenza P(n;N,D) e P(k;N,D) sono distribuzioni di Polya di
parametri (d,D-d) e (1,D-1) rispettivamente. Seguendo le due trasformazioni, si
ottiene nel primo caso:
21
PT(n;N,D)= T-limP(n;N,D)=(n+d-1;n) xn(1-x)d,
cioé una distribuzione binomiale negativa di parametri x e d, e dove x= Error!e =
Error!; nel secondo caso invece:
Error!
d-1
D-d-1
P(n;N,D)=-limP(n;N,D) Error!
,
o più correttamente per le frequenze relative v=Error!= Error!e le corrispondenti
densità:

-lim p(v;N,D)= Error!vd-1(1-v)D-d-1,
cioè una distribuzione Beta di parametri d e D-d.
Le stesse trasformazioni applicate alla distribuzione per una sola particella sono casi
particolari (d=1) delle funzioni dette.
Ma il lavoro di Boltzmann non si arresta qui: esso procede al calcolo del T-limite
della distribuzione continua B(Error!;1,D-1)=Error!
Dalla Beta alla Gamma
Partiamo adesso dall'andamento asintotico nel -limite
Pr(n;N,D) Error!
d-1
D-d-1
Error!
= Error!B(Error!; d,D-d)
(20)
Fissato un N>>1, al variare di n=0,1,..,N otteniamo la probabilità di tutti i numeri di
occupazione possibili per gli elementi di energia delle d molecole. Ricordando che
Ed=n=Error!Dw la (13) fornisce anche la distribuzione di probabilità per l'energia
del sottosistema .Per le possibili frequenze relative ud=Error!avremo:
d-1
D-d-1
NPr(n;N,D)B(Error!;d;D-d)= Error! Error!
.
Omettiamo l'indice d per l'energia del sottosistema, per non appesantire troppo la
notazione.
La densità p(Error!) =B(Error!; d,D-d) esprime la densità di probabilità che il
sottosistema abbia esattamente la frazione Error!dell'energia totale ED, che é utile
esprimere in funzione di D.
Il limite termodinamico in questo caso continuo consiste nel far crescere D in modo
che i valori medi locali si conservino. L'energia totale del sistema ED crescerà perciò
oltre ogni limite, mentre l'energia per particella resterà costante. La media di B(x;
) é <x>=Error!, per cui <u>=Error!, ed <E>=Error!ED=Dw . Consideriamo
allora
d-1
pError!=B (Error!;d;D-d)= Error!
22
D-d-1
Error!
,
e facciamone il limite per D∞, w=cost=,
L' andamento asintotico per D>>d é il seguente:
d-1
D
pError! Error! Error! ,
e passando a p(E)=Error!pError!= Error!pError!, si ha infine:
lim D∞p(E)= Error!dEd-1 e-E,
che per una singola particella produce la distribuzione esponenziale
p(E)=  e-E
(20')
molto simile alla famosa distribuzione di Maxwell, con E=Error!mv2, che
Boltzmann riusciva così a derivare a partire da considerazioni puramente
probabilistiche.
Per concludere al commento del procedimento del 1868, possiamo dire che
-1
Boltzmann parte dalla distribuzione uniforme su D particelle Pr(N)= (N+D-1;N) ,
ne calcola la distribuzione marginale per una particella Pr(k; N,D)= Error!, ricava
nel limite continuo p(Error!)=B(Error!; 1,D-1) e ne fa il limite termodinamico,
ottenendo la distribuzione esponenziale p(E)=  e-E. Tutto questo in circa due
pagine di eccezionale valore fisico e probabilistico. Bach definisce queste pagine un
capolavoro di calcolo delle probabilità. Ciò che é essenziale dal nostro punto di vista
é la superiorità di questo metodo (o metodo della marginalizzazione) rispetto a quelli
usati successivamente, basati su "probabilità non normalizzate" e considerazioni
combinatorie che hanno finito per dilagare nel campo della meccanica statistica6.
Partendo da uno schema finito e da una distribuzione di probabilità su tutte le
descrizioni di stato delle particelle compatibili con l'energia fissata, Boltzmann é in
grado di pervenire a distribuzioni continue il cui significato é perfettamente
ricostruibile in termini di elementi di energia e particelle. Le particelle sono
equidistribuite, come richiede l'identità fisica; esse (nel limite termodinamico) sono
indipendenti, cioé non vi é correlazione tra lo stato dell'una e quello di una qualsiasi
altra; esse sono distinguibili, dato che sono punti di localizzazione degli elementi di
energia. Il risultato finale p(E)=Ce-E é una distribuzione di probabilità per una
particella: ciò ci consente di sottolinare la distinzione tra probabilità (di una
6
Per il valore di questo contributo di Boltzmann dal punto di vista della storia del calcolo delle
probabilità rimandiamo al già citato lavoro di Bach.
23
particella) e frequenza relativa (relativa alle D particelle), fonte di innumerevoli
confusioni in meccanica statistica.
L'unico neo di questa trattazione, e certo la cosa é non banale, consiste nel fatto che il
risultato finale p(E)=Ce-E è la distribuzione di Maxwell bidimensionale, e non la
tridimensionale
p(E)=C'
Error!
Un modello sbagliato?
Che cosa significa affermare che un modello statistico é inadeguato alla
rappresentazione di un sistema fisico? Innanzitutto un modello statistico consiste
nella "costruzione" di una distribuzione di probabilità, o sulla base di analogie (in cui
di solito compaiono urne, estrazioni, eventuali reimbussolamenti,..) intese a rendere
intuitivamente accettabili le assunzioni probabilistiche, o attraverso condizioni
esplicite cui la distribuzione deve sottostare (come nel processo invariante prima
introdotto). In seconda istanza la distribuzione di probabilità deve essere posta a
confronto con l'evidenza empirica: questo secondo passo é noto in statistica col nome
di saggio di significatività. Nel caso in cui Boltzmann avesse potuto misurare
direttamente l'energia di un campione di particelle, avrebbe potuto confrontare i valori
empirici con quelli previsti dalla p(E) fornita dal modello, e considerare se la
"distanza" tra i valori empirici e quelli previsti da p(E) fosse ragionevole od
eccessiva. Come é noto questi dati empirici furono disponibili solo molti decenni
dopo la formulazione del modello. In realtà la distribuzione di Maxwell fu assunta
immediatamente sulla base del suo potere esplicativo e predittivo per la teoria
cinetica e la termodinamica dei gas diluiti, e Boltzmann si limitò a tentare di
ricavarla su basi probabilistiche. Cosicché il confronto tra la p(E) fornita dal modello
ed il risultato atteso non dovette affrontare i delicati (e tuttora non perfettamente
chiariti) problemi derivanti dal confronto tra un'ipotesi statistica ed i dati[10].
Ammettiamo in ogni modo che il modello statistico non sia soddisfacente. Le
possibili ragioni sono molte: o vi sono errori nell'apparato deduttivo (errori di
calcolo); oppure le condizioni sulla distribuzione di probabilità sono inadeguate (per
esempio non é vero che gli elementi di energia sono correlati in modo che le
descrizioni di stato delle particelle siano equiprobabili); ancora, non é lecito per
qualche ragione fisica effettuare il limite continuo (quello termodinamico sembra
24
fuori discussione); infine, il modello "N elementi di energia su D particelle" é
inadeguato perché non é in grado di descrivere correttamente le modalità del carattere
di cui gli individui godono davvero, e cioé gli stati energetici delle D particelle. Se
così fosse, il processo stocastico potrebbe essere riutilizzato con successo in uno
schema opportunamente corretto. Focalizziamo quindi l'attenzione sull'adeguatezza
del modello a rappresentare gli stati delle particelle.
Se ho 2 molecole e 4 elementi di energia, e vale la (2), sono equiprobabili i cinque
stati N rappresentati da (4,0),(3,1),..,(0,4). Gli Z corrispondenti sono:
N
(4,0) e (0,4)
(3,1) e (1,3)
(2,2)
Z
(1,0,0,0,1)
(0,1,0,1,0)
(0,0,2,0,0).
Pr(Z)
2/5
2/5
1/5
Z1=(1,0,0,0,1) é il macrostato con una particella nello stato fondamentale e l'altra nel
quarto stato eccitato, Z2=(0,1,0,1,0) ha una particella nel primo ed una nel terzo,
Z3=(0,0,2,0,0) ha le due particelle nel secondo stato eccitato. Gli stati di una
particella singola sono k=0,1,..,4, e sono equiprobabili per ciascuna particella. Questo
è immediatamente evidente, ma apriamo una parentesi che sarà utile in seguito.
La questione si può vedere in due modi. Il primo, che corrisponde al metodo della
marginalizzazione appena esposto in modo formale, è il seguente: per ricavare la
probabilità che la prima particella contenga k elementi si sommano le probabilità di
tutte le descrizioni di stato in cui il primo valore sia k. In questo caso, essendo solo
due le particelle, è banale, perchè Pr(k=0)= Pr(0,4)= 1/5,.., Pr(k=4)= Pr(4,0)= 1/5.
Il secondo modo si basa sulle descrizioni Z: è interessante soprattutto perchè sarà
usato da Boltzmann in seguito, ed è molto semplice da capire in questo caso
semplicissimo.
Se il sistema è nello stato Z=(1,0,0,0,1), vi saranno una molecola "ferma" ed una con
energia pari a 4; questo stato ha probabilità 2/5; Se il sistema è nello stato
Z=(0,1,0,1,0), vi saranno una molecola con energia pari ad 1 ed una con energia pari a
3; questo stato ha probabilità 2/5; se infine il sistema è nello stato Z=(0,0,2,0,0), vi
entrambe le molecole avranno energia pari a 2; questo stato ha probabilità 1/5.
Ciascuno stato Z non menziona le molecole, mentre la somma delle componenti di
ogni Z vale D, per cui Z/D (=Z/2 in questo caso) è formalmente una distibuzione di
25
probabilità per una particella singola. Ad esempio, Z1/2=(1/2,0,0,0,1/2) assegna
probabilità uguale ad 1/2 per essere la molecola negli stati k=0 e k=4, e probabilità
nulla per k=1,2,3. Ne deriva che la media degli Z con pesi Pr(Z) può interpretarsi
come la distribuzione di probabilità di una generica molecola sugli stati ammessi dai
vincoli. Nel nostro caso
∑i Zi Pr(Zi)= Error!+Error!+ Error!=
(1/5,..,1/5), che è la distribuzione uniforme sulla generica particella.
Tornando al discorso principale, non é questa equiprobabilità che disturba, dato che
nel limite termodinamico si trasforma nella distribuzione geometrica con media pari a
2, e nel limite continuo nell'esponenziale. Ciò che non va é che gli stati possibili di
una molecola non sono un parametro esterno al modello, ricavato da considerazioni
dinamiche, ma risultano dal meccanismo-base di accomodazione dei quanti di energia
cinetica7! Questo meccanismo prevede un numero di stati di singola particella per
livello energetico pari a 1, cioé per ogni livello k=k esiste un solo oscillatore. Ci
aspettiamo perciò nel limite continuo g(E)= Error!= costante. Se ammettiamo invece
che il numero degli stati con energia minore o uguale ad E sia proporzionale al
corrispondente volume () dello spazio  si ha()=Error!
Solo nel caso bidimensionale si ha ()=Error!
Se il meccanismo fosse costituito da molecole che si accomodano direttamente su
stati con probabilità uniforme, il risultato dovrebbe dipendere dal numero degli stati,
che andrebbero inseriti nel modello come richiede la dinamica; ma qui il modello è
"elementi su molecole", per cui gli stati delle molecole e la loro probabilità sono un
risultato. Già da qui si vede che il modello "elementi su molecole" non é in grado di
soddisfare il corretto numero degli stati che la dinamica prescrive. Il fatto che il
risultato descriva correttamente un gas bidimensionale é da considerarsi casuale.
Proprio perché riteniamo che per il resto la deduzione sia corretta, possiamo
affermare che non é possibile ricostruire l'insieme delle possibilità dinamiche (gli stati
delle particelle) di un gas a partire da "elementi di energia cinetica" comunicati alle
particelle. Lo schema "N oggetti su D celle" potrà essere ancora utilizzato, a patto di
una radicale reinterpretazione del significato da attribuire ai termini.
Frequenze di frequenze
7E'
evidente come queste considerazioni siano del tutto estranee al pensiero di
Boltzmann, ma abbiano solo un valore euristico per il modello che abbiamo
introdotto.
26
L'inadeguatezza
del
modello
statistico
per
la
derivazione
di
p(E)=C
Error!
f(E)=C(D)  e-E(21)
e la trasforma nella funzione a scala fN(E)=f(k) per k<E≤(k+1)in cui f(k) é il
numero di molecole nello stato k, cioé
Zk~ k e-k= k qk, (22)
essendo q=e-.
Ora il vettore Z, essendo la versione discreta di f(E), é normalizzato al numero di
molecole D: é il numero di molecole con k elementi di energia, per ogni k. Se (come
abbiamo visto nell'esempio precedente) il vettore Z si normalizza ad 1, esso può
rappresentare la probabilità che una molecola abbia esattamente k elementi di
energia,
la
quale
risulta
perciò
proporzionale
a
Error!
Questa é la probabilità di osservare lo stato k di una molecola estratta "a caso " dalle
D presenti (ad esempio facendo un foro nel recipiente, e tenendo conto dei fattori
cinematici che influenzano questo tipo di campionamento). Si noti come in questa
memoria si possa intravvedere la svolta essenziale (che si consoliderà nei lavori
seguenti): la probabilità dello stato di una molecola, piuttosto che derivarsi
marginalizzando la distribuzione congiunta delle D molecole, a sua volta deducibile9
da ipotesi sui "sottostanti" elementi di energia, si ricaverà dalle frequenze dei
"sovrastanti " macrostati (frequenze di occupazione, o numeri di occupazione sugli
stati k, o stati degli oscillatori).
8Formalmente,
la (7) e la (9) Pr{j | M}= Pr{Yj;M+1 =1 |M} possono essere
generalizzate così:
Pr{Yj;n =1 |M}=Pr{Yj;n =1 |Mj,M} = Error!
per n>M
= Error!
per n≤M
Mentre per la regione predittiva n>M é necessario postulare l'invarianza della
funzione di probabilità, nella regione n≤M la formula richiede solo la validità della
condizione di scambiabilità, ed é perciò di molto più ampia applicazione. Dato che
Mj=Error!, la formula può scriversi come riferita a
E(Yj;n |Error!), con le due forme a seconda che l'n-ma osservazione compaia o no
nell'evidenza.
9Non è il caso di Boltzmann in questo frangente, anche se in una occasione almeno
analizzò la questione.
27
Z* <----- (1872-77) <--------Pr(Z)
 

 
Pr(k) <--------(1868) <---------Pr(k1,...,kD)
Questa procedura approssimata ha ancora un senso in Boltzmann, che é teso a
ricavare la distribuzione di Maxwell per la generica molecola; non ne ha invece
quando si cerchi il valore dell'entropia, o dell'energia media del sistema, che sono
funzioni della distribuzione congiunta D-dimensionale. Questa approssimazione non
compare nei lavori di Planck, il quale, subordinatamente al fatto che N eccitazioni
siano distribuite su D oscillatori, si accontenta del fattore (N+D-1;N) ; ricompare in
Bose e nel primo lavoro di Einstein sul Gas di Bose, per poi scomparire
definitivamente nel suo secondo lavoro sull'argomento[11]. Come vedremo più
dettagliatamente in seguito, é infatti evidente che la distribuzione sugli stati Pr(N)=
-1
(N+D-1;N) contiene tutta (e sola) l'informazione necessaria per la descrizione
statistica del (sotto)sistema.
28
Boltzmann 1877
Il medesimo modello "N elementi di energia su D particelle" é riutilizzato da
Boltzmann nel 1877[3]. Boltzmann calcola il numero W(Z) di complessioni N
compatibili con una distribuzione di stato Z. Il numero di distinti N é (N+D-1;N) ,
mentre il numero di N compatibili con un Z è W(Z) = Error!. Supponendo uniforme
-1
la distribuzione Pr(N)=(N+D-1;N) , é allora nota la distribuzione
-1
Pr(Z)= Error! per tutti gli Z: Error!=D e Error!=N
di cui Boltzmann cerca il massimo condizionato ai due detti vincoli . Il risultato é
Zk*~qk, e anche p(k)=Error!~qk. Questa distribuzione geometrica troncata diviene la
geometrica nel T-limite, ed ancora la (20') nel limite continuo. Questo lavoro di
Boltzmann é importante perché mostra la sua consapevolezza circa il legame esistente
tra la correlazione degli elementi di energia e la conseguente distribuzione sugli stati
N delle molecole: se gli elementi fossero indipendenti, allora lo stato di una molecola
avrebbe una distribuzione bernoulliana, che diviene poissoniana nel T-limite e
deterministica nel limite continuo, cioé p(E)=(E-E*)10. Riguardo l'atteggiamento
generale rispetto al problema, si consolida la svolta rispetto al lavoro del '68. Nel '68
si parte da una distribuzione sugli stati delle molecole, si marginalizza su una
molecola, e si lavora in modo esatto su questa distribuzione; nel '77 si parte dalla
stessa distribuzione, si calcola la distribuzione sui macrostati Pr(Z), si cerca il
macrostato più probabile (quello di equilibrio) e si pone alla fine Pr(k)=Pr(k|Z*)=
Error!.
Proprio nella stessa memoria Boltzmann abbandona gli elementi di energia, ed
assume che lo schema (che diverrà fondamentale) (N,D) si riferisca ad N particelle su
D celle dello spazio . Qui assistiamo ad una vera e propria traslazione di simboli e
significati, che possiamo tradurre nel linguaggio a noi più familiare: un vettore N
descrive l'occupazione delle D celle (ovvero insiemi di stati di particella singola, od
10Questo
corregge parzialmente quanto detto all'inizio, circa la non menzione da parte
di Boltzmann delle descrizioni di stato degli elementi di energia, che infatti inizia con
la distribuzioni uniforme dei loro numeri di occupazione. In questa fase della sua
opera egli comunque mostra piena consapevolezza delle conseguenze delle ipotesi
implicite nel suo lavoro del '68.
29
oscillatori); una configurazione x descrive la collocazione delle N particelle sugli
oscillatori. Il numero di configurazioni compatibili con un N fissato sarà perciò N!
Error!con i vincoli Error!=N e Error!i=E, dove gi indica il numero di oscillatori
della cella i-ma ed i é l'energia associata alla i-ma cella. Notiamo che essendo
cambiato il significato dei vettori x e N, é cambiata la posizione della relazione che
fissa il valore dell'energia. Inoltre i valori di energia di ogni cella i ed il numero di
stati per ogni cella gi sono determinati dalle proprietà dello spazio , sono perciò
parametri esterni del modello.
Confrontiamo questa nuova formulazione con quella della memoria del '68:
riscriviamo perciò la probabilità uniforme delle configurazioni delle particelle (2)
nella nuova simbologia, in cui N é il numero delle particelle (il vecchio D) ed E/ é il
numero degli elementi di energia (il vecchio N), cioé
-1
Pr(x; N,E)= (E/ +N-1;E/)
(2')
dove come al solito i simboli N ed E che stanno all'evidenza non sono eventi, ma
parametri che identificano la distribuzione. Osserviamo che N ed E sono due
parametri indipendenti l'uno dall'altro.
Indichiamo con N i vecchi macrostati Z , con le condizioni Error!=N, e Error!=E/.
Osserviamo che questa impostazione tratta in modo equiprobabile tutte (e sole) le
possibilità compatibili con l'energia data, che é un parametro del modello. In
particolare la probabilità dei macrostati N é fissata con esattezza : é la vecchia Pr(Z)
di due pagine sopra, che riscriviamo così
-1
Pr(N)= Error! . Il macrostato più probabile dati i vincoli può in principio
essere calcolato esattamente: l'approssimazione di Stirling é un espediente numerico
giustificato dalla ricerca di N* nel dominio dei macrostati compatibili con E.
Questo non é più vero nelle mutate condizioni cinematiche del '77. Se imponiamo che
Pr(x) sia uniforme dati i vincoli sarà:
Pr(x; N,E) =Pr(x; N)= Error!.
(2'')
Questa distribuzione é esatta come la (2) o la (2'), ed anch'essa può essere
marginalizzata. Se vogliamo calcolare Pr(x1=jm), cioé la probabilità che la prima
particella sia su un ben preciso oscillatore della m-ma classe, dobbiamo addizionare
le probabilità di tutte le configurazioni in cui le N-1 restanti particelle sono
compatibili col macrostato (N1,..,Nm-1,..,ND). Il loro numero é
30
(N-1;N1...Nm-1 ..ND)
g1N1..gmNm-1..gDND, per cui Pr(x1=jm)=Error!gm-1, in cui il
primo termine é la probabilità di appartenere all'm-ma classe, ed il secondo la
probabilità dello stato data la classe. Mentre nella (2') vi sono due parametri
indipendenti N ed E, nella (2'') il parametro della distribuzione è il macrostato N , e
questo sia per quella congiunta che per quella marginale. A differenza del modello
precedente, non vi é più una pluralità di macrostati compatibili con un valore di E e di
N, ma in generale vi é corrispondenza 1-1 tra E ed N, cioé la funzione E(N) é in
principio invertibile. Come é possibile liberarci di N e trovare una distribuzione
marginale che dipenda solo da parametri termodinamici? In principio il metodo del
macrostato più probabile fissata l'energia nelle nuove (e corrette) condizioni
cinematiche non ha alcun senso. Per recuperarlo, é necessaria un'approssimazione di
partenza: si deve introdurre un livello di descrizione "a grana grossa", in cui più classi
di oscillatori si unifichino in f<<D strati, con g1,..,gf oscillatori con energia per
particella E1,..,Ef. Per la nuova descrizione N=(N1,...,Nf) varrà Error!=N e Error!
=E, dove lo spettro di E differisce da quello (esatto) di E, e come vedremo può
considerarsi continuo. Se si pensa di formare gli strati suddividendo lo spazio
secondo i multipli di una quantità fissata ∆, l'energia degli strati sarà Ei=i∆, e siamo
perciò ricaduti in una situazione simile al modello di Boltzmann del 1868. Vi saranno
perciò molti macrostati esatti N compatibili con E. Inoltre sarà legittimo supporre
Ni,gi >>1, e quindi trattarli come quantità continue, e sostenere l'universale validità
dell'approssimazione di Stirling. Questa descrizione é finalizzata all'introduzione
(spesso velata) di una nuova ipotesi, e cioé l'equiprobabilità delle configurazioni
compatibili con E, di cui non é facile calcolare il numero, come nel caso della (2), o
nel caso della (2'') in cui si condiziona ad N. Quindi si può calcolare Pr(N|E) a meno
di un fattore di normalizzazione; se ne può però calcolare il massimo, cioé si può
individuare la descrizione N* che la massimizza con i vincoli Error!=N e Error!=E.
Abbiamo così messo in evidenza le ipotesi generalmente nascoste nel metodo N* nel
caso di "N particelle su D classi", ponendole a confronto col metodo Z* nel caso di
"N elementi su D particelle".
Una conclusione provvisoria é la seguente: nel modello del '68 il metodo del
macrostato più probabile data l'energia é probabilisticamente sensato, anche se é
sostanzialmente inutile; nel modello del '77 il metodo non ha senso se non
introducendo fin dall' inizio approssimazioni sulle classi e sui livelli energetici. Tutto
31
questo non é ovviamente imputabile a Boltzmann, il quale non ha problemi di spettri
o di quantizzazioni che non siano arbitrari strumenti di calcolo. L'aver legato la tanto
sospirata derivazione della distribuzione di Maxwell al metodo del macrostato più
probabile ha fatto sì che il metodo esatto della distribuzione sulle possibilità
elementari, della marginalizzazione e dei limiti termodinamici venisse
sostanzialmente dimenticato. In realtà, nel cosiddetto metodo elementare della
meccanica statistica[12], il cosiddetto macrostato di equilibrio (che é una frequenza
relativa) é sufficiente per la termodinamica, sicché le nozioni genuinamente
probabilistiche di distribuzione sulle possibilità elementari e di probabilità marginale
perdono di significato.
32
Parte II. Entra Brillouin
La distribuzione di Polya D-variata , da cui Boltzmann partì per la derivazione delle
probabilità marginali e dei limiti sopra visti, é un caso particolare della famiglia di
distribuzioni
Pr,p(N)= Error!= Error!
(23)
dove p=(p1,....,pD) é una distribuzione di probabilità, é un parametro reale, ed il
simbolo x[n] sta per x(x+1)..(x+n-1). Si ottiene la distribuzione uniforme per =D e
p=(D-1,....,D-1). La famiglia Pr,p(N) si può ricavare quale probabilità delle possibili
composizioni N di un campione, ottenuto dopo N passi di un processo stocastico
scambiabile ed invariante con probabilità iniziali p e parametro di correlazione
c=D/. Questo processo fu applicato alla statistica delle particelle elementari da
L.Brillouin nel 1927[13], utilizzando un linguaggio geometrico che forse rivela la
scarsa consapevolezza del significato probabilistico delle assunzioni da lui operate .
In questo lavoro l'autore fornisce una unica formulazione delle tre statistiche delle
particelle elementari, la statistica di Maxwell-Boltzmann (MB), quella di BoseEinstein (BE) e quella di Fermi-Dirac (FD). Strumento concettuale unificante della
trattazione dell'autore è il considerare tutte le particelle (projéctiles ) distinguibili e
cercare una ipotesi ausiliaria che gli permetta di ritrovare le tre statistiche. L'articolo
di Brillouin presenta un punto di vista originale sul problema della distinguibilità
delle particelle classiche e quantistiche. Come è noto, questa distinzione fu assunta
come fondamentale per spiegare il differente comportamento statistico delle particelle
quantistiche[11][14]. In tale contesto i concetti d'indipendenza statistica e di
distinguibilità delle particelle, capisaldi della teoria classica, perdono senso. La
nozione di indistinguibilità delle particelle é infatti una giustificazione di tipo
extraprobabilistico per supporre equiprobabili i numeri di occupazione (anziché le
configurazioni) compatibili con il macrostato N. Come abbiamo visto in Boltzmann
'68, l'equiprobabilità degli stati delle celle é compatibilile solo con la correlazione
(positiva) degli oggetti. Nel caso dei fermioni l'ulteriore prescrizione del principio di
esclusione cambia segno alla correlazione. Questa assunzione di equiprobabilità
introduce perciò una mutua influenza tra le particelle, senza per altro giustificarla. O
meglio, la nozione di "indistinguibiltà" viene assunta proprio per giustificare la scelta
33
di tale distribuzione. Come introduce invece Brillouin la correlazione tra le particelle?
Lo fa ipotizzando che ciascuna particella abbia un volume proprio a nello spazio ,
sicché posto uguale a 1 il volume di una cella vuota dello spazo , il volume di una
cella già occupata da k particelle sarà 1-ka. Ma vediamo più da vicino questo lavoro.
Brillouin parte dalle formule che danno, nei tre casi, il numero di differenti modi
(W) in cui si possono ripartire N particelle, in ragione di Ni per ogni classe (couche )
di energia Ei, sapendo che in ogni classe ci sono gi stati11 (cases ). Notiamo che qui
classe sta per sottospazio dello spazio , mentre la cella elementare dello spazio  é
chiamata stato.
Due sono le definizioni distinte che intervengono in questo calcolo:
1-definizione del criterio utilizzato per distinguere le situazioni elementari, legata alla
distinguibilità o meno delle particelle;
2-definizione dei diversi casi considerati possibili, legata al problema delle
correlazioni negative.
Secondo Brillouin la MB, relativamente al primo punto, « admet qu'on peut , a
priori, distinguer un projectile d'un autre »; mentre per la BE e la FD « tous les
projectiles sont considérés comme identiques a priori » e quindi le ripartizioni si
distinguono per il differente numero di particelle di ciascuno stato
Relativamente al secondo punto la MB e la BE «admet ordinairement l'indifferences
des objets ,» nel senso che « è la stessa la possibilità di aggiungere una particella in
uno stato già occupato o in un stato vuoto »; mentre per la FD «chaque objet suffit à
remplir une case, et l'on ne peut en placer plus d'un 12.»
Mentre il primo punto é sufficientemente chiaro, il secondo afferma in modo confuso
la possibilità di collocare un numero indefinito di bosoni o particelle classiche in uno
stesso stato.
A questo punto Brillouin riassume il metodo consueto per ottenere le tre statistiche:
l'approccio consiste nel calcolare W(N), cioè, il numero degli stati microscopici
compatibili con ciascun macrostato, e nel massimizzare logW(N) con i vincoli
opportuni, identificando il macrostato di equilibrio N* come il macrostato "più
probabile".
Nel caso di un gas : gi = g(Ei)= (2V/h3)(2m)3/2 Ei 1/2E ; per i fotoni : gi=
g(i)=V (4i2/c3) 
12Questa e le citazioni precedenti si trovano in Brillouin (1927) pp.318-319.
11
34
Il modo usuale di calcolare W(N) divide le particelle in distinguibili e non, e poi
queste ultime a seconda che valga o no il principio di esclusione.
Se le particelle sono distinguibili, il numero di modi diversi in cui si possono
distribuire le particelle in D classi, ognuna delle quali ha gi stati possibili di
occupazione, così che nella prima classe ci siano N1 particelle, nella seconda ce ne
siano N2, nella i-ma ce ne siano Ni ,.....etc. sarà dato dal numero dei modi diversi in
cui le N particelle del sistema si possono disporre nelle D classi, così che nella prima
classe ci siano N1 particelle, nella seconda ce ne siano N2,.., nella i-ma ce ne siano Ni
,..... moltiplicato per il numero di modi in cui le Ni particelle si possono distribuire
tra i gi stati della classe i-ma; in definitiva, nel caso classico, si otterrà :
W (N) = N!Error!
MB
Nel caso delle particelle indistinguibili non si può sapere quali particelle siano state
poste in ciascuna classe, per cui la sola caratteristica distintiva di una data
distribuzione microscopica sono i numeri di occupazione dei gi stati di ogni classe
contenente Ni particelle. Il numero cercato è quindi uguale al numero delle
distribuzioni sugli stati compatibili con la distribuzione N .
Se le particelle non seguono il principio di esclusione di Pauli si otterrà:
W
BE
(N) = Error!
Se le particelle indistinguibili seguono il principio di esclusione di Pauli ( un stato
può essere occupato da una sola particella) è facile vedere che per tutte le D classe si
otterrà:
W
FD
(N) = Error!.
Passando ai logaritmi e utilizzando l'approssimazione di Stirling, chiamando
genericamente con A i termini costanti (il cui ruolo del resto è nullo quando si cerca
la distribuzione più probabile) Brillouin fornisce la seguente espressione per le tre
statistiche:
log W = A - Error!+Error! (24)
L'autore cerca di derivare queste espressioni a partire da principi comuni.
La teoria unificata
35
Brillouin considera la formula classica come intermedia tra quella di Bose e quella di
Dirac; si pone allora l'obiettivo di trovare una formula generale che gli permetta di
passare da una probabilità costante di occupare un stato ad una condizionata dal
numero delle particelle già presenti nello stato.
Egli è fortemente critico13 sull'ipotesi dell'indistinguibilità delle particelle
quantistiche, corrispondente, secondo lui, ad un "processo irrealizzabile in pratica" .
Ritiene quindi più corretto considerare le particelle, di qualsiasi tipo esse siano, ben
distinguibili l'una dall'altra. In secondo luogo assume che la probabilità di collocare
una particella in uno stato già occupato dipenda dal numero delle particelle già
entrate. Egli suppone che ogni stato vuoto abbia una capacità uguale a 1 e ogni
particella un volume uguale ad a , di modo che uno stato che contiene p particelle
abbia capacità uguale a 1-pa. A seconda del valore del parametro a si otterranno
capacità differenti. Brillouin suppone che i fermioni (a=1) abbiano un volume
positivo, le particelle classiche (a=o) volume nullo, e i bosoni (a= -1) un volume
negativo. Analizzare la probabilità in termini "geometrici" permette a Brillouin di
descrivere l'occupazione di una classe in termini dell'occupazione degli stati.
Si può allora affermare che, se uno stato è occupato da nj bosoni, la sua capacità
aumenta ( passa cioè da un valore 1 a un valore 1+nj ); se è occupato da nj particelle
classiche la sua capacità resta immutata, se è occupato da un fermione la sua capacità
diventa nulla , cioè nessun' altra particella può più entrarvi.
La probabilità che una particella occupi uno qualunque degli stati della classe Ci ,
con gi stati , varierà quindi a seconda del numero di particelle che la occupano . La
probabilità che la prima particella occupi uno qualunque degli stati della cella Ci sarà
data da Error!, con G=∑igi; la probabilità che la m+1-esima particella occupi uno
qualunque degli stati della cella Ci , sapendo che le particelle che già occupano la
cella sono in tutto Mi sarà:
Error!
13Egli
(25)
scrive infatti : «L'identité complète des objets, admise par Bose, est une fiction
irréalisable; chacun des objets a suivi une voie différente, qui nous permet de le
distinguer des autres: le photon émis à un instant donné provient d'un atome
déterminé, et les autres photons accumulés dans la meme case avaient eu, auparavant
des histoires bien distinctes » Brillouin (1927) pag .330.
36
dove ( gi - Mia ) sono les places libres nella cella Ci e ( G - Ma ) les coups possibles
, cioè la capacità totale del sistema in quel momento.
La probabilità di avere Ni particelle all'interno di una cella si deriverà quindi, per il
principio delle probabilità composte, a partire dal prodotto delle probabilità che Ni
particelle assegnate occupino la cella . Tale prodotto, per le proprietà della funzione
, sarà proporzionale a :
Error!.
(26)
La formula (26) si ottiene dal prodotto di tutti i numeratori della (25) , cioè le diverse
capacità della cella man mano che questa viene occupata dalle Ni particelle; tale
prodotto dipende solo dal numero Ni di particelle all'interno della cella . Ma la
capacità della cella non è altro che la somma delle capacità degli stati , cioè gi - Nia
=Error!, dove con nj indichiamo il numero di occupazione di uno stato e Error!,
allora N=(N1,.., Ni,....Nk) e n=(n1,..,nj,..,nG) indicheranno
il generico vettore
d'occupazione rispettivamente delle k celle e dei G stati , dove n=Error!=Error!.
Introducendo la molteplicità delle sequenze, che saranno Error!, avremo in
definitiva per tutte le celle :
Pr (N) = Error!,
(27)
che altro non é se non la (23) con pi= Error!
Da quel che abbiamo visto segue che Pr(N) é la distribuzione su tutte le possibili
composizioni di una popolazione di N individui su G stati suddivisi in D classi. Al
contrario Brillouin continua a chiamarla impropriamente W, dimostrando con ciò i
limiti concettuali della sua derivazione. A lui interessa la derivazione unificata dei
numeri (24), cui intende applicare l'usuale procedimento di massimizzazione
condizionata. Infatti alla (27), per Ni e gi grandi , Brillouin applica la formula di
Stirling , e ottiene :
Pr (N) = Error!.
La formula unificata per le tre statistiche è allora :
log {Pr (N)} = Error![∑gi log gi - G logG] + N logN + (Error!- N) log (G aN) +
+∑ [ - Ni log Ni + (Ni - Error!) log ( gi - aNi )] (28)
37
Considerando che N e gi sono delle costanti e sostituendo il valore opportuno del
parametro a, dalla (27) si ritrovano le tre espressioni della (24).
Concludendo il paragrafo Brillouin fa le seguenti ipotesi:
1° Hypothèse de Pauli, Dirac, a=1.
In questa ipotesi è nulla la probabilità che una particella occupi uno stato già
occupato da un'altra particella.
2° Hypotèse classique; indépendance des projectiles; a=0.
La probabilità che una particella occupi uno stato che ne contiene gia p, oppure è
vuoto, è sempre la stessa .
3° Attraction des projectiles, a=-1.
La probabilità che una particella occupi uno stato che ne contiene già p è
proporzionale a 1+p. In questa ipotesi Brillouin, massimizzando log{Pr(N)} con i
vincoli ∑iNi=N e ∑iNii=E, ricava l'espressione di Planck per la radiazione del corpo
nero, calcola poi le fluttuazioni e paragona infine il suo metodo con l'approccio di
Einstein del 1909. Tralasciamo di osservare se il processo di massimo sia corretto (
cioé se si tratti di N o non piuttosto di N, vedi il precedente paragrafo), e
consideriamo il grande valore della derivazione: il medesimo processo produce le tre
distribuzioni sui macrostati, con un unico parametro in corrispondenza 1-1 con la
particolare statistica. Formalmente (anche se Brillouin non ne fa cenno) si possono
trattare "parastatistiche" corripondenti all'infinità continua di valori positivi della
correlazione e all'infinità numerabile dei valori negativi14. A quanto ci consta, questo
lavoro di Brioullin é stato ignorato per almeno sessant'anni. La ragione principale di
questo disinteresse va forse cercata nella pretesa di Brillouin che la derivazione si
basasse sulla distinguibilità delle particelle, tradizionalmente connessa al fattore
Error!che compare nella (27). Il fatto che questo fattore compaia nelle tre statistiche,
e non solo in quella classica, può far pensare che tutte le particelle siano distinguibili;
in realtà lo stesso fattore rappresenta semplicemente il numero di distinte
realizzazioni del processo che conduce a N, e non riguarda l'individualità (presunta)
di qualsivoglia particella. Sicché la ripetuta asserzione di Brillouin circa la
distinguibilità di tutte le particelle, mentre é del tutto scollegata dalla derivazione
14La
probabilità (27) é ben definita per qualunque volume negativo purché finito, e
per qualunque volume positivo pari a un sottomultiplo del volume della cella vuota.
38
della (27), ha probabilmente contribuito a rivestirla di un involucro filosoficamente
perdente nel milieu del periodo.
Una seconda ragione di sospetto verso questa derivazione sta forse nell'uso della
probabilità di transizione (25), cioé Pr(i|M)= Error!, che é una probabilità
difficilmente interpretabile come una frequenza relativa. Mentre la probabilità
assoluta Pr(N) é la probabilità di una composizione della popolazione complessiva,
che per grandi N é in principio empiricamente controllabile con i consueti metodi
statistici, Pr(i|M) é la distribuzione sulle le possibili composizioni di una popolazione
con un solo individuo (la M+1-ma particella osservata), condizionate al fatto che il
sistema é nello stato M. La confusione tra i concetti di probabilità e di frequenza
relativa, unite alla mancanza di chiarezza circa il ruolo delle ipotesi e dei controlli
nelle teorie probabilistiche, hanno spesso condotto ad affermare l'assenza di
significato empirico per espressioni quali la (25).
Per terminare questa parte, chiariamo che non intendiamo riproporre in modo puro e
semplice il metodo di Brillouin in una veste filosofica più sofisticata, ma intendiamo
discuterlo anche nel merito, in vista di una sua riutilizzazione più soddisfacente.
Il processo T=∞
Confrontiamo il modello di Boltzmann '68 con quello di Brillouin. Per Boltzmann vi
sono E/ elementi di energia su N molecole. Il vettore x=(x1,..,xN) é una descrizione
di stato delle N molecole, compatibile con l'energia totale E. Gli stati possibili di una
molecola sono xi=0,1,..,E/, ed il numero di occupazione di ciascuno di questi stati
sarà N=(N0,..,NE/). Il vincolo che fissa il numero di molecole del sistema implica
Error!=N; quello che fissa l'energia implica Error!=Error!.
Il modello di Brillouin é una generalizzazione del famoso metodo di Boltzmann del
'77, e consiste nella sistemazione di N molecole su G stati, suddivisi in D classi di
numerosità g1,..,gD. Per il vettore N che conta il numero di particelle per gruppo
varrà Error!=N e Error!=E. Come abbiamo già osservato, il vincolo dell'energia é
essenziale in Brillouin (é un evento), mentre per Boltzmann '68 é un parametro
esterno. Il meccanismo di Boltzmann fissa l'energia all'inizio, percui il secondo
vincolo vale automaticamente; quello di Brillouin no, perché l'energia totale dipende
dalla classe in cui si colloca ogni particella, e quindi il secondo vincolo é logicamente
indipendente da ciò che lo precede. Per il resto i due vincoli sono uguali se si
sostituisce alla variabile di somma la parola "stati", ricordando che in Boltzmann '68
39
i=i. Boltzmann nel '68 pone (ne sia o meno consapevole) una correlazione tra gli
E/ elementi di energia tale che Pr(x) sia uniforme, cioé tale che tutte le
configurazioni delle molecole compatibili con l'energia totale siano equiprobalili.
Dato che questo valore della correlazione é quello che caratterizza la sistemazione dei
bosoni sulle celle elementari dello spazio si parla a questo proposito di Boltzmann
quale "inventore" della statistica di Bose-Einstein[1][15]. Brillouin generalizza lo
stesso procedimento ad ogni valore della correlazione (tramite l'espediente
geometrico del "volume proprio"), e lo sposta di livello, applicandolo alla
sistemazione di N particelle su G oscillatori. Come si vede dalla (25), la probabilità
iniziale di sistemazione su ogni oscillatore é uniforme, e quindi per ogni classe é
Error!: questo significa che tutti gli oscillatori sono inizialmente equiprobabili, quale
che sia il valore i che li caratterizza. Mentre nel caso degli elementi di energia su
molecole questa equiprobabilità iniziale tratta ragionevolmente allo stesso modo tutte
le molecole, lo stesso non può dirsi per le celle elementari dello spazio . Essa sarà
eventualmente giustificata solo nel limite di temperatura infinita, mentre non potrà
valere quando l'energia totale sia limitata. Basti pensare alla quantizzazione di Planck
del campo elettromagnetico: un oscillatore di frequenza  non potrà essere eccitato
nel caso in cui l'energia totale sia minore di h, per cui questa cella elementare dello
spazio  sarà certamente vuota finché l'energia totale non sarà almeno pari ad
hDetto in sintesi, il processo di Brillouin non può essere interpretato come un
effettivo processo di crescita di un sistema a contatto con un termostato di cui si
conosce la temperatura. Il suo analogo é l' ensemble con  uniforme su tutto lo spazio
. Il calcolo della probabilità assoluta di un vettore N ovviamente prescinde dalla
considerazione del vincolo sull'energia totale: é come se questa probabilità venisse
calcolata a temperatura infinita, e poi ristretta ai vettori N compatibili con la fissata
energia. D'altra parte può giustificarsi quale processo epistemico, in cui prima di ogni
osservazione tutte le possibilità elementari per la prima particella (i G oscillatori)
sono considerate equiprobabili. Il fatto che questa indifferenza iniziale (dovuta
all'ignoranza) equivalga a supporre di conoscere con certezza il valore della
temperatura é stato discusso in alcuni lavori di Shimony, a proposito dell'applicazione
del cosiddetto Principio di massima entropia (MaxEnt) per la derivazione della
distribuzione Canonica. Nel metodo tradizionale vi é una più o meno esplicita
asserzione aggiuntiva di equiprobabilità dei microstati dato il macrostato, oppure
data l'energia totale, ove si supponga che più macrostati siano compatibili con un
40
valore dell'energia macroscopicamente definito (cioé a meno di un E). In questo caso
importa la probabilità (relativa) dei macrostati Pr(N|E) per individuarne il più
probabile. Si preferisce evitare una distribuzione "universale" Pr(N) sia per l'infinità
del dominio (in realtà G=∞) che per "some element of arbitrariness"[16] in cui é
facile riconoscere il sospetto anti-bayesiano contro ogni tipo di distribuzione a priori.
Su questo torneremo quando avremo analizzato le conseguenze in Brillouin di tale
assunzione.
Configurazioni, microstati e macrostati
I punti fondamentali della trattazione di Brillouin sono i seguenti :
1) una statistica delle particelle elementari é ricavabile a partire da una
distribuzione di probabilità su tutti i macrostati N a priori possibili date le N
particelle; cioé una distribuzione di probabilità sui possibili stati delle D classi di
oscillatori con N eccitazioni in tutto;
2) le tre statistiche sono elementi di una stessa famiglia di distribuzioni, e
differiscono esclusivamente per il valore del parametro a, che é legato alla
correlazione;
3) le tre statistiche sono derivabili come distribuzione di probabilità sulle
possibili composizioni della popolazione generata da un processo stocastico
scambiabile ed invariante, con probabilità iniziale uniforme e con parametro a.
4) il macrostato di equilibrio é il macrostato più probabile condizionato
all'energia fissata.
Circa il primo punto, come in Boltzmann '68, abbiamo finalmente una distribuzione
di probabilità normalizzata su un ben preciso dominio. In Boltzmann é la
distribuzione uniforme sugli stati possibili delle molecole, e il dominio é
apparentemente costituito dalle diverse descrizioni di stato delle particelle. Se si
prende sul serio la consapevolezza di Boltzmann della dipendenza della distribuzione
sugli stati delle molecole dalla correlazione delle eccitazioni, allora le possibilità
elementari sono gli stati delle eccitazioni (ovvvero le molecole). Se questi sono
assunti come "punti"  dello spazio di probabilità , abbiamo le successive e sempre
meno raffinate decomposizioni di , e cioé le descrizioni di stato delle molecole x, le
descrizioni di stato degli oscillatori N (il numero delle molecole di data energia), ed
41
infine l'insieme (E) dei punti compatibili con la data energia E, che coincide con
=Bo.
In Brillouin (ed in Boltzmann '77) i punti sono le realizzazioni del processo y (quale
che ne sia l'interpretazione ) che registrano gli accomodamenti delle N particelle, in
termini delle quali ha senso definire le descrizioni di stato dei G oscillatori n e le
(meno raffinate) descrizioni di stato delle classi N, che coincidono con l'insieme dei
punti compatibili con l'energia fissata. Le descrizioni N sono le decomposizioni dello
spazio nella partizione =(E1)(E2)(Ek)..., dove la sequenza E1,
E2,..,k,.. ordina in senso crescente i valori possibili dell'energia. Cioé
N(E1)=(N,0,...,0), N(E2)=(N-1, 1, 0,...,0),.., e tutti i valori dell'energia sono
rappresentabili in questo spazio =Br.
Entrambe le descrizioni consistono in un insieme di punti (gli stati delle eccitazioni,
rispettivamente elementi o particelle), raggruppati in microstati (gli stati delle
molecole in Bolzmann oppure degli oscillatori in Brillouin), a loro volta raggruppati
in macrostati (il numero delle molecole di data energia in Bolzmann o il numero di
occupazione delle classi in Brillouin)
Boltzmann '68 
x
n
 N
Brillouin
..
y
n
(E) Bo
N  (E)
Br
Supponiamo infatti che n=(n1,n2,..,nG) indichi il generico vettore d'occupazione dei G
oscillatori (o stati di particella singola), e N=(N1,N2,..,ND) indichi il generico vettore
d'occupazione delle D classi C1,..CD, dove n=Error!nj =Error!=Error!.
In Boltzmann '68 n ed N coincidono, cioé gi=1, e G=D. In Brillouin vi é invece
coincidenza tra N e(E), ove non si proceda a "coarse-graining".
Dato che Brillouin é principalmente interessato a che le molteplicità W(N) fornite dal
metodo combinatorio del numero dei microstati compatibili con un dato macrostato
vengano ricavati come proporzionali alla probabilità di N, egli trascura la descrizione
n, che il suo metodo é in grado di calcolare. Anche Pr(n) é data in modo "universale"
, cioé il processo fornisce la probabilità di tutte le possibili descrizioni di stato di ogni
oscillatore per ogni valore dell'energia. Il processo che conduce a Pr(n) (che non tiene
in alcun conto dell'energia caratteristica delle diverse classi di oscillatori) é un
processo invariante con probabilità iniziale pj= G-1, guidato dalla probabilità di
transizione all'N+1-mo passo P(j | nj,N) = Error!, con Error!. Se si assume pj=
42
G-1, e si introduce c-1=Error!, da cui =Error!, e =Error!, la probabilità di
transizione può essere riscritta così:
Prc(j | nj,N) = Error!,
(28)
Nei tre casi di interesse fisico si ha :
PrMB(j | nj,N) = pj , =1, = ∞, c=0
PrBE(j | nj,N) = Error!,
= Error!,
PrFD(j | nj,N) = Error!,
= Error!,
= G, c=1
= -G , c=-1
e le probabilità finali risultano essere :
PrMB (n) = Error!G-N
-1
PrBE(n) = (N+G-1;N)
(distribuzione multinomiale G-dim)
(distribuzione
di
Polya
G-dim)
(29)
PrFD(n) = (G;N)
-1
(distribuzione ipergeometrica G-dim) .
Naturalmente queste distribuzioni sono ottenute in assenza di vincoli sull'energia: più
esattamente, le (29) non dipendono dai valori {gi,i} che caratterizzano le diverse
classi. Il fatto di raggruppare le G celle in D classi di numerosità g1,..,gi,..,gD
caratterizzati dallo stesso valore i dell'energia appare a questo punto del tutto inutile,
se non in vista di un'introduzione successiva del vincolo sull'energia. In tal caso di
ottiene
PrMB(N) = Error!
PrBE(N) = Error!
(30)
PrFD(N) = Error!
che sono le specializzazioni della (27), e in cui ciascun Pr(N)=Error!delle
corrispondenti formule sui microstati. Quando Brillouin ha ottenuto la (27),
dimenticando l'originalità della sua derivazione, massimizza lnPr(N)+ ∑Ni-∑Nii,
usando l'approssimazione di Stirling e ricava nel modo consueto il macrostato N*che
massimizza l'espressione, che consiste nelle ben note espressioni (con T=-1e ):
Ni*BE = Error!
Ni*FD= Error!
Ni*MB = Error!= gi exp{-i-T}
(31)
Sembra quindi che Brillouin abbia brillantemente risolto il compito che si era
prefisso: ricavare in modo unificato le tre espressioni (30), senza introdurre
distinzioni circa la distinguibilità o il principio di Pauli. Più in dettaglio, le
43
molteplicità dei macrostati nei tre casi vengono derivate come proporzionali alle
probabilità dei macrostati, ricavate in modo probabilistico unificato. Notiamo
comunque come l'iniziale formulazione probabilistica venga bruscamente
abbandonata al momento del calcolo della distribuzione di equilibrio: anziché
ricavare la distribuzione di probabilità Pr*(N), si conclude come al solito con
l'individuazione di N*.
Due passi avanti e uno indietro
Osserviamo innanzitutto che Brillouin parte da una formulazione probabilistica
precisa (la legge individuale (25), la distribuzione sui macrostati (27)), ma introduce
approssimazioni forse evitabili quando introduce il vincolo dell'energia e calcola il
massimo condizionato. Abbiamo già visto che il metodo richiede uno slittamento
dalla descrizione esatta N a quella approssimata N. A prescindere da ciò ci si può
chiedere se sia necessaria questa procedura. Essa equivale alla massimizzazione
dell'entropia del sistema: di quale entropia si tratta? Il passaggio da una distribuzione
di probabilità all' elemento del suo dominio per il quale é massima equivale
all'assunzione (probabilistica) della sostanziale equivalenza tra la distribuzione stessa
e la distribuzione tutta concentrata sul valore più probabile; significa di fatto
sostituire una probabilità con una frequenza relativa.
Vi é inoltre un secondo problema, essenziale per la derivazione delle (31) in
forma probabilisticamente corretta. Supponiamo che le (31) siano interpretabili (alla
Darwin-Fowler) quali valori medi della distribuzione Pr(N|E), e consideriamo perciò
Ni*=<Ni>. Per ogni distribuzione scambiabile vale che <Ni>=Npi, perché le N prove
sono equidistribuite; perciò Error!non dipende da N e rappresenta la probabilità di
successo per un generico tentativo. Si pensi all'estrazione del numero x al lotto, in cui
si supponga che tutte le sequenze di estrazioni siano equiprobabili. Questo é il più
semplice esempio di distribuzione scambiabile finita. La probabilità al primo colpo
sarà P(x1)=Error!, quella al secondo colpo sarà P(x2)=(1-P(x1))P(x2|-x1), dove xi e
-xi indicano successo e insuccesso all'i-mo colpo. Allora 1-P(x1)=Error!, e P(x2|x1)=Error!,
per cui P(x2)=P(x1)=Error!. Dato che il numero medio di successi dopo due
estrazioni sarà <N2(x)>=1·P(x1)+1·P(x2), si ha che <N2(x)>=2· Error!, cioé é il
doppio della probabilità di successo sul singolo tentativo.
44
Ora é chiaro che questo non é previsto dalle (31), se non per il caso MB, che può
infatti essere riscritto come Error!= Error!, che non dipende da N.
Prendiamo come esempio estremo un sistema fermionico a T=0. Il vettore di
occupazione per una particella sarà (1,0,...,0) con probabilità uno; quello per due
particelle sarà (1,1,0,...,0) con probabilita uno; il numero medio di occupazione dello
stato 1 resta invariato, quello dello stato 2 passa da 0 a 1. E' evidente che la
probabilità assoluta di occupazione dell' k-mo oscillatore all'n-mo passo dipende da n
(sarà 0 per n<k, e 1 per n≥k). E' perciò chiaro che il vincolo dell'energia distrugge in
generale la scambiabilità del processo T∞. Questo puo vedersi anche così: dato il
vettore (1,1,0,...,0) al secondo passo, é chiaro che la realizzazione "il primo fermione
in 1 ed il secondo in 2" ha probabilità 1, mentre la realizzazione "il primo fermione in
2 ed il secondo in 1" ha probabilità 0. Le due realizzazioni dello stesso vettore non
sono affatto equiprobabili. Il processo corretto a temperatura fissata dovrà perciò
contenere il vincolo dell'energia passo dopo passo, simulando la crescita effettiva di
un sistema che accoglie gradualmente particelle (o in generale eccitazioni) con le
condizioni iniziali di vuoto, e con le condizioni al contorno adeguate a rappresentare
il controllo effettivo delle variabili macroscopiche "Energia" e "Numero di
eccitazioni".
Il fatto che le realizzazioni del processo di crescita cessino di essere scambiabili
quando esistono più gruppi di oscillatori e l'energia sia finita é cruciale per
distinguere il concetto di "realizzazione del processo di crescita" da quello di
"configurazione" ( o descrizione dello stato delle particelle)[7]. Tornando all'esempio
precedente, (y1=1,y2=2) afferma che "il primo fermione si é accomodato in 1 ed il
secondo si é accomodato in 2". Supponiamo che le particelle abbiano un nome, cioé
siano estratte da un recipiente e siano immesse nel sistema in modo da conservare
memoria dello stato dinamico precedente: in tal caso la sequenza di osservazione
sarebbe bidimensionale, contenendo una variabile che rivela il nome della particella,
e l'altra la cella in cui si accomoda. (y1=1&x1=a) significherà "il primo fermione si é
accomodato in 1 e si chiama a". Se consideriamo (a=1)=def i(yi=1&xi=a), questa
proposizione significherà "il fermione a si é accomodato in 1", senza precisare il
passo del processo in cui a é stato immesso, mentre (y1=1)=def a(y1=1&x1=a)
afferma che "il primo fermione si é accomodato in 1" quale che sia il suo nome. Se le
particelle sono fisicamente identiche, ed il processo di accomodamento é determinato
45
solo dall'interazione fisica tra le particelle e tra queste e le pareti, sarà ragionevole
supporre che
Pr(y1=j1&x1=a, y2=j2&x2=b,..)
(*)
non dipenda dai nomi a,b,..delle particelle.
Se le particelle sono solo due, a e b, le configurazioni compatibili col vettore
(1,1,0,..,0) saranno (a=1, b=2) e (a=2, b=1), e
Pr(1,1,0,..,0)=Pr(a=1, b=2) +Pr (a=2, b=1),
mentre in termini di realizzazioni si avrà la decomposizione:
Pr(1,1,0,..,0)=Pr(y1=1, y2=2) + Pr(y1=2, y2=1)
Ora
Pr(a=1,b=2)=Pr(y1=1&x1=a,y2=2&x2=b) + Pr(y1=2&x1=b, y2=1&x2=a), in
cui il primo pezzo si riferisce all'ingresso prima di a e poi di b, e il secondo viceversa.
Dato che Pr(y1=1&x1=a, y2=2&x2=b) é uguale a Pr(y1=1&x1=b, y2=2&x2=a) per la
(*) e che la loro somma é Pr(y1=1, y2=2), sarà
Pr(y1=1&x1=a, y2=2&x2=b)=Error!
Pr(y1=2&x1=b, y2=1&x2=a)=Error!
da cui
Pr(a=1,b=2)=Error!= Error!= Pr(a=2,b=1)
In questa ricostruzione, se le realizzazioni del processo di crescita sono scambiabili la
probabilità di una configurazione é uguale alla probabilità di una qualunque
realizzazione compatibile con essa. Infatti entrambe sono uguali a Error!Pr(n).
Questa può essere la causa della pretesa di Brillouin circa la distinguibilità delle
particelle di cui tratta. Quando il vincolo dell'energia viene introdotto quale
condizione al contorno del processo, cade la scambiabilità e l'invarianza, e quindi il
fattore Error!; in tal caso confusioni tra traiettorie di crescita e configurazioni di
particelle non sono più possibili. Le configurazioni continuano ad essere scambiabili
anche quando le realizzazioni del processo di crescita non lo sono più: ma questo é
una banale conseguenza dell'identità fisica delle particelle. Se allora le (29) non
possono riferirsi a distribuzioni scambiabili "tout court", sarà necessario precisare gli
ambiti in cui la derivazione di Brillouin può essere recuperata.
L'entropia
46
La ricerca della situazione di equilibrio é universamente associata a qualche
condizione di massimo, il cui contenuto intuitivo si collega alla nozione di massima
entropia.
In Boltzmann '68 non é necessaria alcuna procedura di massimo condizionato:
dobbiamo concludere che il problema dell'equilibrio possa prescindere da
considerazioni di massima entropia? A ben vedere la distribuzione di partenza é la
distribuzione uniforme sugli stati delle particelle. Se ammettiamo che l'entropia di
qualcosa sia un funzionale S della distribuzione che ne descrive lo stato, cioé
S= S({p(j)}) = -Error!, con {p(j)}, j=1,..,k; p(j)≥0, ∑j p(j)=1, allora Pr(N)= cost=
-1
(N+D-1;N) é proprio la distribuzione di massima entropia delle molecole. E' noto
infatti che se p(j) é uniforme, cioé p(j)=k-1, allora S= lnk, e S({k-1})= lnk é il
massimo valore di S rispetto ad ogni altra {p(j)} sullo stesso dominio. Abbiamo così
introdotto dall'inizio nella trattazione la prescrizione di massima entropia, che si
conserva sia nel T-limite che nel limite continuo. Vediamo più esattamente come
potremmo tradurre la prescrizione di massima entropia in Boltzmann '68:
1) si definisca lo stato microscopico (o microstato) del sistema: in questo caso un
microstato é una descrizione di stato delle D particelle, cioé una congiunzione di D
"enunciati atomici" in cui di ogni individuo (particella) si indicano le modalità del
carattere in questione (la sua energia);
2) si consideri l'insieme ∑ ( o simplesso) delle distribuzioni di probabilità {p(che
hanno quale dominio l'insieme Ω dei microstati;
3) si definisca per ogni p={p(la sua entropia S(p) = -Error!
4) si consideri il sottoinsieme ∑'∑ che contiene solo le p∑ che soddisfano i
vincoli macroscopici ; in sintesi uno stato macroscopico sarà perciò una p∑' definita
per ogni ;
5) lo stato di equilibrio sarà dato da p* che massimizza S(p) in ∑'.
Vediamo se questa nozione probabilistica di entropia, e la procedura di
massimizzazione condizionata ad essa legata, abbia una funzione esplicativa per il
prosieguo del nostro discorso.
a) Nel caso di Boltzmann del '68 il dominio Ω dei microstati tiene già conto
del vincolo dell'energia, per cui tutto si semplifica e la distribuzione uniforme é la
soluzione di massima entropia che soddisfa il vincolo.
b) Nei successivi approcci di Boltzmann, quando la distribuzione di Maxwell
non é più ottenuta attraverso la marginalizzazione della distribuzione sulla singola
47
molecola, bensì attraverso la ricerca del macrostato Z*più probabile da cui derivare in
forma approssimata la distribuzione marginale Pr(k)= Error!, la ricerca della
distribuzione di massima entropia assume un significato più combinatorio che
probabilistico.
Dato lo schema "N elementi su D molecole", vi sono più macrostati Z compatibili con
i vincoli. Ricordiamo che Zk é il numero di molecole nello stato k, cioé Zk denota lo
stato del k-mo oscillatore. Il numero di stati delle molecole contenuti in ogni Z é
-1
W(Z)= Error!, e la probabilità di un Z é Pr(Z)= Error! . Il logaritmo di Pr(Z) é
perciò proporzionale a lnW(Z*). Dato che Pr(N) é uniforme, lnW(Z*) é il valore
dell'entropia probabilistica Pr(N| Z*), cioé l'entropia di tutti gli stati di particella
compatibili con Z* . Dato che nell'approssimazione di Stirling Z* contiene
praticamente tutti i microstati possibili, cioé Pr(Z*)≈1, Pr(N)≈Pr(N| Z*)Pr(Z*)≈Pr(N|
Z*). Z* é lo stato degli oscillatori che si realizza quasi certamente, per cui il supporto
di Pr(N) praticamente coincide con l'"evento" Z*. Ne consegue che la
massimizzazione (combinatoria) di Pr(Z) equivale alla massimizzazione dell'entropia
(probabilistica) della distribuzione Pr(N|Z). La definizione dell'entropia quale
logaritmo del numero dei microstati compatibili col macrostato Z* nasce da questa
approssimazione.
c) Da un altro punto di vista, calcolare il massimo di lnPr(Z) con i vincoli
Error!=D e Error!=N significa calcolare il massimo di ln Error!, che é
proporzionale a D lnD-∑ZklnZk =∑Zk(lnD-lnZk) = -D∑Error!lnError!= D{∑pklnpk}, che é D volte l'entropia della distribuzione marginale di una molecola. Se
si tien conto che nell'approssimazione di Stirling é contenuto il limite macroscopico,
per cui gli stati delle molecole divengono indipendenti, allora Pr(N)=Pr(k1)·..·Pr(kD),
e l'entropia di Pr(N) é D volte quella di Pr(k). Insomma, qui ci preme mostrare (come
già precedentemente affermato) che il metodo del macrostato più probabile é un
espediente approssimato per trovare la distribuzione di massima entropia (in senso
probabilistico) per la singola particella, partendo dalla distribuzione di massima
entropia delle descrizioni di stato. E' importante sottolineare che D{-∑pklnpk} é
l'entropia (approssimata) della distribuzione congiunta delle configurazioni delle
molecole, che vale esattamente ln(N+D-1;N) . Infatti se teniamo conto che Error!é
una distribuzione geometrica pk=Apk=(1-p)pk, per k=0,1,...., il cui valor medio =
Error!vale Error!, ovvero p= Error!, e 1-p= Error!, si ha
48
-∑pklnpk=-∑pk(klnp+ln(1-p))= -lnp-ln(1-p)=-ln Error!-ln Error!=
= - ln+(1+)ln(1+).
Seguendo il metodo probabilistico esatto, ln(N+D-1;N) ≈ NlnError!+DlnError!=
=D{-ln+(1+)ln(1+)}, e questo senza passare attraverso il macrostato più
probabile. Da questo breve escursus si può estrarre la seguente lezione: se la
distribuzione di cui si vuol calcolare l'entropia é uniforme, il metodo del macrostato
più probabile é un metodo di calcolo approssimato che fornisce l'entropia corretta nel
limite macroscopico N,D>>1.
Tenendo a mente tutto ciò torniamo a Brillouin, in particolare alle (29).
Rammentiamo che in questo caso i microstati sono le descrizioni di stato n degli
oscillatori, mentre i macrostati sono le classi d'equivalenza degli n rispetto all'energia.
Consideriamo i microstati n compatibili con un macrostato N. Nei due casi quantistici
ci troviamo nella stessa situazione di Boltzmann tradotta in "particelle su oscillatori".
Infatti Pr(n|N)= Error!dà
-1
PrBE(n|N) Error!
-1
(32)
PrFD(n|N)= Error!
Le due distribuzioni "universali" (29) sugli stati n degli oscillatori sono uniformi (su
due diversi supporti, ma ciò é inessenziale), e perciò continuano ad essere uniformi
anche se condizionate a un macrostato N; il loro valore é quindi pari all'inverso del
numero dei microstati ammissibili ; per cui il logaritmo dei numeratori delle (30)
quantistiche sono esattamente l'entropia della distribuzione Pr(n|N).
Completamente diverso é il caso MB. Prendiamo il caso di Boltzmann in cui
gli elementi di energia siano indipendenti. Z contiene Error!descrizioni di stato N
delle D particelle, ciascuna delle quali contiene Error!configurazioni degli elementi
di energia, ciascuna delle quali ha probabilità pari a D-N. in tal caso Pr(Z)=Error!DN=Error!D-N, e lnPr(Z) sarà proporzionale a DlnD+NlnN-∑ZklnZk -∑Zkln(k!)≈D{∑Error!lnError!-∑Error!ln(k/N)} , dove il termine tra parentesi non rappresenta
l'entropia della singola particella -∑pklnpk. .
Qui la distribuzione "universale" sugli oscillatori (29) é sì di massima
entropia, dato che pj=G-1, ma ciò non basta a renderla uniforme. Infatti l'entropia
probabilistica di una multinomiale G-dimensionale con probabilità iniziale uniforme
é complicata, cioé
49
S= -Error!, e non é vero che il macrostato più probabile é quello per cui
*
Pr(n|N ) ha l'entropia massima. D'altra parte sappiamo che la PrMB(n) é derivata dalla
probabilità sulle configurazioni PrMB(x)=G-N, che é uniforme sul proprio dominio,
che si restringe al numeratore della (30) subordinatamente a N. E' perciò evidente che
il logaritmo del numeratore della (30) classica é esattamente l'entropia della
distribuzione Pr(x|N), cioé il macrostato più probabile é quello che contiene il più
grande numero di distinte configurazioni, quello cioé per cui Pr(x|N*) ha l'entropia
massima. Da questo punto di vista, nel massimizzare la probabilità del macrostato,
Brillouin massimizza l'entropia degli oscillatori nei casi quantistici, e l'entropia delle
particelle nel caso classico. Il tentativo di unificazione delle statistiche subisce perciò
un brusco arresto, dovuto ad una definizione dell'entropia sempre approssimata
(perché calcolata col metodo del massimo) e in certi casi sbagliata.
Entropia delle particelle o entropia degli oscillatori?
Per distribuzioni scambiabili vale Pr(y)=Error!Pr(n), per y e n compatibili. Se
parliamo di configurazioni di particelle identiche, Pr(x)=Error!Pr(n) vale quale che
sia il processo concreto. Consideriamo l'entropia delle configurazioni S{Pr(x)}=Error!. Se raggruppiamo gli x per ogni n, e poi sommiamo su n, abbiamo
S{Pr(x)}=-Error!=-Error!=
= -Error!,
cioé
S{Pr(x)}=S{Pr(n)} +lnN! -Error!.
Questo risultato é esatto: se si trascura l'ultimo termine, e questo sarà lecito per una
Pr(n) che assegna probabilità trascurabili a vettori n con componenti maggiori di 1
(gas diluiti), si ottiene:
S{Pr(x)}=S{Pr(n)}+lnN! ,
che mostra nel modo più icastico la ragione profonda dell'introduzione del fattore lnN! nell'entropia delle particelle classiche per evitare il paradosso di Gibbs. Questo
problema è automaticamente risolto nelle statistiche quantistiche, dove l'entropia é
dall'inizio l'entropia degli oscillatori. Il paradosso di Gibbs mostra come sia
necessario abbandonare l'entropia delle particelle ed abbracciare l'entropia degli
oscillatori perché l'entropia termodinamica possa esser una funzione estensiva. Se noi
pretendiamo che:
50
1) lo stato microscopico termodinamico (microstato) sia la descrizione di una
sequenza di "individui" (oggetti fisici) ciascuno in un ben precisa "modalità" (stato);
2) lo stato termodinamico macroscopico sia una distribuzione di probabilità sui
microstati;
3) l'entropia fisica sia l'entropia dello stato termodinamico, cioé della distribuzione di
probabilità sui microstati;
allora si può usare l'entropia fisica, che é una funzione dello stato termodinamico le
cui variazioni sono misurabili con apparati macroscopici, per inferire qualcosa sulla
nozione di stato microscopico termodinamico, che a priori ammette una pluralità di
livelli di descrizione ( e quindi di "individui" e "stati") tutti logicamente coerenti. Dal
paradosso di Gibbs e da queste premesse segue che l'approccio classico, basato sugli
stati delle particelle, e quindi sulla densità nello spazio , sbaglia radicalmente il
livello della descrizione del sistema fisico che é rilevante ai fini della termodinamica.
La nozione di "indistinguibilità" é invocata per colmare la frattura insanabile che si
viene a creare tra il microstato dinamico (un punto di ) ed il microstato statistico
(una frequenza su  Il fatto che lo stato degli oscillatori sia il livello di descrizione
adeguato per la termodinamica non implica che gli oscillatori siano gli elementi
ultimi della realtà, o che livelli più raffinati di descrizione vadano esclusi dalla pratica
scientifica. Semplicemente vuol dire che ciò che davvero "si muove", o meglio che
per muoversi richiede calore o lavoro, non sono le particelle intese come individui,
ma sono gli stati degli oscillatori. L'informazione legata all'individualità delle
particelle non si paga in termini dell'entropia termodinamica, che é indifferente alla
particolare configurazione associata allo stato degli oscillatori.
51
Parte III. Le statistiche come processi parzialmente scambiabili
Supponiamo allora che Brillouin abbia colto sostanzialmente nel segno, assumendo
che le statistiche siano derivabili, almeno fino ad un certo punto, come
particolarizzazioni di un medesimo processo scambiabile ed invariante. Assumiamo
che il microstato termodinamico sia il vettore n, che descrive lo stato degli oscillatori,
e che lo stato macroscopico sia la distribuzione di probabilità sugli stati degli
oscillatori Pr(n|H), dove H sia un insieme di parametri che contenga l'insieme dei
vincoli macroscopici. Assumeremo che l'entropia termodinamica associata allo stato
macroscopico H sia S(H)-∑Pr(n|H)lnPr(n|H). Tra tutti gli stati macroscopici Pr(n|H)
lo stato di equilibrio sarà la distribuzione Pr*(n|H) che massimizza S(H). Precisiamo
perciò le condizioni probabilistiche che permettono la derivazione unificata non solo
delle formule (31), ma delle distribuzioni di Gibbs per il gas perfetto.
Distribuzione di equilibrio ad energia esattamente fissata.
Consideriamo N particelle dotate di energia E=Error!j =Error!j =Error!, e
supponimo che in generale la corrispondenza tra E ed N sia biunivoca. Il sistema sarà
perciò nel macrostato N, ed il suo stato macroscopico sarà una Pr(n; N(E))15, cioé una
funzione di probabilità definita solo per i microstati che rispettano il vincolo
dell'energia. Ciò implica che ciascuna classe di oscillatori contiene esattamente Ni
particelle. E' utile a questo proposito introdurre una notazione matriciale, dotando
ogni oscillatore di due undici, di cui l'indice di riga i sia riferito alla classe, ed il
secondo j sia riferito al particolare stato interno alla classe. Allora possiamo riscrivere
i vincoli nel deguente modo: E=∑ijniji = ∑iNii, e dove Ni=ni.=∑jnij sono le
frequenze marginali di riga della tabella n={nij}. Supponiamo di aver costruito il
sistema immettendo nel volume N1 particelle di energia 1,..,ND particelle di energia
D. Poiché tra le classi non vi é interazione, il processo di accomodamento si
decompone in D processi di riga indipendenti tra loro, in ciascuno dei quali Ni
15Distinguiamo
di nuovo Pr(n; H), in cui H é da considerarsi come un insieme di
parametri che definiscono l'universo del discorso, da Pr(n|H) in cui H é considerato un
evento, e in cui si lascia intendere che il dominio di Pr(n) é più ampio dell'insieme H.
52
eccitazioni si collocano su gi oscillatori. Ciascuno di questi sottoprocessi sia per
ipotesi scambiabile ed invariante: con ciò intendiamo che quando l'i-mo processo é
attivato (cioé aggiungiamo un'eccitazione di energia i) é regolato da una probabilità
di crescita che dipende solo dallo stato della classe i. In questa ipotesi la probabilità di
accrescimento dell'oscillatore (ij) della classe i al passo m+1-mo dipenderà solo dallo
stato mi=(mi1,..,migi) dei gi oscillatori dell' i-ma riga, cioé Pr(ij|i,m)=: Pri(ij|mi), e
varrà :
Pri(ij|mi)=Error!,
dove Mi =∑jmij indica il numero di passi già compiuti dell'i-mo processo, i=Error!é
funzione del numero degli oscillatori della classe gi e del parametro di correlazione c
(il "volume proprio" di Brillouin cambiato di segno), mij il numero di eccitazioni del
j-mo oscillatore dell'i-ma riga, ed infine {pj|i}, j|i=1,..,gi, é la probabilità che il j-mo
oscillatore venga occupato alla prima attivazione del i-mo processo. Resta da fissare
la probabiltà di attivazione dello specifico i-processo, che considereremo dipendente
solo dal macrostato M e chiameremo Pr(i|M). La probabilità che la prossima
particella si accomodi sul j-mo oscillatore della i-ma classe, sarà perciò
Pr(ij|m)= Pr(i|M)Pri(ij|mi)= Pr(i|M)Error!,
(33)
dove anziché Pri(ij|mi) potremo scrivere Pri(j|mi) senza tema di ambiguità.
Il processo di crescita é così spezzato in due fattori: il processo macroscopico
Pr(i|M), che dipende dalle condizioni al contorno della crescita e dalle manipolazioni
sul (o preparazioni del) sistema, ed il processo microscopico Pri(j|mi)=Error!,
governato essenzialmente dalla correlazione tra le particelle. Se la procedura di
immissione é deterministica, cioé ad ogni passo si fissa l'energia dell'eccitazione
entrante, allora Pr(i|M)=1 o 0 ad ogni passo, e la probabilità di una realizzazione dello
stato finale n compatibile con N finale sarà
∏i Error!, e poiché il processo microscopico é scambiabile, il numero delle distinte
realizzazioni equiprobabili é
Error!....Error!.
Per cui si avrà :
Pr(n|N)=Error!,
che si specializza in
(33')
-1
PrBE(n|N)=Error!
per pj|i=gi-1e i=gi;
PrMB(n|N) = Error! pj|i=gi-1e i=∞;
53
(34)
-1
PrFD(n|N)=Error!
per pj|i=gi-1e i=-gi, nij=0,1
=0
nij>1
Questo vale per ogni n compatibile col macrostato finale N. E' evidente che, nel caso
in cui il macroprocesso non sia deterministico, per ogni vettore finale regolare N sarà
ancora Pr(n|N) dato dalla (33'), mentre sarà Pr(n)=Pr(n|N)Pr(N). Naturalmente il
generico processo di crescita effettivo Pr(ij|m)= Pr(i|M)Error!avrà proprietà che
dipendono dalle condizioni al contorno, descritte passo-passo da P(i|M); possiamo
però affermare che, se valgono le ipotesi che conducono alla fattorizzazione (33), il
processo microscopico di crescita é scambiabile ed invariante subordinatamente ad
ogni realizzazione del processo macroscopico.
Il processo subordinato
Ma tralasciamo queste considerazioni inessenziali per la nostra questione: ciò che
importa é la forma generale di Pr(n|N)=∏iPr(ni|Ni), dove ni indica lo stato dei gi
oscillatori della i-ma classe. Da questa é immediato ricavare l'espressione per
l'entropia di un gas perfetto ad energia (o macrostato N) esattamente fissata:
S(Pr(n|N))=∑iS(Pr(ni|Ni)),
cioé l'entropia é additiva per le diverse classi di oscillatori. Questa é una diretta
conseguenza della supposta conservazione dell'energia, che permette lo scambio di
eccitazioni all'interno di ogni classe, ma impedisce lo scambio tra le differenti classi.
Assumeremo che la distribuzione di equilibrio ad energia fissata sia quella che
massimizza S(Pr(n|N)), cioé per ogni classe quella che massimizza S(Pr(ni|Ni)). Ora
ricordiamo che Pr(ni|Ni) é la probabilità sulle possibili composizioni della
popolazione risultante dopo Ni passi di un processo scambiabile invariante a gi
modalità di parametro i e distribuzione individuale iniziale {pj|i}, per j|i=1,..,gi. Dato
che il valore igi=c-1 é legato alla natura delle particelle (é un parametro), la
massimizzazione dell'entropia della distribuzione Pr(n|N) riguarda solo {pj|i}. Come
é forse immaginabile, si può dimostrare che la scelta {pj|i}* che rende massima
S(Pr(n|N)) é {pj|i}*=cost= gi-1, cioé la distribuzione di massima entropia per ogni
classe é quella che tratta allo stesso modo gli oscillatori della medesima classe. Le
(31) sono perciò le distribuzioni di equilibrio ad energia fissata per i tre valori di
igi=1,∞,-1 che corrispondono alle tre statistiche. In termini di gi/i=c si ha perciò
54
S1(Ni,gi)=: SBE(Pr(ni|Ni))= ln(Ni+gi-1;Ni)
S-1(Ni,gi)=: SFD(Pr(ni|Ni))= ln(gi;Ni)
(35)
S0(Ni,gi)=: SMB(Pr(ni|Ni))=-Error!gi-Ni lnError!gi-Ni
Come si vede i casi quantistici sono estremamente semplici: il logaritmo della
molteplicità é esattamente l'entropia probabilistica della distribuzione sugli stati degli
oscillatori condizionata al numero di particelle per classe. Per essi il cosiddetto
postulato fondamentale della meccanica statistica, cioé l'equiprobabilità di tutti i
microstati compatibili con l'energia totale, é soddisfatto.
L'entropia degli oscillatori classici S0 é invece complicata. Naturalmente l'entropia
delle configurazioni per le particelle classiche sarebbe molto più semplice: la
condizione di equilibrio sarebbe la distribuzione equiprobabile per le giNi
configurazioni, per cui l'entropia di questa distribuzione sarebbe SMB(Pr(x|Ni,gi))=
ln(giNi) , che non é estensiva. Infatti, se si raddoppia il sistema (mettendolo in
comunicazione con un suo "doppio"), ln{(2g)2N}=2N(lng+ln2)≠2Nlng. Il tradizionale
fattore di correzione per particelle "indistinguibili " trasforma ln(gN) in lnError!≈Nln
Error!, che é estensivo. Questo é esattamente il limite di S0(Ni,gi) per Ni<<gi; più
precisamente é il limite di bassa densità dell'entropia per qualunque valore di c.
Se volessimo ampliare la gamma dei sistemi a qualunque valore formalmente
ammissibile di c, avremmo i seguenti risultati: l'unica distribuzione Pr(n|N) uniforme
sul dominio di (N+g-1;N) valori possibili é la distribuzione B.E. (c=1); la
distribuzione F.D.(c=-1) é anch'essa uniforme sul supporto di (g;N) valori, per cui
nj=0,1; per ogni altro valore di c non si danno distribuzioni uniformi Pr(n|N), neppure
su supporti ristretti; la distribuzione sulle particelle Pr(x|N) =g-N, corrispondente a
c=0, é l'unica uniforme sul dominio delle dN configurazioni. La richiesta di
equiprobabilità per i microstati si rivela quindi niente più che un idolo, cui si deve
sacrificare il cambiamento di dominio tra il caso BE e quello FD, ed addirittura il
cambiamento di livello di descrizione tra i casi quantistici ed il caso MB. Se i
microstati sono gli stati degli oscillatori, il massimo di simmetria imporrà che questi
siano trattati in modo equivalente se appartengono alla stessa classe; il loro stato di
equilibrio sarà perciò quello con la massima simmetria compatibile con la
correlazione c tra le eccitazioni . Questo vuol dire che la distribuzione di massima
entropia dovrà essere ristretta alla famiglia di funzioni del tipo (33'). Questo ci
sembra rendere esplicite le ragioni per cui Brillouin usò lo stesso livello di
55
descrizione (i microstati) per derivare la probabiltà dei macrostati, ma lo cambiò
(forse inconsapevolmente) in modo surrettizio dai casi quantistici a quello classico
nel calcolo della massima entropia della distribuzione.
Torniamo al discorso generale: la distribuzione (33) con pj|i=gi-1 é
perfettamente analoga alla distribuzione iniziale di Boltzmann '68, e cioé Pr(N)=
-1
(N+D-1;N) . Le possibilità sono in entrambi i casi le descrizioni di stato degli
elementi ultimi (le particelle in Boltzmann, gli oscillatori nella (30')) compatibili con
l'energia totale E (=N in Boltzmann, = ∑Nii nella (33')). La principale differenza é
che gli elementi ultimi in Boltzmann sono fisicamente equivalenti (essendo le
molecole), mentre nella (33') sono ripartiti in D classi di equivalenza (essendo gli stati
di diversa energia); inoltre la (33') generalizza ad ogni valore il parametro c=1 di
Boltzmann '68. La probabilità é il risultato di un processo stocastico di
accomodamento delle N eccitazioni: questo processo é scambiabile ed invariante in
Boltzmann '68, solo parzialmente scambiabile ed invariante nella (33'). Entrambe le
distribuzioni sono di massima entropia (perché trattano allo stesso modo gli elementi
ultimi equivalenti), se nella (33) si pone per ogni classe pj|i=di-1per ogni ji. Le
distribuzioni iniziali di Brillouin (29), o in forma compatta l'espressione
Pr(n)=Error!,
malgrado sia formalmente la generalizzazione più semplice di quella di Boltzmann, é
in realtà una distribuzione "universale" su tutti i valori dell'energia, che tratta in modo
simmetrico gli oscillatori appartenenti a diverse classi.
La (33') o le sue specializzazioni (34) sono analoghe al metodo dell'insieme
microcanonico, nel senso che non forniscono una relazione funzionale diretta tra
l'energia del sistema ed il macrostato più probabile, ma permettono un calcolo diretto
dell'entropia. Essendo poi basate sui livelli esatti E dell'energia totale, in principio
non esiste una funzione continua E(N), e quindi una entropia S(E) derivabile: non
esiste quindi una temperatura16. Intuitivamente ciò significa che, se un certo valore di
16Più
esattamente si possono definire tante temperature quante sono le classi
attraverso la relazione fondamentale Error!= Error! , dove il volume costante
V
mantiene costante il livello i. Dato che non si può variare l'energia della classe senza
variare il numero delle eccitazioni (non esiste scambio di "calore" tra le classi se E é
56
E corrisponde ad uno stato del tipo (0,N,0,...) con popolazione completamenta
invertita, allora le (34) descrivono l'equilibrio del sistema dato il macrostato.
L'equilibrio delle (34) riguarda gli oscillatori entro le classi; é chiaro che il vettore
stesso non é in equilibrio nel senso usuale del termine. Questo fatto esprime in modo
semplice la cosiddetta complementarità tra energia e temperatura nella descrizione di
un sistema fisico. Affinché la temperatura sia ben definita é necessario che l'energia
fluttui, e viceversa. Nel metodo N* il problema non si pone, perché la
rappresentazione approssimata N parla solo di sistemi macroscopici, e contiene
sicuramente un intorno del macrostato (0,N,..) dove abbondano vettori in cui lo stato
fondamentale é più popolato del primo eccitato. Ma torniamo al metodo esatto, e
permettiamo fluttuazioni energetiche.
La temperatura
Supponiamo che lo stato macroscopico sia una mistura di stati ad energia definita17,
cioé Pr(n;N)=Pr(n|N)Pr(N;N)
(36)
Il modello fisico tipico é quello di un sistema in contatto termico con un termostato;
in un approccio "informazionale" o bayesiano Pr(N;N) potrebbe descrivere la
distribuzione iniziale sullo stato energetico di un sistema isolato. Dal punto di vista
probabilistico il mutamento essenziale consiste nell'ampliamento del dominio degli
stati degli oscillatori, conservando come unico vincolo della somma totale delle
eccitazioni pari a N. Supponiamo inoltre che la distribuzione (36) debba soddisfare la
condizione macroscopica <E>=Error!=E, dove E é un valore fissato dell'energia
interna termodinamica, cioé la media della variabile aleatoria microscopica E(n).
Chiamiamo Pr(n;N,E ) un generico elemento di questo insieme di distribuzioni di
probabilità, o stati macroscopici. Osserviamo che il parametro microscopico N limita
il dominio degli stati microscopici ammissibili, mentre la condizione macroscopica
perfettamente definita),una relazione analoga vale per il potenziale chimico , cioé Error!= Error! , cioé i=-i
V
17Con la notazione che segue intendiamo evidenziare come il macrostato N si
trasformi da parametro in evento, relativamente al quale si può condizionare la
distribuzione Pr(n;N). Sarebbe più esatto scrivere Pr(n|N; N), ma ciò é ridondante
poiché N contiene anche l'informazione N. Il fatto che all'equilibrio si abbia
Pr(n|N)=Pr(n; N) date dalle (34) non é affatto scontato, come si vedrà tra poco.
57
<E>=E limita le distribuzioni sul dominio, cioé gli stati macroscopici.
Conformemente a quanto ci proponiamo in generale, lo stato macroscopico di
equilibrio ad N ed E fissati sarà l'elemento dell'insieme di Pr(n;N,E ) di massima
entropia.
Per il calcolo di S({Pr(n;N)})=S({Pr(n|N)Pr(N;N)}), la distribuzione "universale"
Pr(n;N) si scinde nella la distribuzione "universale" sui macrostati Pr(N;N) e nelle
distribuzioni subordinate Pr(n|N), una per ogni N. Per cui si ha
S(N)= S({Pr(n;N)}) = -Error!=
= -Error!=
= - Error!+Error!=
= ∑(N)+<S(N)>
(37)
dove ∑(N)=-Error!é l'entropia associata alla distribuzione sui macrostati e <S(N)> é
la media ponderata delle entropie delle distribuzioni sui microstati condizionate ad N
con pesi Pr(N;N). La (37) é l'entropia di un generico stato macroscopico a numero di
eccitazioni N fissato. Cerchiamo adesso lo stato di massima entropia, restringendo
l'insieme agli stati macroscopici con energia media pari a E. Osserviamo che nel
presente contesto il metodo dei moltiplicatori di Lagrange viene applicato agli stati
macroscopici (cioé alle distribuzioni di probabilità), e non ai macrostati N (che sono
eventi, o frequenze).
Dato che il vincolo probabilistico E =Error!=Error!opera solo sui macrostati, le
soluzioni di massima entrapia per Pr(n|N) continuano ad essere le (34), e le loro
entropie sono le (35). Non resta quindi che massimizzare la (37) rispetto a Pr(N;N)
nella forma:
- Error!=max,
la cui soluzione generale é
Pr*(N;N,E )Pr(N;N,=CeS(N)-E(N)
(38)
dove S(N) naturalmente dipende dalla correlazione delle particelle. La distribuzione
di equilibrio sui microstati a temperatura -1 ed N fissati sarà perciò in generale:
(39)
Pr(n;N,)=Pr(n|N)Pr(N;N,)=CPr(n|N)eS(N)-E(N)
Nei casi quantistici eS(N) é proprio il numero degli stati n regolari compatibili con N,
per cui Pr(n|N)eS(N)=1, e si può scrivere
Pr(n;N,)=Ce-E(n)
(40)
58
che é la distributione canonica. Per ogni altro valore della correlazione la
distribuzione di equilibrio é diversa da Ce-E(n).
Di nuovo é formalmente possibile ricavare la distribuzione tradizionale per l'entropia
delle particelle classiche (e non degli oscillatori ad eccitazioni indipendenti) se si
considera l'entropia della distribuzione Pr(x|N) delle configurazioni, per cui ancora
vale Pr(x|N)eSx(N)=1, e quindi per essa vale la distribuzione canonica
Pr(x;N,)=Ae-E(x)
(39')
E' forse inutile ripetere che le entropie delle particelle, non essendo estensive, sono
concettualmente escluse dalla trattazione termodinamica.
Si può procedere allo stesso modo verso le distribuzioni grand-canoniche,
considerando Pr(n)=Pr(n|N)Pr(N), con N=0,1,..., o alternativamente Pr(n) =
Pr(n|N)Pr(N), per tutti gli N, togliendo cioé ogni limitazione al dominio degli stati
degli oscillatori. In questo caso le condizioni probabilistiche saranno due, cioé Error!
=N and Error!=E, dove ancora distinguiamo tra la variabile aleatoria microscopica
N(n) ed il suo valor medio macroscopico N . Usando la rappresentazione Pr(n) =
Pr(n|N)Pr(N), la condizione di massimo sarà la seguente:
-Error!=max,
da cui
Pr*(N;N,E )Pr(N|,=AeS(N)+N(N)-E(N)
(41)
che (con ragionamento del tutto simile a quello visto sopra) fornisce le distributioni
grand-canoniche per gli oscillatori di Bose e di Fermi e per le particelle classiche. Per
ogni altro caso ed in generale sarà:
Pr(n; ,)=Pr(n|N)Pr(N;,=CPr(n|N)eS(N)+N(N)-E(N)
(42)
Osserviamo che il metodo della distribuzione di probabilità (o stato macroscopico) di
massima entropia é un metodo esatto, che vale anche per sistemi piccoli e senza alcun
bisogno di "coarse-graining"; mentre il metodo del macrostato (o distribuzione di
frequenza) più probabilile é un metodo approssimato che vale solo nel limite di
sistemi macroscopici. Massimizzare sul simplesso delle distribuzioni di probabilità
permette di operare con naturalezza con valori continui; cosa che non accade se si
opera sulle frequenze, che sono numeri interi.
Entropia assoluta ed entropia subordinata
59
Le tre successive distribuzioni Pr*(n;N)Pr(n;N,E), Pr*(n;N,E )Pr(N;N,)e
Pr*(n;N,E )Pr(n;,) sono caratterizzate da valori esatti che divengono
progressivamente valori medi, e da domini sempre più ampi. Possiamo pensare
questa successione come un prolungamento di Pr(n;N) a domini sempre più vasti,
con la proprietà che subordinatamente a N la funzione Pr(n|N) resti la stessa Pr(n;N).
La distribuzione di massima entropia non é perciò qualsiasi distribuzione che soddisfi
i vincoli macroscopici, ma é una distribuzione tale che Pr(n|N) sia della forma (33),
con correlazione fissata dalla natura delle particelle. Non é infatti una novità ricavare
le distribuzioni di Gibbs applicando il principio della massima entropia: quale che sia
l'insieme degli stati, l'entropia -∑statiPr(stato) lnPr(stato) é massima ad energia media
fissata per Pr(stato)~exp{-E(stato)}, ed anche il caso grandcanonico segue
immediatamente[17]. La potenza del metodo é però pari alla sua indeterminatezza:
per essere operativo (calcolare cioé la funzione di partizione) esso richiede che si
specifichi il dominio, cosa che si fa al solito modo, via distinguibilità o meno, e poi
principio di esclusione. E' ovvio che questo metodo contiene comunque l'ipotesi
implicita della equiprobabilità degli stati a parità di energia, che é vera solo per gli
oscillatori quantistici e per le particelle classiche.
La distribuzione grancanonica può essere raggiunta anche con un metodo alternativo
a quello del prolungamento e dell'entropia condizionata: é il metodo della
marginalizzazione, che segue esattamente la via aperta da Boltzmann nel 1868.
60
Boltzmann 1868 rivisitato.
Ripartiamo dalla (33'), che scriviamo per pj|i=gi-1e i=c-1gi
Pr(n|N)=Error!, che é la generalizzazione delle (34),
ed assumiamo che il nostro sistema sia costituito da una collezione di f>>1 sistemi
fisici identici, ciascuno con di=gi/f oscillatori della classe di energia i, in grado di
scambiarsi eccitazioni. Concentriamo l'attenzione su uno di questi sistemi, ed
indichiamo con m ed M lo stato dei d=G/f oscillatori e delle loro frequenze marginali
secondo il seguente schema:
1,...,d1; d1+1,...,g1
....
....
1,...,di; di+1,.....,gi
...
...
1,...,dD; dD+1,..,gD
_________________
d=∑di;
G-d
G=∑gi =fd
Poniamo c=1, ed otteniamo la distribuzione sull’intera tabella
-1
PrBE(n|N)=Error! : questa probabilità é esattamente il prodotto di D distribuzioni
di riga uguali alla (2) di Boltzmann '68. Studiare per una di queste
-1
PrBE(ni|Ni)=(Ni+gi-1;Ni)
la distribuzione dei di=gi/f oscillatori del nostro
sottosistema significare rifare esattamente il processo di marginalizzazione di
Boltzmann su di molecole. Per un singolo oscillatore varrà, nel limite macroscopico
f∞,
PrBE(k;i)= Error!,
(43)
dove i=Ni/gi, mentre i di oscillatori sono probabilisticamente indipendenti.
Per xi= Error!la (43) diventa
Pr( k; xi(i)) = (1-xi)xik .
L'entropia dei di oscillatori é percio Si= disi, ed
si= -∑kPr(k;i)lnPr(k;i)=-∑kPr(k;i){klni-(k+1)ln(1+i)}=
= ilni+(1+i)ln(1+i)
(44)
61
é l'entropia di un oscillatore di Bose in funzione del numero medio di eccitazioni i.
L'entropia del sottosistema, quando il sistema grande é nel macrostato N, é perciò la
somma delle entropie delle classi, che a loro volta sono la somma delle entropie dei
singoli oscillatori. Allora
S=∑iSi= ∑i disi = ∑i di{ilni+(1+i)ln(1+i)},
dove la sequenza {i}i=1,..,D é determinata univocamente dal macrostato N del
sistema complessivo. Facciamo per un attimo astrazione dall'interpretazione di i
come "media d'insieme" Ni/gi, e consideriamoli come parametri che fissano il
numero medio di eccitazioni per oscillatore della i-ma classe del sottosistema.
Naturalmente ∑dii=N e ∑diii=E, cioé il valor medio del numero di eccitazioni e
dell'energia sono funzioni del vettore di parametri i. Non tragga in inganno
l'apparente aspetto deterministico di questi vincoli: ad ogni vettore {i} corrisponde
univocamente una distribuzione congiunta di dimensioni d1+..+dD=G/f=g sugli
oscillatori del sottosistema, che fattorizza in g fattori a causa dell'indipendenza tra gli
oscillatori. Quindi N =∑N(m)Pr(m), dove
Pr(m)=Pr(k1)Pr(k2)..Pr(kg) e N(m)=k1+k2+..+kg , per cui
Error!= Error!+..+ Error!,
e lo stesso per il vincolo dell'energia media. La condizione S+N -E =max si
decompone in D condizioni indipendenti sul vettore {i}
si(i)+i -ii=max,
ovvero
Error!= -+i
(45)
che dalla (44) risulta essere, con T =-1and ,
- ln Error!= Error!.
(46)
La distribuzione di massima entropia sarà perciò il prodotto di g distribuzioni del tipo
(43), con i parametri  * che sono soluzioni della (46), e cioè:
i
i*BE = Error!
(47)
Questa scelta determina completamente e senza alcuna approssimazione la
distribuzione su tutti gli stati possibili dei g oscillatori del sottosistema. Questo stato
macroscopico Pr(m;{i*})  Pr(m;T,) realizza la massima entropia sul sistema di g
oscillatori quando le grandezze macroscopiche N ed E siano fissate.
62
Distribuzione microcanonica
Se il meccanismo fisico di interazione che fissa i valori medi è il sistema grande, che
funge da bagno termico e diffusivo, la distribuzione Pr(m; T,) si realizzerà se e solo
se il sistema grande é nel macrostato Ni*=gii*, cioè valgono le (31) del metodo
approssimato del macrostato più probabile. Se questo accade, il sistema grande ha
energia fissata, ed un suo qualsiasi sottosistema è nello stato di massima entropia
compatibile con i vincoli: possiamo allora affermare che il sistema grande é
all'equilibrio. Attraverso questa via siamo perciò in grado di definire in modo esatto
cosa si intenda per sistema isolato ad energia fissata in equilibrio macroscopico (non
solo entro le classi, ma anche tra le classi): un sistema in uno stato macroscopico
Pr(n;N) tale che la sua marginalizzazione su un sottosistema sia la distribuzione
grandcanonica. Osserviamo che tale sistema é essenzialmente infinito, ed una sua
trattazione rigorosa richiede l'uso di teoremi limite del calcolo delle probabilità.
Distribuzione grandcanonica generalizzata;
Il procedimento di Boltzmann '68 si generalizza immediatamente ad ogni valore della
correlazione c nel dominio (-1, -1/2,..,-1/n,..,0,..,1/n,..,1 ), o meglio per m=c-1, a
partire dalla (33'), con il risultato fondamentale
m
k
Prm(k;i)=Error! Error! =
m
k
= Error! Error!
(43')
che generalizza la (43) a tutti i valori c ( o m) ammissibili. In realtà la (43') é definita
per ogni valore positivo di c, ma per sempificare la trattazione ci limitiamo al dominio
|c-1| intero, che ci permette di liberarci delle funzioni . Il principio di esclusione
generalizzato, che é il campo di ricerca delle cosiddette "parastatistiche", é
rappresentato dai c negativi, dove m=|c-1| rappresenta il numero massimo di
eccitazioni per oscillatore per cui la probabilità é positiva. I c positivi rappresentano
crescenti valori di correlazione positiva, dall'indipendenza (c=0), a quella tipica della
distribuzione geometrica (c=1). Essi trovano un primo esempio di applicazione fisica
nell'interpretazione di un brillante esperimento di scattering di fotoni [8], in cui la
correlazione é sostanzialmente pilotata dal rumore dello specchio. In ogni caso non si
63
tratta di termodinamica dell'equilibrio. La (43') é la descrizione dello stato di un
oscillatore di frequenzai immerso in un bagno che fissa il numero medio di
eccitazioni i; lo stato macroscopico di g oscillatori sarà il prodotto di g funzioni
quali la (43') con i parametri adeguati. Le tre distribuzioni "fisiche" per un oscillatore
all'equilibrio grandcanonico sono
PrBE(k;i)= Error! k=0,1,...,n,..
PrFD(k;i)=ik(1-i)1-k
k=0,1
=0
PrMB(k;i)= Error!
k>1
k=0,1,...,n,..
con i fissato dal criterio della massima entropia della distribuzione g-dimensionale
con vincoli ∑dii=N e ∑diii=E. L'entropia di un oscillatore risulta:
siBE=-ilni +(1+i)ln(1+i)
siFD=-ilni -(1-i)ln(1-i)
siMB=-ilni +i+<lnk!>,
dove <lnk!> é la media sulla poissoniana di parametro i. Se i<<1, allora <lnk!>≈0,
e siMBsilow=-ilni +i, che é il limite i<<1 per ogni valore di c. I valori i* che
massimizzano S=∑disi con i vincoli probabilistici ∑dii=N e ∑diii=E sono quelli
per cui Error!= -+i, dove adesso, rispetto alla (45), l'entropia dipende dalla
correlazione. Risolvendo nei tre casi si avrà un vettore i*=i*(c) per cui
i*BE=i*(1) = Error!
i*FD=i*(-1) = Error!
i*low(c) = Error!,
in cui i casi quantistici sono esatti, mentre il caso corrispondente all'usuale statistica
di Boltzmann é in realtà il limite a bassa densità per ogni valore di c. Per |c|≠1
l'entropia esatta di un oscillatore è l'entropia della (43'), che non é semplice da
calcolare; però i*(c) é il valore per cui Error!= -+i. La (43') é la distribuzione
marginale su ciascun oscillatore nel caso in cui il sistema grande sia nel macrostato
N=(g11,..,gDD). Il procedimento di Boltzmann nel caso "elementi su molecole"
ammetteva una sola distribuzione marginale, essendo le molecole tutte equivalenti;
64
trasferito sul nuovo livello di descrizione, il procedimento ricava tante distribuzioni
marginali quante sono le classi degli oscillatori.
Fluttuazioni
La distribuzione (43') contiene tutte (e sole) le proprietà di ogni oscillatore con
correlazione c subordinatamente al parametro i. Per c>0 la (43') é una distribuzione
binomiale negativa [18] di parametri c-1=m e x=Error!, cioé
Prm(k; )=(m+k-1;k) (1-x) m xk
k=0,1,..
i
il cui valor medio é
E{k}=mError!=i
e la cui varianza é
Var{k}=E{(k-E{k})2}=mError!= i(1+m-1i)=i(1+ci),
in cui c modula con continuità il "termine ondulatorio" i2, nullo per eccitazioni
indipendenti ed unitario per i bosoni.
Per c<0, ricordando che (x+k-1;k) = (-1)k(-x;k) , e che il significato di m =|c-1| in
questo caso é quello di numero massimo di eccitazioni per oscillatore, é bene definire
x=Error!, per cui la (43') diventa:
Prm(k;i)=(m;k) (1+x) -m xk, k=0,1,...,m,
che con l'ulteriore sostituzione Error!=m-1i=p diventa la bernoulliana
Prm(k;i)=(m;k) (1-p) m-k pk, k=0,1,...,m,
il cui il cui valor medio é
E{k}=mp=i
e la cui varianza é
Var{k}=mp(1-p)= i(1-m-1i)=i(1-|c|i).
Naturalmente per due oscillatori vale l'indipendenza, il che implica
Cov{k1k2}=E{k1k2}-E{k1}E{k2}=0,
per cui i momenti del primo e del secondo ordine sono espressi dalle medesime
formule per ogni c ammissibile:
Ec{k}=i; Varc{k}=i(1+ci); Covc{k1k2}=0
65
Ricordiamo che queste formule sono il limite termodinamico della distribuzione per
un oscillatore di una classe di d oscillatori equivalenti con n eccitazioni in tutto, per
cui vale
Ec{k; n,d}=Error!=;
Varc{k; n,d}=Error!+Error!,
dove c é il coefficiente di autorilevanza, che vale c=1+c Error!. Con questa
sostituzione si ha:
Varc{k; n,d}=Error!+Error!c,
e la convarianza é negativa, a causa del vincolo dell'eccitazione totale pari a n:
Covc{k1k2; n,d}=- Error!Varc{k; n,d},
ed il coefficiente di correlazione di Bravais é anch'esso negativo:
Rc{k1k2; n,d}=(Varc{k1; n,d}Varc{k2; n,d})-1/2 Covc{k1k2; n,d}=
=- Error!
La potenza del limite termodinamico (o limite grandcanonico, che é la
generalizzazione del limite di Poisson a processi correlati) sta proprio nell' annullare
la correlazione tra gli oscillatori facendo crescere d, e nel far crescere n in ugual
misura, cosicché n/d resti invariato. Il coefficiente di eterorilevanza (c)=Error!
perde significato, perché tende ad 1 quale che sia c, mentre il coefficiente di
autorilevanza c tende a 1+c, cioé a 0 per i fermioni , a 1 per le eccitazioni classiche,
ed infine a 2 per i bosoni.
I limiti continui di Boltzmann sono applicabili solo nella regione c≥0, e
forniscono per la (43') la densità di probabilità di ottenere lo stato energetico x
quando i cresce ed i diminuisce, in modo che ii=u sia costante:
Prm(k;i)Prm(x;u)=(x; ), con =m e =Error!, dove u=ii , cioé:
m
Prm(x;u)=Error! xm-1exp{- Error!}
che per m=1 é la distribuzione ricavata da Boltzmann nel 1868.
Ricordando che per (x; ) vale E{x}=Error!
Em{x}=u
Varm{x}=Error!=cu,
che rende evidente la scoperta di Boltzmann secondo cui per elementi indipendenti
(c=0, ovvero m=∞) Prm(x;u) (x-u), cioé tutta la probabilità si concentra sul valor
medio.
66
Parte IV.Processo di crescita ed equilibrio
Le formule (33) che forniscono Prc(n|N) sono in grado di ricostruire la
termodinamica dell' equilibrio di un gas di particelle identiche: questo é evidente per
le considerazioni seguenti. Il nostro modello si basa sulla descrizione delle
realizzazioni del processo di crescita del sistema, a partire dalla condizione iniziale di
vuoto, e con le condizioni al contorno che determinano il macroprocesso Pr(i|N). Il
caso (irrealistico) più semplice é quello in cui ad ogni passo il valore iN+1 é fissato
con certezza, il che implica che il controllo sull' energia totale del sistema é
deterministico passo dopo passo. Chiameremo perciò deterministico questo
macroprocesso. Come sappiamo il processo microscopico Pr(ij|n) fattorizza in D
processi subordinatamente scambiabili ed invarianti, caratterizzati dal medesimo
parametro di correlazione c e dalle D distribuzioni individuali iniziali {pj|1},.., {pj|D}.
Queste ultime sono le probabilità iniziali che le particelle occupino un particolare
oscillatore della classe, quando il processo di classe si attivi per la prima volta. Noi
supponiamo che il controllo sulle micro-accomodazioni durante la crescita sia nullo:
con questo intendiamo che la manipolazione esterna si limiti a fissare l' energia della
particella entrante, lasciando alla correlazione tra le eccitazioni degli oscillatori della
stessa classe il compito di guidare la particella sul particolare oscillatore. Porremo
perciò che per ogni i=1,..,D valga {pj|i}j=1,..,di=di-1: il sistema perciò crescerà in
modo che ad ogni passo sia in equilibrio, cioé valgano le (31). A questo punto le
particelle già accomodate nel sistema sono considerate non interagenti, sicché ogni
scambio di eccitazioni tra gli oscillatori é congelato. L'unica interazione ammessa é
quella che la particella entrante subisce dall'insieme delle particelle già accomodate
nella medesima classe di oscillatori cui essa é destinata. Un processo deterministico
con probabilità iniziali di classe uniformi sarà perciò il più semplice esempio di
processo di crescita “reversibile”, cioé un processo che ad ogni passo genera una
distribuzione di probabilità sui microstati Pr(n) uguale a quella di equilibrio nella
situazione data. Un generico processo di crescita reversibile avrà perciò la forma
Pr(ij|n)=Pr(i|N)Pr(j| ni), con Pr(j| ni)=Error!.
La crescita canonica
67
Il macroprocesso Pr(i|N) più interessante riguarda la crescita di un sistema in contatto
termico con un termostato. In questo caso si può supporre che la manipolazione
esterna si limiti all'immissione di una particella, mentre l' energia di accomodamento
sia fissata dal termostato. Cioé: all' atto dell'immissione di una nuova particella, essa
viene indirizzata alla classe i secondo la legge Pr(i|N;), dopo di che la microaccomodazione é ancora guidata da Pr(j|ni). Rispetto alla crescita deterministica, il
controllo manipolatorio sul sistema é minimo (si limita all'immissione di particelle),
mentre sia il macro- che il micro-processo sono regolati da elementi del mondo fisico.
La crescita canonica reversibile sarà quella che genera ad ogni passo la distribuzione
canonica Prc(n;N,), dove N=1,2,... e =T-1 é costante. Come abbiamo già anticipato
in modo qualitativo, il processo Pr(ij|n;)=Pr(i|N;)Pr(j|i,ni) non é scambiabile,
mentre lo é subordinatamente ad ogni macrorealizzazione (i1,..,iN).
Visto in astratto, Pr(ij|n;) é l'elemento di un operatore che trasforma la
distribuzione di equilibrio Prc(n;N,), con ∑nij=N, nella Prc(n';N+1,), con
∑nij'=N+1. Vediamo la cosa più in dettaglio.
Processi di crescita e matrici di creazione
Limitiamoci ad una classe di d oscillatori equivalenti con c>0. Consideriamo il
teorema delle probabilità totali
Pr(n)= ∑j Pr(j|n-j)Pr(n-j),
(48)
che connette la probabilità dei vettori della distribuzione ad n particelle con quella
dei vettori ad n-1 particelle. Al solito indichiamo con n-j il vettore (n1,..,nj-1,...nd).
Poiché vi sono W(n;n,d)=(n+d-1;n) equazioni (48), riscriviamo Pr(j|n) nel modo
seguente: Prn(j,n)= Error!, e consideriamola quale elemento di una matrice An(j,n)
che opera su vettori colonna n e li trasforma in n+j, dove n+j= (n1,..,nj+1,...nd).
Svincoliamo il simbolo n dal numero totale di particelle, che verrà richiamato
dall'indice n nelle funzioni di probabilità. Cioé in Prn(n) e Prn(j,n) si intenderà ∑nj=n.
Consideriamo il caso più semplice d=2: allora n=(m,n-m), ed i valori possibili Wn(n)
sono i distinti valori di m, m=0,1,.., n. La generica equazione (48) sarà
Prn (m)=Prn-1(1|m-1)Prn-1(m-1)+Prn-1(2|m)Prn-1(m),
68
dove m indica l' eccitazione xn-1 dell'oscillatore 1 al passo n-1, ed n-m quella dell'
oscillatore 2 (per cui é inutile introdurre il simbolo della corrispondente variabile
casuale).
Se c=1, l' insieme{Prn-1(j,n)}={An-1(m',m)} può essere rappresentato dalla seguente
matrice a n+1 righe e n colonne:
m’ \m
Prn-1(0)
Prn-1(1)
Prn (0) Error!
0
0
Prn (1) Error!
Error!
0
Prn (2) 0
...
Prn (n-1)
Prn (n) 0
Error!
...
0
Prn-1(2)......Prn-1(n-2) Prn-1(n-1)
...........0
0
...........0
0
Error! ........... 0
...
0
0
0
...
.....
....
0
............Error! Error!
............0
Error!
0
La matrice, essendo (n+1) x n, ha due pseudodiagonali (una sopra ed una sotto) con
termini diversi da zero: i termini sopradiagonali sono quelli con m=m', e quelli
sottodiagonali sono quelli per cui m'=m+1. La somma dei valori di ciascuna colonna é
pari ad 1. Il termine An-1(m',m) rappresenta la probabilità di transizione dallo stato
xn-1=m allo stato xn=m'. Perciò An-1(m,m) é la probabilità che la prossima particella
si accomodi sull' altro oscillatore essendo il nostro nello stato x n-1=m, mentre
An-1(m+1,m) é la probabilità che la prossima particella si accomodi sul nostro
oscillatore nello stato m. Le uniche transizioni regolari sono mm e mm le
altre sono di probabilità nulla per le condizioni cinematiche.
In generale per ogni c si avrà
An(m',m)=Error!{c(n-m)+1}(m'-m)+ {(cm+1)(m'-m-1},
=Error!{c(n-m')+1}(m'-m)+ {c(m'-1)+1}(m'-m-1}
c=2/perm'=0,..,n+1 e m=0,..,n.
Naturalmente per c negativo, |c-1|=k, la matrice sarà definita solo per m e m'≤k, e
quindi per n ≤ kd; per c=0 tutti i termini non nulli valgono Error!, come é lecito
attendersi dall'indipendenza.
69
E' facile vedere che la sequenza An-1An-2..A0 applicata al vettore di probabilità
iniziale Pr0(0)=1 fornisce proprio ∏n={Prn(n) per ogni n:∑nj=n} nella forma (23),
che é la distribuzione di equilibrio di una classe di oscillatori equivalenti18.
Processi di svuotamento e matrici di distruzione
La matrice che crea una particella nel sistema descritto da ∏n-1 é An-1: essa trasforma
∏n-1 in ∏n, a partire dal processo fondamentale scambiabile, invariante ed
equivalente per gli oscillatori. La matrice che distrugge una particella del sistema
descritto da ∏n e lo trasforma nello stato ∏n-1 sarà Bn, e vogliamo che sia anch'
essa costruita sulla base del medesimo processo. Se il sistema é nel microstato n e noi
osserviamo una particella in modo che tutte le sequenze di osservazione senza
Prn(n) nel caso di due soli oscillatori equivale a {Prn(m)}, m=0,1,.., n che descrive
l' oscillatore 1; Prn(m) é un vettore colonna normalizzato ad n+1 componenti. Per n=0
ha una sola componente, e la sua forma é (1), che traduce la condizione iniziale
Pr0(m=0)=1; per n=1, Pr1(m) ha due componenti Pr1(0) e Pr1(1).
A0 é la matrice degenere a 2 righe e 1 colonna A0=(1/2;1/2) , che applicata a (1) (lo
scriviamo così per indicare il vettore normalizzato ad 1-dim) ottengo P1= (1/2;1/2) ,
che non dipende dalla correlazione.
Per c=1 (caso B.E.) si ha A1(1)=( 2/3;0;1/3;1/3;0;2/3 ) , che applicata a P1(1)=
(1/2;1/2) dà P2(1)= (1/3;1/3;1/3) ;
nel caso F.D. A1(-1)=( 0;0;1;1;0;0 ) trasforma P1(1)=(1/2;1/2 ) in P2(1)=( 0;0;1;1;0;0 )(1/2;1/2) =(0;1;0) ;
nel caso classico (c=0), A1(0)=( 1/2;0;1/2;1/2;0;1/2 ) trasforma (1/2;1/2) in
P2(0)=(1/4;1/2;1/4) .
In generale A1(c)=Error!trasforma Error!in P2(c)=Error!. Già al secondo passo,
quando la correlazione inizia ad operare, si vede che c=1 é il valore che separa le
distribuzioni “convesse” (che tendono ad avere un massimo al centro ) da quelle
“concave”, che tendono ad avere due massimi ai bordi. I valori c>1 indicano
correlazione superbosonica. Il valore di F.D. c=-1 é evidentemente la massima
correlazione negativa possibile. Anche se P1 fosse diverso da (1/2;1/2 ), varrebbe
A1(-1)P1 =(0;1;0) .
18
70
ripetizione siano equiprobabili (potrebbe essere il processo u di pag. 8), allora Pr(j,n)=Error!, e le relazioni tra le distribuzioni sono:
Prn-1(n)= ∑jPrn(-j,n+j)Prn(n+j),
mentre il sistema lineare é rappresentato dalla seguente matrice:
Bn =Error!
Bn é una matrice a n righe e n+1 colonne, che non dipende da c. La somma dei valori
di ciascuna colonna é ancora pari ad 1.
Questo processo descrive lo svuotamento di un sistema di n particelle, preparato nello
stato ∏n, in cui la sottrazione di ogni particella presente ad ogni passo è equiprobabile
dato n. Mentre attraverso An procedevamo al passo successivo, qui con Bn
procediamo a ritroso di un passo. Se immaginiamo l' insieme dei punti del diagramma
del processo come dominio della famiglia di distibuzioni ∏n, n=0,1,...
(0,2)
u
(0,1)
q
t
(0,0)
(1,1)
s
p
(1,0)
r
(2,0)
i termini p, q,.. rappresentano le probabilità di transizione per il processo di crescita
(processo di creazione). Indichiamo con p', q', ... le stesse probabilità di transizione,
ma per il processo inverso di svuotamento (processo di distruzione). Cioé, se
p=Prn(+j,n), cioé p: nn+j, allora p'=Prn+1(-j,n+j), cioé p' : n+jn. Se ∏n é la
distribuzione di equilibrio, allora é immediato dimostrare che in generale
71
Prn+1(-j,n+j)=Error!, cioé la probabilità di estrarre una particella nello stato j é pari al
numero di particelle in quello stato ( e cioé nj+1) diviso il numero totale n+1. Questa
é una conseguenza della versione finita del teorema di deFinetti, che afferma che ogni
distribuzione scambiabile finita é una mistura di processi ipergeometrici[19]. Lo
stesso risultato si ottiene se si impone il principio del bilancio dettagliato alle due
transizioni, cioé
Prn(n)Prn(+j,n)=Prn+1(n+j)Prn+1(-j,n+j),
dove Prn(n) e Prn+1(n+j) sono i valori di equilibrio e Prn(+j,n) é la transizione del
processo di crescita reversibile.
Naturalmente B1...Bn-1Bn ∏n=∏0, per cui, se ∏n é di equilibrio, allora ad ogni passo
si ritrova la corrispondente distribuzione di equilibrio. Se ad esempio c=1 e
∏n=(1/(n+1);..;1/(n+1)) , allora Bn ∏n =∏n-1=(1/n;..;1/n) . Se cioé lo stato iniziale é
di equilibrio, allora tutti gli stati attraversati saranno di equilibrio. Alcuni esempi di
matrici di distruzione per c=1 sono le seguenti:
B1= (1 1) B2= Error! B3=Error!
Processi di riaggiustamento
In termini delle matrici An e Bn siamo in grado di definire una matrice Cn=An-1Bn,
che, applicata allo stato ∏n, rappresenta la distruzione e la successiva creazione di
una particella. Le condizioni sopra discusse su An e Bn equivalgono a supporre che l'
estrazione imponga la correlazione ipergeometrica a tutte le particelle (dipenda cioè
dalla preparazione), mentre la creazione avrà la correlazione propria di ciascun tipo di
particella (la preparazione ammette una nuova particella, ma la sua destinazione
dipende dalla correlazione intrinseca). E' chiaro che applicare Cn allo stato ∏n
equivale ad introdurre un'evoluzione dinamica del sistema, in cui ad ogni
applicazione corrisponde la possibilità per una particella di passare dallo stato i allo
stato j; cioé gli oscillatori della medesima classe si scambiano una eccitazione. In due
dimensioni Cn é una matrice bistocastica quadrata (n+1)x(n+1); applicata allo stato di
equilibrio ∏n, lo lascia inalterato per costruzione. Infatti Cn∏n=An-1Bn∏n =An-1∏n1=∏n. Cioé ∏n é l' autovettore destro di Cn. La matrice Cn in generale dipende dal
parametro di correlazione c. Il termine diagonale Pr(mm) é la somma di due vie:
72
estrazione e ri-immissione sul primo oscillatore (con m eccitazioni) e sul secondo
(con n-m). Perciò vale:
Cn(m,m)= Error!+ Error!= Error!{m2 + (n-m)2+ n(c-1-1)}.
Il termine sopradiagonale Pr(mm-1) consiste esclusivamente nell' estrazione dal
primo e nella ri-immissione sul secondo. Per cui vale:
Cn(m-1,m)= Error!= Error!m(n-m+c-1);
per il termine sottodiagonale Pr(mm+1) vale il processo opposto:
Cn(m+1,m)= Error!= Error!
Che la matrice sia stocastica, cioé ∑m'Cn(m',m)=1, é evidente dall'interpretazione
delle quattro possibilità prima elencate, che sono i quattro modi cinematicamente
possibili di evoluzione dello stato (m,n-m). Per le limitazioni nel caso c<0 vale
quanto detto a proposito delle matrici di crescita.
Le pulci di Ehrenfest generalizzate
Le precedenti considerazioni sulle matrici di creazione, distruzione ed evoluzione
sono state fino ad ora riferite alle distribuzioni di equilibrio ∏n. Nulla ci vieta di
pensare le stesse matrici applicate a stati Pn qualsiasi e studiarne l' evoluzione.
Omettiamo l'indice n ed introduciamo l' indice temporale t=0,1,..., tale che P0 sia lo
stato preparato inizialmente e che Pt sia lo stato risultante da t applicazioni della
matrice C. La formula Pt =CPt-1 rivela che l'evoluzione dello stato é markoviana
omogenea, e che pertanto P∞ =∏.
Da Pt =CPt =CnP0, si ha che C∞ é una matrice con le righe costanti ed uguali a Pr(n)
per ogni n. Il processo di evoluzione per ogni valore c della correlazione é una
generalizzazione del famoso processo delle pulci di Ehrenfest.
Questo processo, noto come l' "Ehrenfest urn model", fu introdotto dagli Ehrenfest nel
1907[20], ed è noto anche come il modello dei cani e delle pulci. Esso ha un ruolo
euristico fondamentale nel tentativo di conciliare la nozioni meccaniche di
"reversibilità" e "ricorrenza" con la nozione termodinamica di "irreversibilità". Esso é
citato universalmente (si veda [21]) come appunto un modello euristico, cioè un'
analogia utile ma insufficiente per fondare una soddisfacente teoria dell' approccio all'
equilibrio.
73
Vi sono due cani con n pulci in tutto, di cui m sul primo e n-m sul secondo, ed ad
ogni passo viene scelta una pulce " a caso" (cioé in modo equiprobabile) e la si
cambia di cane. E' sufficiente la variabile casuale m: la probabilità della transizione
mm' sarà data da
En(m',m)=Error!{m [m'-(m-1)]+ (n-m) [m'-(m+1)]},
che sintetizza Pr(mm-1)=Error!; Pr(mm+1)=Error!. In forma matriciale En é
una matrice stocastica quadrata di dimensione n+1
En= Error!
la cui diagonale é nulla perché il meccanismo impone che Pr(mm)=0.
Se confrontiamo questo processo con quello regolato da Cn(0), cioé l' evoluzione
dinamica di particelle indipendenti, abbiamo
Cn(0)= Error!=Error!En+Error!In ,
dove In é la matrice identità. L' unica apprezzabile differenza tra i due processi é
dovuta alla cinematica (noi ammettiamo le transizioni mm vietate dagli Ehrenfest );
é chiaro che i due processi hanno lo stesso autovettore destro, cioé lo stesso stato di
equilibrio P∞ =∏, che é la distribuzione bernoulliana Pr(m)=(n;m) 2-n.
Se noi adesso consideriamo le matrici generiche Cn(c), tutto si potrà ripetere allo
stesso modo: quale che sia lo stato iniziale P0(c), lo stato P∞(c)=Cn(c)∞P0(c) sarà
∏n(c) dato dalle (23). Le ipotesi adottate ci consentono quindi di dare un'
interpretazione dinamica (in senso probabilistico) alle distribuzioni di equilibrio.
74
Cenni al processo markoviano verso l'equilibrio.
Riassumendo quest'ultima parte, consideriamo un sistema di oscillatori con N
eccitazioni nello stato macroscopico Prc(n;), dove rappresenti un vincolo
macroscopico (un setto, un campo di forze esterno,...) che venga rimosso al tempo
t=0, in cui solo l' energia E(N)= ∑Nii risulti fissata. Lo stato al tempo t=0 sia perciò
Prc(n;N) = Prc(n,t;N)t=0=PN(0), e sia lasciato evolvere dalla dinamica probabilistica.
Poiché ad energia perfettamente fissata lo stato PN fattorizza in PN1..PND , cioé Prc(n;
N)=∏iPrc(ni; Ni), possiamo supporre che lo stato di ciascuna classe di oscillatori
evolva in modo markoviano omogeneo con matrice di transizione CNi che dipende
dal numero di oscillatori gi, dal numero delle eccitazioni Ni e dal parametro di
correlazione c. E' perciò chiaro che lo stato di equilibrio sarà di nuovo il prodotto di D
stati della forma (23). La matrice dell' evoluzione dello stato completo Pn é
decomponibile a blocchi, poiché ciascuna classe evolve in modo indipendente, cioè:
CN =( CN1;0;..;0;0;CN2;..;0;..;..;..;CND ) , PN =(PN1;PN2;..;PND)
Se il sistema, inizialmente nel macrostato N, è invece posto in contatto con un
termostato a temperatura T=-1, allora nella matrice CN compariranno termini fuori
diagonali, corrispondenti a transizioni tra le classi che non conservano l’energia del
sistema: il processo non sarà perciò decomponibile in blocchi, e quale che sia Pr(N)
iniziale si dovrà ottenere alla fine la distribuzione canonica.
75
La probabilità
E' ben noto come la confusione tra le nozioni di probabilità e di frequenza relativa
abbia regnato a lungo nell'ambito delle scienze sperimentali, in particolare nella
statistica e nella meccanica statistica. L'identificazione dei "casi favorevoli sui
possibili" (di natura logica) con le "osservazioni positive sul totale" (di natura
empirica) ha avuto come conseguenza l'impossibilità di affrontare la probabilità del
caso singolo, costringendo per esempio a mascherare col concetto di "ensemble di
copie mentali" lo spazio di probabilità dell'unico sistema fisico che si sta esaminando.
La rinascita bayesiana in statistica ha rovesciato la questione, pagando però un
pesante tributo ad opzioni soggettiviste, tali da rendere difficoltoso e parziale il
reigresso di concezioni non frequentiste nella meccanica statistica[17]. Per parte
nostra ci sembra superato dallo sviluppo stesso della statistica ogni atteggiamento
dogmatico che pretenda di dividere il campo una volta per tutte. Per esempio il
processo stocastico che si rivela così utile per la ricostruzione probabilistica delle
statistiche delle particelle é nato e si é sviluppato tanto nell'ambito della concezione
soggettivistica estrema di de Finetti quanto in quello della concezione logicista di
R.Carnap, in ogni caso molto lontano dagli ambiti frequentistici della meccanica
statistica tradizionale.
Nel caso della crescita di un sistema fisico, é chiaro che l'immissione (la creazione) di
una particella è analoga all' estrazione di una pallina da un'urna, o al lancio di un
dado, o alla realizzazione di un esperimento le cui possibilità siano 1,..,d. Così la
proposizione "Pr(xk=nk) = p" relativa allo stato del k-mo oscillatore dopo la
realizzazione del processo di accomodamento di n particelle ha una struttura
probabilistica analoga alla seguente: " in una sequenza di n lanci di monete la
probabilità di uscita di k teste é p". Per un frequentista raffinato (alla von Mises)
questa probabilità é la frequenza relativa nell'appropriato collettivo di M∞
sequenze di n lanci, o la frequenza relativa dei sistemi in cui si realizza x k=nk
nell'ensemble appropriato. Essa non ha perciò senso se il collettivo non esiste, come
nel caso in cui si parli del "prossimo" lancio di "queste" monete, cioé di un evento
irripetibile per definizione. L'ensemble associato al lancio di n monete sarà un
insieme molto grande di "repliche" del sistema di n monete, rappresentato su un
insieme di 2n eventi elementari (tanti quanti sono i possibili risultati j=(j1,..,jn) di una
sequenza di teste e croci lunga n), su ciascuno dei quali é definita una funzione j)
76
che indica il numero dei sistemi nello stato j. In questo contesto ipotetico, l'
osservazione della frequenza "xk=nk" sul sistema fisico in esame può perciò
riguardarsi come l' osservazione di un campione estratto “a caso” da una popolazione
infinita, le cui unità statistiche sono insiemi di n lanci. Il numero di unità statistiche
nello stato j sarà perciò j), e la composizione percentuale della modalità “j” sarà
Error!;∑jj)). La probablità dell’evento osservato "xk=nk" sarà perciò uguale alla
frazione di unità statistiche della popolazione fittizia in cui vale che il k-mo
oscillatore è nello stato nk. Il fatto che gli stessi frequentisti ammettano che questa
costruzione é insoddisfacente[23], congiunta al fatto che il campionamento da una
popolazione di composizione data é pur sempre retto da ipotesi probabilistiche, rende
la nozione di ensemble ( o di popolazione ipotetica infinita) sostanzialmente
superflua per l'interpretazione della probabilità.
Una volta che si rifiuti il dogma frequentista, si può tranquillamente ammettere che
un'asserzione probabilistica può avere una pluralità di significati, situati al livello
psicologico del "grado di fiducia", o al livello logico del "grado di conferma", o al
livello fisico di "propensità", o infine al livello empirico di frequenza rilevata o attesa.
Il fatto é che nessuna di queste interpretazioni esaurisce il termine "probabilità".
Anche se identificassimo operativisticamente il significato con il metodo di
determinazione della probabilità, non solo risolveremmo la pluralità di cui sopra (data
la varietà dei metodi atti a determinarla), ma dovremmo alla fine concludere che ogni
valutazione di probabilità é priva di qualunque significato. Ciò che invece ha un
significato preciso é il controllo di un valore di probabilità (o meglio, di una
distribuzione di probabilità), la cui validità può essere assunta per ipotesi, ed essere
messa alla prova nei vari ambiti che ne costituiscono i diversi significati. Cioé: il
significato di un' affermazione probabilistica é l' insieme delle conseguenze che se ne
traggono quando se ne ipotizzi la validità. Questo vale in generale anche per le
affermazioni deterministiche, sicché si può supporre che un'interpretazione del
metodo scientifico basata sul binomio congetture-confutazioni faccia ormai parte
della visione comune della scienza contemporanea. Notiamo però che
un'affermazione deterministica può essere smentita da un solo controesempio, mentre
l' affermazione "Pr(xk=nk) = p" non esclude alcuna delle alternative, che in generale
sono (n+d-1;n) . Per cui la confutazione di un' asserzione probabilistica non sarà mai
logicamente cogente allo stesso modo della confutazione di un'affermazione
deterministica. Ciononostante la statistica ha elaborato metodi appositi, i cosiddetti
77
saggi di significatività, allo scopo di adattare alle proprie specificità (e trasferire nel
proprio dominio di applicazione) la procedura di confutazione tipica della logica del
certo. I famosi saggi del 2 di K.Pearson, del t di Student o il test esatto di Fisher
sono gli esempi più noti di questa branca essenziale delle inferenze statistiche. Essi si
basano sulla posizione di un'ipotesi nulla, sulla derivazione di una distribuzione
campionaria su una funzione dei risultati, e sulla scelta di una zona di rigetto, che
permette di falsare l'ipotesi nulla nel caso in cui il valore campionario osservato vi
appartenga. Questi strumenti sofisticati sono tradizionalmente poco applicati alla
Fisica, dove i numeri degli individui osservati (siano essi le particelle che
compongono i sistemi fisici, o il numero delle successive osservazioni microscopiche
contenute in ogni misura macroscopica) é spesso enorme. In tal caso lo strumento più
importante per mettere alla prova in senso oggettivistico un’ affermazione
probabilistica é offerto dall' applicazione della legge debole dei grandi numeri, la
quale afferma che, sotto condizioni molto generali, date M realizzazioni
stocasticamente indipendenti di una variabile casuale, per M∞ tende ad uno la
probabilità che il numero delle realizzazioni con valore k non si discosti troppo da
MPr(k). Nel caso del processo di accomodazione di n particelle sui d oscillatori, per
M∞ tende ad uno la probabilità che il numero M(nk) delle realizzazioni in cui l'
oscillatore k é nello stato nk non si discosti troppo da MPr(nk). Questo può essere
inteso nel modo seguente: se esiste l'ensemble per il sistema in crescita (cioé se si
dispone di M sistemi identici governati dalla stessa probabilità ed indipendenti tra
loro) allora mi aspetto che, dopo aver introdotto n eccitazioni per ciascun sistema, per
grandi M la frequenza relativa M(nk)/M sia molto prossima alla probabilità Pr(nk).
Nel caso in cui si osservasse che questa frequenza diverge significativamente da
Pr(nk) si sarebbe autorizzati a ritenere errate le assunzioni sulle probabilità operate
nella descrizione del sistema. In conclusione: se M é enorme il controllo dell'ipotesi
nulla é sostanzialmente simile al controllo di un'ipotesi deterministica. Questa
procedura é una sorta di caso degenere dei metodi di controllo empirico per le ipotesi
probabilistiche, sviluppati per numeri di osservazioni non necessariamente elevati, e
basati sul principio (formulato principalmente da R.A.Fisher) secondo cui l'
osservazione di eventi che l'ipotesi nulla valuta improbabili é una buona ragione per
ritenere che l'ipotesi stessa non valga. Dato che per ragioni del tutto generali valori
distanti dal valor medio dell' ordine della varianza sono poco probabili, più piccola é
la varianza della distribuzione campionaria più vasto é il cosiddetto contenuto
78
empirico dell'ipotesi nulla. Lo schema delle osservazioni ripetute consente perciò di
mettere alla prova distribuzioni campionarie ipotetiche di varianza dell' ordine di
Error!, dove M é il numero delle ripetizioni. Questo schema, sicuramente
sopravvalutato dai fisici ed in generale dai frequentisti, benché fondamentale non é
l'unico: vi sono casi in cui una sola osservazione dell' accomodazione di n particelle é
già sufficiente per mettere alla prova l'ipotesi nulla se n é grande (correlazione nulla o
negativa, in cui la varianza della frequenza relativa é dell' ordine di Error!);
alternativamente esistono schemi diversi dalle ripetizioni indipendenti, quali ad
esempio processi di osservazione di Markov, che conducono a distribuzioni
ipotetiche di varianza infinitesima. In ogni caso la funzione dell'insieme delle repliche
indipendenti o delle catene markoviane é quella di mettere alla prova l' ipotesi
probabilistica, non quella di dare un significato al termine probabilità.
Per sintetizzare possiamo affermare che un' espressione probabilistica ha una pluralità
di significati, molti dei quali non hanno nulla in comune con quello di frequenza
relativa; se però essa vuol essere messa a confronto con l'esperienza, e quindi valutata
come compatibile o no con lo stato del mondo di cui essa parla (e non per esempio
con lo stato della mente di chi la afferma) deve essere messa a confronto con i
risultati degli esperimenti cui si riferisce. Se vogliamo perciò che le nostre
affermazioni probabilistiche possano essere sottoposte a controllo empirico, possiamo
riferirle ad uno schema di osservazioni ripetute, le cui frequenze relative osservate
siano in relazione con le probabilità affermate.
Per essere ancora più precisi, consideriamo la trattazione probabilistica del più
semplice oggetto fisico in grado di generare un processo stocastico di osservazione
(una moneta lanciata ripetutamente ed analizzata secondo le modalità "testa" e
"croce"): essa si basa sull'assegnare probabilità alle distinte sequenze di 0 e 1 che si
possono ottenere nei lanci successivi. La probabilità di ciascuna sequenza sia
determinata a partire dall' ipotesi nulla H0: "Pr(T1)=..=Pr(Tn)=..=1/2" &"le
distribuzioni di diversi lanci sono indipendenti", che é la traduzione probabilistica
corretta della frase del linguaggio comune "la moneta é giusta". Dall'ipotesi nulla
segue la distribuzione campionaria Pr(k,n)=(n;k) 2-n, che fornisce la probabilità di
osservare k teste in n lanci nell'ipotesi H0. Per mettere alla prova H0 faremo sì che la
preparazione di ciascun lancio cancelli la memoria del risultato precedente:
naturalmente nessuno ci potrà garantire che influenze nascoste non continuino ad
operare, ma noi dovremo fare il possibile affinché l'ipotesi (probabilistica) di
79
indipendenza stocastica dei lanci trovi riscontro nella realtà. Iniziamo a lanciare la
moneta, e arrestiamoci dopo 10 lanci: degli 11 valori di k possibili ve ne sono due
(k=0 e k=10) la cui probabilità ipotetica per p=1/2 é 2-10=Error!≈ 1/1000. Ad un
livello di significatità dell' ordine dell’ 1 per mille si può ritenere che solo questi due
valori possano falsare l'ipotesi nulla. In altri termini qualsiasi valore di frequenza
relativa tra 1/10 e 9/10 é compatibile con l'ipotesi di indipendenza e probabilità
simmetrica al livello di significatività dell' 1 per mille. Ben diverso é il caso in cui il
numero dei lanci sia per esempio dell' ordine di 1012: in tal caso l'ipotesi nulla
impone probabilità dell'ordine dell' 1 per mille a tutte le frequenze relative che
distino dal parametro p=1/2 di un valore dell'ordine di 10-5. Data la precisione  di
qualunque apparato di misura delle frequenze si scelga, al crescere del numero dei
lanci qualunque valore di frequenza diverso da 1/2± avrà probabilità trascurabile,
per cui la distribuzione campionaria sarà tutta concentrata sulla frequenza relativa
1/2. Per cui non risulta più necessario introdurre l'apparato specifico dei test di
significatività (la statistica 2, la sua distribuzione campionaria, la zona di rigetto, il
livello di significatività ,..): se analizzando un segmento molto lungo della sequenza
si trova che la frequenza relativa delle teste é contenuta nell'intervallo p±dove p é
ilvalore ipotizzato della probabilità di un singolo lancio Pr(T)=p, si può affermare
che l'ipotesi nulla é corroborata dall' esperimento. Con ciò ci pare di aver chiarito le
ragioni per cui in Fisica si fà molto spesso ricorso all'identificazione di probabilità e
frequenza relativa, assumendo spesso rozzamente come definizione di probabilità un
importante risultato del calcolo delle probabilità (la legge debole dei grandi numeri),
per mezzo del quale si possono derivare distribuzioni campionarie ipotetiche che
costituiscono un caso degenere della molto più generale procedura dei test di
significatività19.
Un' altra in apparenza profonda differenza tra metodi e modelli tipici dei fisici e
quelli consolidati nella prassi statistica é il metodo dell'ensemble. A nessuno statistico
verrebbe in mente di mettere alla prova l' affermazione Pr(T)=p sull'unica moneta
19Data
la diffusa e spesso inconsapevole identificazione della probabilità con la
frequenza relativa, l'esempio precedente della moneta potrebbe essere erroneamente
considerato non un saggio di significatività (che é un'inferenza induttiva) ma una sorta
di dimostrazione della sensatezza della definizione frequentista; tutto ciò rende
evidente come non sia spesso semplice chiarire la struttura logica delle affermazioni
probabilistiche in Fisica.
80
disponibile costruendo una popolazione reale di M∞ monete fisicamente identiche
e lanciandole tutte contemporaneamente con la stessa preparazione ed in modo da
evitare interazioni fisiche tra i lanci. In sintesi, la sequenza di variabili casuali da cui
si estrae il campione normalmente si riferiscono ai tempi diversi in cui si esegue il
medesimo esperimento sul medesimo sistema fisico. Perché la stessa cosa non si può
fare per un sistema dinamico, osservandolo cioé a tempi diversi e considerando la
successione delle osservazioni come la popolazione infinita che ne costituisce la
traduzione in linguaggio statistico? E' chiaro che la frequenza relativa di osservazione
di una modalità assume il significato di frazione di tempo in cui il carattere assume
quella modalità, sicché (se valgono le condizioni per la legge dei grandi numeri) la
probabilità di una modalità in un'osservazione é il limite della frazione di tempo in
cui la sequenza assume quel valore. Se però il sistema ha una dinamica
deterministica, e noi compiamo osservazioni successive sul sistema ad intervalli
regolari, é concettualmente difficile supporre che le diverse realizzazioni del processo
di osservazione siano indipendenti! In particolare, se la sequenza delle osservazioni
inizia con la determinazione dello stato meccanico microscopico, allora tutte le
successive osservazioni sono in principio assolutamente determinate. Se invece le
osservazioni sono meno raffinate, e si limitano a stabilire un peso iniziale sui punti
dello spazio delle fasi , allora é possibile seguire l' evoluzione deterministica di
ciascun punto e di nuovo derivare il peso ad ogni tempo. Insomma, la sequenza delle
osservazioni é visto come un problema tipicamente dinamico, agli antipodi di ogni
trattazione probabilistica. In termini statistici, il campionamento é effettuato dalla
dinamica. Ciò significa che la procedura tipicamente statistica per indagare la
popolazione nel modo "il più casuale possibile" viene affidata ad un algoritmo in
principio deterministico[24]. La cosa si complica ulteriormente, poiché ogni
osservazione macroscopica ha una durata così grande rispetto ai tempi tipici dell'
evoluzione dinamica da poter essere considerata come una media temporale su un
segmento molto lungo della sequenza infinita. Sarebbe come se, nel lancio di una
moneta, ogni osservazione macroscopica risultasse in un valore k/n, pari al numero
delle teste comparse durante il tempo di osservazione diviso per il numero di eventi
elementari osservati. In questo esempio é chiaro che per n molto grande le
osservazioni avranno quasi tutte un valore molto vicino a p. E' esattamente quel che
accade nella meccanica statistica dell'equilibrio: siamo praticamente certi di osservare
valori empirici uguali a quelli previsti dalle distribuzioni di equilibrio; i valori
81
osservati sono medie temporali sulla sequenza di variabili dell'unico sistema presente;
ne parrebbe conseguire che le proprietà statistiche della sequenza temporale sono
descritte dalle distribuzioni di equilibrio. Il paradosso é evidente: la sequenza
temporale, prodotta deterministicamente dalla dinamica, é statisticamente
indistinguibile dalla sequenza casuale per antonomasia! E' chiaro che lo scandalo é
soprattutto filosofico, perché tra la sequenza rigidamente alternata 0,1,0,1,..,0,1,.. ed
una generata da una moneta "giusta" non vi é possibilità pratica di distinguere se le
osservazioni mediano su segmenti lunghi; le ricerche sui teoremi ergodici sono
alimentate dalla speranza di dimostrare che quasi tutte le sequenze deterministiche (le
traiettorie) hanno le stesse proprietà statistiche delle sequenze campionarie generate
dalle distribuzioni di equilibrio.
Ma torniamo al nostro argomento principale: una fondazione probabilistica
delle statistiche delle particelle non ha il dovere di giustificare degli assiomi,
derivandoli da teorie più "fondamentali". Come ogni teoria statistica varrà in forma
ipotetica fino a che in ultima analisi non sarà smentita (secondo le modalità tipiche
delle ipotesi statistiche) dall' evidenza empirica. Inoltre non é essenziale che ogni
elemento della teoria abbia una interpretazione empirica in senso frequentista: é
invece essenziale che la teoria conduca prima o poi a distribuzioni di probabilità che
superino gli opportuni controlli sperimentali. In caso di corroborazione l'insieme degli
assiomi e delle condizioni possono essere legittimamente sostenuti; in caso di
confutazione l'insieme é da rifiutare e si apre la ricerca del possibile errore (come nel
caso di Boltzmann '68). Naturalmente la principale corroborazione delle distribuzioni
introdotte in meccanica statistica consiste nell’accordo tra le formule dei numeri medi
di occupazione delle tre statistiche i*(c) per c=1,0,-1 e le relazioni termodinamiche
che ne conseguono per i gas perfetti ( di Bose, classico, di Fermi). Ad un livello
immediatamente successivo si può considerare corroborata la formula che riassume le
fluttuazioni i(1+ci) per c=1,0,-1. In tutto questo naturalmente le medie e le
varianze vanno intese in senso temporale. Per un’analisi più puntuale della questione,
vediamo gli insiemi delle ipotesi che caratterizzano le diverse distribuzioni ed i
problemi concettuali che comportano.
1) La crescita di un sistema fisico é un processo stocastico (parzialmente)
scambiabile, in cui ciascun passo generalmente dipende dal vettore di stato.
Limitiamoci pure al processo di riempimento di una classe, che é scambiabile ed
82
invariante. La disrtibuzione dopo n passi Pr(n) assegnerà probabilità agli ( n+d-1;n)
valori possibili. Questa distribuzione può in principio essere messa alla prova col
metodo dell' ensemble. Date M realizzazioni (indipendenti tra loro) del processo di
accomodazione di n particelle sui d oscillatori di M identici sistemi fisici preparati
allo steso modo, Pr(n) sarà corroborata se per ogni j il numero M(nj) delle
realizzazioni in cui l' oscillatore j é nello stato nj non si discosta troppo da MPr(nj).
Alternativamente le M realizzazioni possono avvenire sul medesimo sistema,
svuotato dopo la realizzazione precedente. Per mettere alla prova Pr(n) dobbiamo
perciò ricorrere in linea di principio ad una sequenza potenzialmente infinita di
realizzazioni indipendenti del processo, osservarne M, ed infine corroborare o
respingere Pr(n). Come abbiamo già detto, questo ricorso alle repliche ed all' infinito
non deve essere visto come un cedimento al frequentismo: esso non va confuso col
metodo in cui Pr(n) é definito come il rapporto tra il numero delle copie nello stato n
ed il numero totale. Per noi invece la probabilità fisica intende descrivere le proprietà
di quel sistema fisico e delle condizioni al contorno. Il ricorso all'infinito sta nel fatto
che la probabilità non descrive direttamente queste proprietà, ma regola gli eventi che
hanno luogo in quel sistema. Solo se l' osservazione del sistema é accurata
(prolungata, o ripetuta, comunque non episodica) potrà mettere alla prova la
probabilità ipotizzata. Se noi, ispirandoci all'insieme di Gibbs, introduciamo M copie
del sistema fisico, e concepiamo una crescita parallella ed indipendente degli M
sistemi, ci comportiamo come se, invece che N lanci di una moneta, facciamo un
lancio di N copie della stessa moneta.
2) Abbastanza diverso é il caso della probabilità di occupazione per la singola
particella Pr{j |m}, in base alla quale siamo in grado di determinare la probabilità
Pr(n). Essa dipende da j e da m, per cui le successive accomodazioni sono in generale
correlate. Questo implica che la probabilità della sequenza (j1,..,jn) non é il prodotto
delle probabilità marginali, cioé Pr(j1,..,jn)≠Pr(j1)..Pr(jn). Se la correlazione é
positiva, e quindi la sequenza può diventare infinitamente lunga, Pr(j1,..,jn) non si
concentra tutta sul vettore np che ne costituisce il valor medio ad ogni passo. In
particolare il teorema di de Finetti afferma che la densità di probabilità che vi sia una
frequenza di occupazione del j-mo oscillatore Error!pari a x sarà f(x), cioé la densità
iniziale é il limite della distribuzione asintotica delle frequenze relative. In particolare
per c=1 e d=2 si avrà f(x)=1, cioé la frequenza asintotica attesa é uniforme. Da
questo segue che ovviamente nessuna frequenza osservata può smentire questo
83
schema probabilistico. La situazione cambia se si ha a disposizione un ensemble di
copie che crescono simultaneamente. Se dopo m passi concentriamo l'osservazione
sugli N(m) sistemi nello stato m, e seguiamo la transizione successiva, allora il
numero di questi sistemi che finiscono in mj diviso il numero N(m) dovrà essere
approssimativamente uguale a Pr{j|m}. Cioé si può introdurre una seconda infinità
potenziale, per mettere direttamente alla prova la distribuzione in oggetto. Tuttavia
Pr{j|m} é derivato dalle stesse ipotesi che sostengono la distribuzione sugli stati
Pr(n), per cui una conferma di Pr(n) risulterebbe una conferma indiretta della legge
individuale Pr{j|m}.
D'altra parte Pr{j|m} é la generalizzazione della formula di Einstein sull' emissione
stimolata, una formula fondamentale nell' ottica quantistica, il cui status
epistemologico é perciò qualcosa di più di una semplice legge individuale in grado di
generare distribuzioni N-predittive confermate dall'esperienza.
3) Ancora differente é il caso della distribuzione Pr(n) nel caso in cui sia ammessa
un'interazione debole tra le particelle, e quindi il sistema evolva secondo il processo
markoviano di approccio all' equilibrio di cui abbiamo tratteggiato i lineamenti. In tal
caso la popolazione generata dalle successive osservazioni sull'unico sistema fisico
reale é rappresentata dalla sequenza di stati n0,n1,..,nt con distribuzioni Pr(nt)=Prt(n),
t=0,1,..,t,..., dove Prt(n) si ottiene da Prt-1(n) mediante l'applicazione della matrice di
riaggiustamento Cn. Se Pr0(n) é di equilibrio, le variabili aleatorie nt sono
equidistribuite, cioé Prt(n)=Pr0(n). Naturalmente non sono indipendenti, poiché nt+1
non può "distare" da nt per più di una eccitazione per oscillatore. Osserviamo che
nella trattazione dinamica probabilistica il processo di campionamento non é
deterministico, bensì é retto da una "sampling distribution" markoviana. E' una
passeggiata a caso ad incrementi scambiabili tra gli individui della popolazione (le
osservazioni). Poiché tutte le modalità (i microstati possibili) comunicano
(costituiscono un insieme ergodico), l'assunto intuitivo é che tutte prima o poi
verranno osservate, e che per una passeggiata infinitamente lunga la frequenza di
osservazione di una modalità (o la frazione di tempo in cui il sistema si trova in
quello stato) converga verso la probabilità di equilibrio.
In tal caso una grandezza osservabile Ft=Ft(n) potrà concepirsi come funzione del
valore attuale del microstato n al tempo t, con distribuzione Prt(n). Poiché l'
osservazione dura un tempo  molto maggiore del tempo di interazione microscopico
supposto unitario, avremo che il valore misurato sarà la media temporale su diFt(n),
84
cioé F=Error!= Error!F(n), dove W(n) é la frequenza di occorrenza del valore n
nell'intervallo (0,]. La legge debole dei grandi numeri generalizzata alle catene di
Markov stazionarie[25] ci assicura che per Error!;) Pr(n). E' perciò
evidente che la compatibilità tra i valori misurati effettivamente e quelli calcolati
sulla base delle distribuzioni di equilibrio costituisce una conferma dell' insieme di
assunzioni probabilistiche operate (il modello) per descrivere il sistema fisico. In
particolare:
a) la corroborazione di Pr(n) attraverso misure macroscopiche intese come medie su
sequenze di campionamento markoviano costituisce una conferma per le matrici di
transizione Cn;
2) la corroborazione delle matrici di transizione Cn é una conferma indiretta del
processo stocastico fondamentale, (parzialmente) scambiabile ed invariante, sulla
base del quale le Cn sono state costruite. Il processo di crescita (o di creazione) e
quello di svuotamento possono perciò essere messi alla prova indirettamente
(attraverso Cn ed il processo temporale), evitando pertanto l'interpretazione altrimenti
necessaria delle crescite (o decrescite) di M sistemi indipendenti.
Indipendenza e correlazione
Come considerazioni conclusiva e in certa misura provvisoria ci pare che sia degno di
nota come una formulazione probabilistica delle statistiche fisiche tenda ad escludere
da ogni ambito la nozione di "indipendenza", su cui si é sempre cercato di fondare in
modo acritico la descrizione del comportamento delle particelle elementari. Dal punto
di vista ontologico, cioé del comportamento delle particelle in quanto tale, la
correlazione positiva dei bosoni e quella negativa dei fermioni sono state lo stimolo
essenziale per l'introduzione del concetto di "indistinguibilità", con la conseguenza
più o meno consapevole di spostare il livello di descrizione del sistema fisico dalle
particelle agli oscillatori. Essendo questi indipendenti nell' insieme grand-canonico,
furono da Schrödinger [11] considerati come gli elementi fondamentali della
descrizione statistica. E' chiaro come l'intreccio tra dogmi filosofici, osservazioni
empiriche e tentativi di spiegazioni più profonde ha avuto sostanzialmente un ruolo
progressivo per l'ampliamento delle conoscenze fisiche: in ogni caso é chiaro che
l'espressione "meccanica statistica delle particelle indipendenti" riferita ai casi
85
quantistici é assolutamente fuorviante. Il fatto che in statistica la correlazione sia
assunta come fondamentale non é un problema per questa disciplina: mentre va
rispettato il tentativo della fisica di render conto della "misteriosa influenza" non
mediata da termini di interazione nell' hamiltoniana, é bene non confondere esigenze
e procedure tipiche di ciascuna disciplina, col risultato di incoerenze su entrambi i
fronti.
Quale che sia la distribuzione di probabilità sugli stati n, se si ammette che la
dinamica probabilistica sia data dal processo di evoluzione markoviana di matrice
Cn=An-1Bn, in cui An-1 dipende dalla correlazione tra le particelle, si ottiene che la
distribuzione di probabilità di qualunque osservazione macroscopica é quella di
equilibrio. Il significato di distribuzione di equilibrio é quello di autovettore destro
della matrice Cn, per cui l'interpretazione della risultante distribuzione di probabilità
sugli stati n non necessita di alcun insieme di repliche "ideali" ed "indipendenti" del
sistema dato e della sua crescita. La sistemazione di particelle sugli stati possibili é
invece un processo subordinatamente scambiabile correlato, cioé la creazione di un
sistema di n particelle soggiace ad una probabilità di transizione che é una mistura
macroscopicamente determinata di processi di accrescimento scambiabili ed
invarianti.
La nozione di indipendenza viene perciò espunta dalla trattazione, sia per ciò che
riguarda il processo di creazione che determina l'ipotesi nulla Pr(n), sia per ciò che
riguarda (attraverso l' ensemble) la sua interpretazione, che infine per il suo controllo
empirico. Poiché storicamente vi é stata una connessione stretta (anche se non
logicamente necessaria) tra l'uso di probabilità indipendenti, concezione frequentista
di probabilità e legge debole dei grandi numeri per ripetizioni indipendenti, non é
forse un caso che l' abbandono simultaneo di queste tre nozioni permetta di ottenere
risultati cosiddetti "non classici" attraverso una probabilità scambiabile o markoviana.
Come appunto mostrano gli sviluppi di questo secolo, vi é forse ancora molto da
esplorare nel campo della correlazione, prima di condannare dispregiativamente come
classica ( e quindi inadatta ai complessi fenomeni microfisici) una teoria della
probabilità arbitrariamente limitata allo schema dell'indipendenza.
86
Riferimenti bibliografici
[1]
[2]
[2']
[3]
A.Bach, "Boltzmann's Probability Distribution of 1877", Arch. for Hist. Ex.
Sci.,Vol.41, N.1(1990), pagg.1-40
L.Boltzmann, [1868] "Studien über das Gleichgewicht der lebendigen Kraft
zwichen bewegten materiellen Punkten", in Wissenschaftliche
Abhandlungen, Vol.I, F.Hasenoehrl, ed., (Leipzig: Barth, 1909), pp.
49-96.
L.Boltzmann, [1872] "Weitere studien über das Wärmegleichgewicht unter
Gasmolekülen", in Wissenschaftliche Abhandlungen,
Vol.I,F.Hasenoehrl, ed, (Leipzig: Barth, 1909), pp.316-402.
L.Boltzmann, [1877] "Über die Beziehung zwischen dem zweiten Hauptsatze
der mechanischen Wärmtheorie und der Wahrscheinlichkeitsrechnung,
respektive den Sätzen über das Wärmegleichgewicht",
inWissenschaftliche Abhandlungen, Vol.II, F.Hasenöhrl, ed.,
(Leipzig: Barth, 1909), pp.164-223
[4]
[5]
[6]
[7]
W.Feller, An Introduction to Probability Theory and its Applications, Vol.II,
J.Wiley 1966
B.deFinetti, Ann. Inst. H.Poincaré, Vol.7, n.1 (1937);
B.deFinetti, "Gli eventi equivalenti e il caso degenere", Giornale dell'Istituto
Italiano degli Attuari, Anno XV(1,2)1952, pp.40-64
J.Tersoff, D.Bayer,Phys.Rev.Lett., Vol.50, 1983, pp. 553
A.Kiprianidis, S.Roy, J.P.Vigier, "Distinguishability or indistinguishability in
classical and quantum statistics",Phys. Lett. A, vol.119(9)1987,333336
D.Costantini&U.Garibaldi,"Elementary Particle Statistics Reconsidered",
Phys.Lett.A, vol.134(3), 1988,161-164
D.Costantini&U.Garibaldi, "Classical and quantum statistics as finite random
processes", Found.of Phys. vol.19(6)1989,743-754
D.Costantini, U.Garibaldi," Brillouin Statistics Vindicated", Found.of
Phys.Lett., Vol.3,No.2,1990;
D.Costantini &U.Garibaldi,"A unified theory for elementary particle
statistics",
Il Nuovo Cimento 105B(4) 1990,371-380.
87
[8]
[9]
[10]
D.Costantini, U.Garibaldi, "Induced correlations and partition statistics in
degenerate ligth beams", Phys.Lett.A,Vol.150(8,9), 1990
F.De Martini & S. Di Fonzo, Europhys. Lett. 10(2) 1989, 123-128
E.C.G.Sudarshan, J.Mehra, "Classical statistical mechanics of identical
particles and quantum effects", Int.Jour.of Theor.Phys.
vol.3(3)1970,245-251
D.Costantini, U.Garibaldi, M.A.Penco, Introduzione alla StatisticaI fondamenti dell'argomentazione incerta, Franco Muzzio Editore,
Padova 1992
[11]
S.Bose (1924), Plancks Gesetz und Lichtquantenhypothese , Zts.Phys. 26
(1924), pp.178-181
A.Einstein , "Quantentheorie des einatomigen idealen Gases",
Berl. Ber (1924), pp. 261-267.
A.Einstein, "Quantentheorie des einatomingen idealen Gases. Zweite
Abhandlung", Berl. Ber (1925), pp. 3-14.
E.Schrödinger, "Zur Einsteinshen Gastheorie,
Zts.Phys. 24 (1926),
pp.95-101
Per questi lavori si é utilizzata la traduzione italiana in La statistica quantistica
e le onde di materia, a cura di P.Bernardini, Bibliopolis, Napoli, 1986.
[12]
[13]
[14]
[15]
[16]
D.ter Haar, Elements of Statistical Mechanics, Rinehart &Comp. Inc.,
NewYork , 1958
L.Brillouin,"Comparaison des différentes statistiques appliquée aux problèmes
de Quanta", Ann. de Phys.,vii,1927,315-331
P.A.M. Dirac (1926), "On the theory of Quantum Mechanics", Proc.Roy.Soc.
112, pp.661-677.
E.Fermi, (1924) Considerazioni sulla quantizzazione dei sistemi che
contengono degli elementi identici, «Nuovo Cimento» 1 , pp.145-152.
S.Bergia, "Who discovered the Bose-Einstein Statistics? ", in "Simmetries in
Physics", M.G.Doncel, A.Hermann, L.Michel, A.Pais
Eds.,
World Scientific, 1988
A.I.Khinchin, Mathematical Foundations of Statistical Mechanics, Dover
Publications Inc., 1949, pp.48-49
88
[17]
E.T.Jaynes, "Papers on Probability, Statistics and Statistical Physics",
R.D.Rosenkrantz Ed., D.Reidel Publishing Company, Dordrecht, Holland
1983
[18] L.Daboni, Calcolo delle probabilità ed elementi di statistica, UTET Torino
1980, pp. 124-126.
[19] ibidem, pagg.
[20] P. e T.Ehrenfest , "Über zwei bekannte Einwände gegen das
Boltzmannsche
H Theorem", Phys. Z. 8 (1907), p. 311
[21] O.Penrose, Foundations of statistical Mechanics, Pergamon Press Ltd,
Oxford 1970, p.62
W.Feller, An Introduction to Probability Theory and its Applications, Vol.I,
J.Wiley 1966, p.313
M.Kac, Probability and related topics in physical sciences, Interscience
publishers, Inc., Groningen 1959, p.72
P.Whittle, Systems in Stochastic Equilibrium, John Wiley &sons,1986, pp.8688
N.G.Van Kampen, Stochastic processes in Physics and Chemistry, NorthHolland 1981, p.96
D.R.Cox, H.D.Miller, The Theory of Stochastic Processes, John Wiley
&sons, 1986, p.129
[23] A.Stuart, J.K.Ord, Kendall's Advanced Theory of Statistics, C.Griffins
&C.Ltd, London 1987, Vol.1, pp.290-292
[24] J.von Plato, "Probability in dynamical systems", in "Logic, Methodology
and Philosophy of Science VIII", J.E.Fenstad, I.T.Frolov and
R.Hilpinen (eds.), North-Holland 1988, Amsterdam
[25] O.Penrose, Foundations of statistical Mechanics, Pergamon Press Ltd,
Oxford 1970, p.86-91
89
90