June 2, 2017 Avvertenza .............................................................................................................................1 Parte I. N oggetti e D celle .....................................................................................................3 Il processo stocastico fondamentale .......................................................................................10 Una particella in un termostato ..............................................................................................15 Limite termodinamico. Dalla Polya alla binomiale negativa .................................................17 Limite continuo. Dalla Polya alla Beta ..................................................................................20 Dalla Beta alla Gamma ..........................................................................................................24 Un modello sbagliato? ...........................................................................................................26 Frequenze di frequenze ..........................................................................................................29 Boltzmann 1877 .....................................................................................................................32 Parte II. Entra Brillouin ..........................................................................................................36 La teoria unificata ..................................................................................................................39 Configurazioni, microstati e macrostati .................................................................................44 Due passi avanti e uno indietro ..............................................................................................48 L'entropia ...............................................................................................................................51 Entropia delle particelle o entropia degli oscillatori? ............................................................54 Parte III. Le statistiche come processi parzialmente scambiabili ...........................................57 Distribuzione di equilibrio ad energia esattamente fissata.....................................................57 Il processo subordinato ..........................................................................................................59 La temperatura .......................................................................................................................63 Entropia assoluta ed entropia subordinata .............................................................................65 Boltzmann 1868 rivisitato. .....................................................................................................67 Distribuzione microcanonica .................................................................................................69 Distribuzione grandcanonica generalizzata ...........................................................................69 Fluttuazioni ............................................................................................................................71 Parte IV.Processo di crescita ed equilibrio ............................................................................74 La crescita canonica ...............................................................................................................74 Processi di crescita e matrici di creazione .............................................................................75 Processi di svuotamento e matrici di distruzione ...................................................................77 Processi di riaggiustamento ...................................................................................................79 Le pulci di Ehrenfest generalizzate ........................................................................................80 Cenni al processo markoviano verso l'equilibrio. ..................................................................82 La probabilità .........................................................................................................................83 Riferimenti bibliografici ........................................................................................................94 ........................................................................................................................... ........................................................................................................................... ........................................................................................................................... Scambiabilità e ........................................................................................................................... dell (ovvero la caratterizzazione predittiva delle distribuzioni della meccanica statistica) D.Costantini, U.Garibaldi Avvertenza Il presente lavoro intende contribuire alla fondazione probabilistica dei metodi elementari della meccanica statistica delle particelle identiche. A tal fine si propone una formulazione unificata, consistente ed esatta dei risultati noti come le statistiche di Maxwell-Boltzmann, di Bose-Einstein e di Fermi-Dirac. Per formulazione unificata si intende una deduzione che riduca al minimo le ipotesi che differenziano i diversi comportamenti delle particelle elementari; per formulazione consistente si intende una deduzione che riduca al minimo l'irruzione di nozioni extraprobabilistiche nel campo proprio della trattazione statistica; per formulazione esatta si intende una formulazione che eviti per quanto possibile approssimazioni non essenziali, e persino dannose per chi intenda correttamente la distinzione tra probabilità e frequenza relativa. Il primo requisito va contro l'usuale distinzione delle possibilità elementari (o microstati), che dividono in partenza la trattazione probabilistica dei tre casi; il secondo fa sì che nozioni quali quella di "(in)distinguibilità" possano essere espunte dalla trattazione, e discusse in modo adeguato; il terzo riguarda essenzialmente il metodo del macrostato più probabile, nel merito e per le conseguenze concettuali che esso implica. Il lavoro inizia con un excursus di tipo storico, ma non ha alcuna pretesa di completezza filologica, non essendo la nostra analisi basata sui testi originali (con la sola eccezione di Brillouin), ma sui lavori di Bach e degli altri storici citati. Anche i lavori di Bose e Einstein sono stati consultati nella comoda traduzione italiana citata in bibliografia. La parte centrale del lavoro si basa su articoli da noi pubblicati negli ultimi quattro anni, dopo i primi tentativi di uno di noi, che risalgono ad un decennio fa. La riscoperta (da parte di Bach) del lavoro di Brillouin ci ha stimolato in questo senso. La parte finale sull' approccio all'equilibrio è nuova e tuttora in elaborazione, per cui non si va oltre la presentazione ed alcuni cenni sui possibili sviluppi. Questo vale in parte anche per il complesso dell'esposizione, che meriterebbe forse un approccio più coerentemente deduttivo, anziché erratico e tortuoso, sulle tracce com'é del possibile percorso storico di idee ed approcci metodologici che divengono unificati ed apprezzabili alla luce di concezioni e metodi che solo la statistica attuale ha sviluppato in piena consapevolezza. Un possibile merito di questa presentazione consiste nel conservare un linguaggio il più possibile intuitivo ed aderente ai concreti problemi nel momento in cui sorsero; con ciò non si intende sminuire l'importanza di una presentazione sistematica della materia, che seguirà in un futuro prossimo. La riformulazione unificata delle statistiche apre forse più problemi di quanti non ne chiuda: per esempio, quali sono gli "elementi ultimi della realtà" che siano rilevanti per la descrizione (statistica) di un sistema termodinamico? La possibilità di trattare in modo formale le cosiddette "parastatistiche" ha un significato fisico? 2 Parte I. N oggetti e D celle In un recente lavoro[1] A.Bach riprende e commenta la procedura seguita da Boltzmann in una memoria giovanile[2] per derivare la distribuzione di Maxwell delle velocità delle molecole, in particolare le distribuzioni marginali di v2 in due e tre dimensioni, che si possono scrivere nella forma f2(x) = a2 exp (-2 x) f3(x) = a3 x exp (-3 x), che, come é ben noto, sono due casi particolari della distribuzione n,r(x)= Error!, con (n)= Error! Il lavoro di Bach ha il grande merito di permettere l'accesso a quelle parti delle fondamentali ricerche di Boltzmann che sono state scarsamente studiate, sia per la presunta oscurità che per l'obbiettiva complessità del linguaggio. Questo approccio é meno noto del famosissimo metodo basato sul termine "di permutabilità" Error!, che verrà introdotto da Boltzmann solo successivamente[3], visto che il metodo che stiamo per illustrare conduce a risultati non completamente soddisfacenti. Questo metodo (il metodo Boltzmann '68) introduce una discretizzazione negli stati delle particelle, e permette quindi l'uso di distribuzioni di probabilità discrete ( o elementari nel senso di Kolmogorov): passando al limite continuo il metodo produce esattamente un gran numero di distribuzioni, mostrando così la sua potenza. Cominciamo la nostra analisi consideriamo tutte le possibili sistemazioni di N oggetti indistinguibili su D celle o, in modo equivalente, le combinazioni con ripetizione di D oggetti di classe N : W(N,D) = ( N+D-1;N) (1) Ovviamente a livello combinatorio non si precisa il significato del termine "indistinguibile" se non facendo riferimento al linguaggio comune: ma cosa si intende per "oggetti indistinguibili" nel linguaggio fisico? Il contesto ci aiuta a precisare rispetto a quale procedura di distinzione gli oggetti sono appunto "indistinguibili": tali oggetti vanno sistemati su D celle, ed un modo di sistemazione sarà individuato univocamente dal numero di oggetti sistemati su ciascuna cella. Indichiamo questa sistemazione con la sequenza N=(N1,..,ND), che deve soddisfare la condizione ∑iNi=N. L'indistinguibilità degli N oggetti significa allora che si considera irrilevante il nome degli Ni oggetti che stanno sulla cella i-ma, ma non il loro numero; questo 3 numero può allora essere considerato come l'attributo che definisce lo stato dell'i-ma cella. Si pensi alla distribuzione di N banconote da £ 100.000 su D beneficiari: chiunque risponderebbe che un distinto modo di ripartire la somma tra i D beneficiari é proprio una sequenza o vettore1 N=(N1,..,ND), pur sapendo che le banconote sono perfettamente individuabili dal numero di serie. Questo accade se l'attenzione é concentrata (con una punta di invidia) sui beneficiari, per cui ciò che conta é la disponibilità finanziaria di ciascuno; in questo caso la seconda formulazione (combinazioni con ripetizione di D oggetti di classe N), che non menziona il concetto di indistinguibilità, é perfettamente adeguata alla situazione. Se invece alcune banconote fossero false, e fossimo interessati (con spirito investigativo) a sapere quale beneficiario incautamente le possegga, useremmo come definizione di "modo distinto" quella che assegna ad ogni banconota il nome del suo proprietario. Affermare perciò che gli N oggetti sono indistinguibili equivale a supporre che le D celle rappresentino quelle che in linguaggio statistico si definiscono "unità statistiche", ciascuna delle quali può essere nello stato Ni=0,1,..,N; allora una sequenza N=(N1,..,ND) sarà detta una "descrizione di stato" delle D celle rispetto agli stati Ni=0,1,..,N, e cioé una descrizione della popolazione delle D celle rispetto alla modalità "numero di oggetti contenuti". Da quanto si é detto sopra é evidente come la stessa situazione fisica ammetta una molteplicità di descrizioni statistiche, in cui i termini "unità statistiche", "descrizione di stato" e "popolazione" (ovvero l'insieme delle unità statistiche) assumono di volta in volta significati diversi. Ricordiamo che unità statistiche e modalità corrispondono a ciò che i logici chiamano "individui" (o meglio "costanti individuali") e "proprietà" (o meglio "predicati a un posto"), cosicché una descrizione di stato corrisponde ad una congiunzione di enunciati atomici che attribuiscono a ciascun individuo le proprietà di cui gode. Se di fronte alla sistemazione degli N oggetti sulle D celle fossimo principalmente interessati al destino degli oggetti, un descrizione di stato della popolazione degli N oggetti sarebbe una sequenza di N valori (x1,..,xN) con xi=1,..,D. E' chiaro che questo 1E' comodo rappresentare come un vettore a D componenti i valori delle variabili casuali (dette appunto in statistica variabili casuali vettoriali) X=(X1,..,XD) che rapprentano le D modalità del carattere prescelto. In quel che segue il termine "vettore" va considerato semplicemente come sinonimo di "sequenza ordinata", e non và pertanto confuso con la nozione di elemento di uno spazio vettoriale. 4 linguaggio é più raffinato del primo, dato che una descrizione di stato delle celle N=(N1,..,ND) é esprimibile in termini delle descrizioni di stato degli oggetti x= (x1,..,xN), mentre non vale il viceversa. Una descrizione di stato N delle D celle é l'insieme delle descrizioni di stato (degli oggetti) tali che N1 oggetti stiano nella cella 1, .., ND oggetti stiano nella cella D, il cui numero é W(N)= Error!. Nel linguaggio degli oggetti, questa descrizione viene detta "insieme (o vettore) dei numeri di occupazione" o a volte "macrostato" dai fisici; "(vettore di) composizione", "descrizione di struttura" o "distribuzione di frequenze" dagli statistici. E' comunque chiaro che N, essendo la classe di equivalenza delle x rispetto alle permutazioni dei nomi degli oggetti che lasciano invariati gli stati delle celle, non menziona i nomi dei particolari oggetti. Lo schema prevede che ciascuna cella contenga da 0 a N oggetti, naturalmente col vincolo ∑iNi=N. Se adesso denotiamo con Zk il numero delle celle che contengono k oggetti (nell'esempio precedente, il numero dei beneficiari nel livello di ricchezza o stato k), la sequenza Z=(Z0,Z1,..,ZN) ripetto ad N=(N1,..,ND) ha lo stesso significato che aveva quest'ultimo ripetto a x. Infatti così come Ni conta il numero di oggetti nello stato (cella) i, allo stesso modo Zk conta il numero delle celle nello stato (numero di oggetti contenuti) k. Quindi Z=(Z0,Z1,..,ZN) é un vettore di occupazione per le D celle, mentre é una "frequenza di occupazione" (od "occupancy number ") per gli N oggetti. Infatti per essi Zk é il numero di celle in cui si sono sistemati esattamente k oggetti. Il fatto che vi siano esattamente N oggetti e D celle pone le seguenti condizioni sui vettori x, N e Z : x(1,..,D)N; Error!=N; Error!=D; Error!=N Se partiamo dai diversi tipi di vettori e ne consideriamo il ruolo assunto in ciascuna delle popolazioni statistiche introdotte per descrivere con diverso grado di accuratezza il medesimo schema fisico di N oggetti su D celle, o schema (N,D), abbiamo la seguente tabella: descrizioni individui x=(x1,..,xN) N=(N1,..,ND) (x{1,..,D)N) ( Error!=N) 5 Z=(Z0,Z1,.,ZN) (Error!=D e Error!=N) N oggetti descrizioni di stato numeri di occupazione frequenze di occupazione D celle descrizioni di stato numeri di occupazione Cioé x , che é la descrizione di stato degli oggetti, non compare nella descrizione che assume le celle come individui; N, che é la descrizione di stato delle celle, é una distribuzione di frequenza degli oggetti; Z, che é una distribuzione di frequenza delle celle, é una frequenza di frequenza degli oggetti. Alternativamente, se partiamo dalle popolazioni e dai differenti livelli di descrizione, abbiamo: descrizioni di stato vettori di occupazione occupazione N oggetti x= (x1,..,xN) N=(N1,..,ND) D celle N=(N1,..,ND) Z=(Z0,Z1,..,ZN) .... Z=(Z0,Z1,..,ZN) ......... frequenze di Z=(Z0,Z1,.,ZN) ......... in cui i puntini indicano possibili estensioni dello schema verso "individui" sempre più astratti e "stati" sempre più generici. Vediamo il significato di questo schema di classificazione in Boltzmann '68. Nel caso di Boltzmann N è il numero delle frazioni di energia totale, che chiameremo "elementi di energia", che vengono distribuiti su D molecole2. In altri termini, se l'energia totale ED della popolazione di D molecole é suddivisa in N parti uguali = Error!, lo stato dinamico di ciascuna molecola sarà determinato dal numero di elementi che essa possiede, cioé N=(N1,..,ND) sarà la descrizione di stato della popolazione di D molecole rispetto alle N+1 modalità del carattere "numero di elementi di energia". Da un altro punto di vista (trascurato da Boltzmann), se partiamo dagli elementi di energia, N può essere legittimamente considerato come il 2Non intendiamo in questo lavoro soffermarci sul significato referenziale delle ipotesi introdotte da Bolzmann allo scopo di classificare le possibilità elementari del gas e calcolarne poi le probabilità. Per un'analisi più ravvicinata e filologicamente più correttta rimandiamo al nostro lavoro "L.Boltzmann a la nascita della Meccanica Statistica", in corso di pubblicazione su "Statistica". 6 vettore "numero di occupazione", cioé la descrizione che per ognuna delle D modalità (molecole) del carattere "insieme di molecole" specifica il numero di unità statistiche che ne godono (cioé elementi di energia che vi sono sistemati). E' chiaro che nella procedura di Boltzmann Z=(Z0,Z1,..,ZN) descrive per ogni livello energetico il numero di molecole che hanno quel valore. E' cioé il corrispettivo discreto della densità continua f(E)dE , intesa come il numero delle molecole contenute nell'elemento dE(v) dello spazio delle velocità . Forzando col senno di poi il discorso di Boltzmann, potremmo dire che Z0 descrive il numero di molecole nello stato fondamentale, Z1 quelle del I stato eccitato, e così via. Se chiamiamo "oscillatore" ogni cella dello spazio risultante dalla suddivisione dell'energia in elementi finiti, Z sarà una descrizione di stato degli oscillatori, che a tutti gli effetti possono essere considerati a loro volta una popolazione di "terzo livello", costituita perciò dagli N+1 oscillatori attivabili. Fino ad ora abbiamo parlato di descrizioni più o meno raffinate connesse allo schema fisico di accomodamento (N,D): vediamo adesso quali siano le loro relazioni. Una descrizione di stato degli oscillatori rispetto al carattere "numero di eccitazioni degli oscillatori", ovvero particelle, è indicata con Z=(Z0,Z1,..,ZN): essa contiene Error! descrizioni di stato delle D particelle rispetto al carattere "numero di eccitazioni delle particelle", ovvero elementi di energia. Ciascuna di queste descrizioni, indicate con N, a sua volta contiene Error!descrizioni di stato x degli N elementi di energia rispetto al carattere "particella su cui si accomoda". Il modo più semplice di definire una distribuzione di probabilità su questo schema consiste nel definire una probabilità Pr(x) sull' insieme Ω=(1,..,D)N di tutte le possibili descrizioni x : 1) Pr(x)≥0, 2)Error!=1, da cui si ricava gerarchicamente, tenendo conto che N e Z sono sottoinsiemi di Ω, e che gli insiemi {N: Error!=N} e {Z: Error!=D; Error!=N} sono partizioni di Ω: Pr(N)=Error!, Pr(Z)=Error!=Error!. Se imponiamo che Pr(x) sia una funzione regolare, e cioé che il suo supporto coincida col dominio Ω=(1,..D)N, che consiste in DN punti, saranno regolari tutte le descrizioni N tali che Error!=N, il cui numero é Error!, e tutte le Z tali che Error! =D e Error!=N. 7 Nel lavoro del '68 Boltzmann affronta il problema di descrivere i possibili stati dinamici di D particelle con N eccitazioni (elementi di energia) in tutto. Conseguentemente non si occupa della probabiltà delle descrizioni x, ma si limita a calcolare il numero delle descrizioni di stato delle D particelle compatibili con N assegnati elementi di energia e a definirne la probabilità: -1 Pr(N)= (N+D-1;N) . (2) Questa funzione di probabilità é uniforme, per cui ogni distribuzione (nel senso di ripartizione) dell'energia totale sulle D particelle, ritenendo distinte due distribuzioni che differiscono per il numero di elementi su qualche ricettacolo, é posta come equiprobabile. Questo ci autorizza a dire che Boltzmann consideri gli "elementi di energia" come oggetti indistinguibili? Da quanto abbiamo detto é evidente che la trattazione di Boltzmann semplicemente non li prende in considerazione, dato che la funzione di probabilità é definita direttamente sugli stati delle particelle, ed il numero totale degli elementi serve a considerare solo gli stati delle particelle che soddisfano la conservazione dell'energia N. La più semplice funzione di probabilità sull'insieme degli x compatibile conError! la (2) é la seguente: -1 -1 Pr(x)=Error! . (3) Dato N, la probabilità di x ( probabilità di x condizionata ad N) risulta essere: -1 (4) Pr(x|N)=Error! , che afferma l'equiprobabilità di tutte le x che appartengono al medesimo N. La probabilità elementare (3), che come abbiamogià detto non compare in Boltzmann '68, ha però un grande valore per una ricostruzione probabilistica accurata della meccanica statistica. Come Bach giustamente sottolinea, la (3) é alla base della derivazione probabilistica della statistica di Bose-Einstein. Di portata ancor più generale é la (4), che appunto afferma l'equiprobabilità di tutte le x che appartengono al medesimo N . Se si rammenta che due distinti x che appartengono al medesimo N differiscono solo per lo scambio di almeno due elementi tra due celle, si ha che Pr(x1=i1,..,xN=iN)= Pr(xπ(1)=i1,..,xπ(N)=iN), (5) con π(1),.., π(N) indichiamo una permutazione di 1,..,N. Questo equivale a supporre che per ogni N la legge temporale del processo stocastico x1,..,xN, cioé della distribuzione di probabilità congiunta delle variabili casuali che lo compongono, dipenda solo dai risultati delle N variabili e non dal loro ordine di osservazione ( dipenda cioé solo da N). 8 Questa é la definizione di scambiabilità per N variabili aleatorie[4]. La nozione di scambiabilità ha finito per dominare la statistica bayesiana del secondo dopoguerra, dopo che i fondamentali lavori di B.deFinetti [5] divennero noti in America e di lì si irradiarono universalmente. Questa nozione non è altrettanto nota tra i fisici (con la notevole eccezione del più volte citato A.Bach): da qui lo stupore che ha accolto alcuni lavori abbastanza recenti [6], che fanno uso inconsapevole di tale nozione. Dalla (5) segue che le N variabili aleatorie che vi compaiono sono equidistribuite come in un processo bernoulliano, e cioé Pr(xj=i)=Pr(xk=i); a differenza di quest'ultimo processo, di cui costituiscono un'importante generalizzazione, esse sono correlate, nel senso che in generale Pr(x1=i1,..,xk=ik) ≠ Pr(x1=i1)..P(xk=ik). E' chiaro che una popolazione di N unità statistiche distribuite su D modalità (predicati) ammette una pluralità di metodi di osservazione completa, cioé metodi che osservano tutti gli individui una ed una sola volta: una osservazione completa consisterà in una sequenza di N valori (i1,.., iN) che assegnano ad ogni osservazione una modalità. E' evidente che ad ogni metodo di osservazione corrisponderà una diversa famiglia di variabili casuali, che avranno in comune il codominio (1,..,D), ma con distribuzione congiunta in generale diverse. Nell'interpretazione di Bach, la deduzione della distribuzione (2) a partire dall' assunzione delle (3)-(5) equivale a considerare la distribuzione (2) quale probabilità sulle composizioni finali del processo stocastico in cui si osservano le sistemazioni delle N particelle in ordine "alfabetico", intendendo con questo qualunque ordine legato a proprietà intrinseche delle particelle. Supposto che questo segno distintivo esista, e quindi esista un nome per ogni particella, per osservare x bisognerà attendere che le particelle siano sistemate, e poi osservarle nell'ordine prescelto. Questo processo, o processo delle configurazioni, verrà detto processo epistemico, perché il suo termine generico Pr(xk+1=i|x1=i1,..,xk=ik) terrà conto del modo in cui l'informazione sullo stato delle particelle di nome 1,..,k agisce sulla distribuzione della particella di nome k+1. E' chiaro come sia problematica un'interpretazione fisica diretta di tale processo se le particelle sono davvero identiche, e se ogni identificazione di tipo dinamico é metodologicamente esclusa. Un'interpretazione alternativa e fisicamente più convincente consiste nel considerare un processo di osservazione completa ottenuto campionando la popolazione una volta che gli individui sono sistemati sulle celle, estraendo "a caso" un individuo, 9 registrandone la modalità e facendolo uscire dal sistema. Stiamo prospettando con ciò un processo di svuotamento del sistema, in cui l'uscita di una particella non modifica lo stato delle particelle non ancora osservate. Questo processo u produce sequenze (u1=i1,.., uN=iN) i cui indici rappresentano l'ordine di osservazione delle particelle; essendo connesso ad uno svuotamento fisico, ogni particella viene osservata una ed una sola volta, evitando ogni riferimento a questioni di indistinguibilità. Naturalmente i processi x e u saranno interconnessi se dovranno descrivere la stessa popolazione; in particolare dovranno essere uguali le probabilità di osservare una qualunque composizione N. Mentre la supposta scambiabiltà di x, cioé l'equiprobabilità delle sequenze subordinatamente a N, é ragionevole in assoluto perché le particelle sono fisicamente identiche, l' ipotesi di scambiabilità del processo u riguarderà le modalità del processo di estrazione, e sarà ragionevole quando quest'ultimo non sia influenzato dallo stato delle particelle. Abbandoniamo comunque la ricostruzione del lavoro di Boltzmann in termini di x (che é la strada seguita da Bach), e tralasciamo le considerazioni su u, per presentare una terza ricostruzione ad essa simile nella forma, ma sostanzialmente diversa per metodo e significato. Il processo stocastico fondamentale Per ogni valore fissato di N e D la distribuzione (2), interpretata come la distribuzione sui numeri di occupazione degli elementi di energia, può considerarsi come il risultato di alcune condizioni probabilistiche sulla legge temporale del processo stocastico N-dimensionale che descrive l'accomodamento degli N elementi di energia sulle D molecole; queste condizioni, che adesso illustreremo, fanno sì che tale processo sia scambiabile e invariante. Consideriamo il seguente processo di preparazione: date D particelle nello stato di energia minima (posta convenzionalmente uguale a zero), ad esse viene somministrata energia in quantità elementari, fino ad un totale di N. Ad ogni passo una (ed una sola) particella accresce la propria energia esattamente di . Questo processo può essere descritto attraverso la probabilità di transizione P(j|M) per ogni j=1,..,D e tutti gli M regolari con M=∑jMj=0,1,..,N-1. Quando il sistema contiene M elementi di energia e lo stato delle particelle é M, l'(M+1)-mo passo (esperimento) è quello che aggiunge al sistema un 10 elemento di energia3. Ne segue che l'esperimento (M+1)-mo è una decomposizione dell'evento certo ΩM+1=A1;M+1 G;M+1 , in cui Aj;M+1 è l'evento che si verifica quando l'esperimento (M+1)-mo aumenta l'energia della j-ma particella. In questo caso lo stato del sistema passa da M = (M1,..,Mj,.., MD) a Mj= (M1,..., Mj+1,..,MD), e quindi il numero di occupazione della j-ma particella passa da Mj a Mj+1. Se Yj;M è la variabile indicatrice dell'evento Aj;M , cioé Yj;M =1 se e solo se YM=j, il vettore casuale del M-mo esperimento è dato da (Y1;M ,....., YD;M ) e il vettore casuale "numero di occupazione dopo m esperimenti" è XM= ( X1;M ,....., XD;M ) = Error!, che è la somma dei vettori casuali di tutti gli esperimenti dal primo al M-mo compreso. Consideriamo ora una sequenza di vettori d'occupazione : {M; 0≤ M ≤ N-1},tale che il primo termine della sequenza sia 0= (0,...,0), il secondo sia 0j, e in generale il termine (M+1)-mo sia Mj e l'ultimo termine sia N. Diremo che una tale sequenza è una traiettoria da 0 a N , o più semplicemente una traiettoria ad N. Una traiettoria (o realizzazione) del processo di creazione é perciò una sequenza y=(y1,..,yN), che precisa ad ogni passo su quale particella si accomoda ogni successivo elemento di energia. Il numero di distinte realizzazioni é DN, e ci sono Error!traiettorie a N. Da ciò si vede che le traiettorie y e le configurazioni x degli elementi di energia hanno una struttura matematica identica. Mentre però una configurazione di oggetti davvero indistinguibili non ha alcun significato empirico diretto, una realizzazione del processo di riempimento di D contenitori può essere in principio controllata empiricamente, se il vettore M é osservabile passo dopo passo. Chiameremo traiettoria principale a N quella in cui i primi N1 elementi di energia si accomodano sulla prima particella, i successivi N2 sulla seconda, e così via fino a che le ultime ND sulla D-ma particella. Sia ora Pr{j | M}= Pr{Yj;M+1 =1 |M} (7) j la probabilità della transizione da M a M . La (7) è una probabilità subordinata : è cioè la probabilità dell'incremento dello stato di occupazione della j-ma particella quando il vettore di occupazione del sistema è M. Pr{j|M}è una funzione di 3Possiamo considerare ciascun passo del processo come un processo di creazione di una eccitazione; allora il termine P(j|M) indica la probabilità che l' eccitazione sia creata nello stato j dato M, 11 probabilità scambiabile quando per ogni M regolare, cioè Pr{M}>0, soddisfa le condizioni seguenti : C1. Pr{j | M} ≥ 0 per ogni j=1,..,D; C2. Error!4, C3. Pr{j | M}Pr{h| Mj} = Pr{h| M}Pr{j | Mh} j ≠ h . E' evidente da C3 che se Pr{j|M} è una funzione di probabilità scambiabile, allora essa assegna la stessa probabilità a tutte le traiettorie a N . Infatti due distinte traiettorie a N differiscono solo per l'ordine di occupazione delle celle. Consideriamo la probabilità della traiettoria principale (1,.,1,1,2,2,..,2,...): essa sarà il prodotto di N probabilità di transizione (7). Se applichiamo C3 quando M é (N1-1,0,..,0) otteniamo che la traiettoria (1,.,1,2,1,2,..,2,...) ha la medesima probabilità della traiettoria principale. Infatti le prime N1-1 transizioni sono le stesse, le ultime N-N1-1 sono ancora le stesse, ed il prodotto delle due centrali ha la stessa probabilità per C3. Procedendo in questo modo si ottiene l'equiprobabilità di tutte le traiettorie allo stesso N. Poichè Pr(N)=Error!, e poichè le distinte traiettorie a N sono Error!, si ottiene di nuovo: -1 Pr(y)=Error! Pr(N) (3') o, dalla definizione di probabilità condizionata, -1 (4') Pr(y|N)=Error! per yN Ora una traiettoria è una sequenza di transizioni; se si è in grado di calcolare Pr{j|M} per ogni M si potrà quindi determinare la probabilità di una qualunque traiettoria. Osserviamo che condizioni C1,C2, e C3 non fissano in modo univoco Pr{j|M}. Per introdurre le altre condizioni necessarie a determinare la probabilità di transizione passiamo attraverso la nozione di quoziente di eterorilevanza a M : Qh;j(M) = Error! j≠h valida ovviamente per Pr{j | M} diverso da zero. In termini del quoziente di eterorilevanza C3 é equivalente alla seguente: C3'.Qh;j(M) =Qj;h(M) Imponiamo un'ulteriore condizione, quella di invarianza del quoziente di eterorilevanza. 4Nel caso in cui il processo si applichi a fermioni questa relazione naturalmente varrà per tutti i vettori regolari eccetto n=(1,1,..,1), in cui il processo si arresta. 12 C4. Qh;j(M') = Qq;f(M") = Q(M) per h ≠ j, q ≠ f, ∑jMj'=∑jMj"=M, Se Pr{j | M} è una funzione di probabilità scambiabile che soddisfa anche C4 allora Pr{j | M} é detta invariante. Denotiamo con il quoziente di eterorilevanza a 0 : =Qh;j(0) = Error!, h≠j. Se vale C4 questo parametro non dipende da j e da h, e può assumere qualsiasi valore compreso nell'intervallo (0,Error!]. In termini delle condizioni C1-C4 si può dimostrare il seguente teorema fondamentale[7]: Teorema. Se Pr{j |M} è una funzione di probabilità scambiabile ed invariante, allora vale la seguente espressione : Pr{j | M} =P(j |Mj,M)= Error! (9) dove pj=Pr{j|0} e = Error!. Per determinare completamente Pr{j|M}, che é funzione solo di Mj e M, e' necessario fissare il valore della distribuzione iniziale p={pj} e di (oppure )In particolare si ottiene la distribuzione (2) per =D, cioé: C5: =Error!= Error!, e per p={pj} uniforme, cioé: C6: pj=D-1, j=1,..,D Questa caratterizzazione della distribuzione (2), intendendo con questo termine l'esplicitazione dell' insieme delle condizioni sulla funzione di probabilità Pr{j | M} che regola il processo, evidenzia in modo semplice la legge cui gli elementi di energia devono obbedire per produrre una distribuzione uniforme sui numeri di occupazione (gli stati delle particelle). Diremo che Pr{j | M} è una "legge individuale", cioé la distribuzione di probabilità che regola il comportamento probabilistico dell' M+1-ma unità statistica (descritta dalla M+1-ma osservazione) condizionata all'evidenza empirica, riassunta dalla "statistica sufficiente" M. La legge risultante Pr(N), di cui la (2) é un esempio, viene detta "legge N-predittiva", poiché descrive la distribuzione sulle possibili composizioni N della popolazione di N individui. La nostra ricostruzione può perciò riassumersi nella esplicitazione delle condizioni sulla legge individuale che riproducono una assegnata legge N-predittiva. Si dimostra facilmente che la legge N- predittiva generata dalla (9) è la seguente: Pr(N;,p) = Error! (9') che per è la distribuzione di Polya D-variata. Si vede immediatamente che la (2) si ottiene dalla (9') ponendo pi=1 per ogni i, che è il modo più sintetico di esprimere 13 le due condizioni C5 e C6. Allora la legge individuale che soddisfa l'insieme delle condizioni C1-C6, e conseguentemente genera la (2), é la seguente: Pr{j | M} = Error! (10) [8] in cui si riconosce immediatamente il termine "classico" Error!ed il cosiddetto termine di "emissione stimolata" Error!, responsabile di prevedibili correlazioni positive tra gli "elementi di energia". Infatti all'inizio Mj=0, M= 0 e P(j|0,0)=Error!. Se il primo oggetto si è sistemato nella cella j-ma, la probabilità che il secondo oggetto si sistemi nella stessa cella sarà : Mj=1, M=1 e P(j|1,1)= Error!. E' utile introdurre il quoziente di autorilevanza iniziale Qj;j(0) Error!; esso confronta la probabilità di un secondo accomodamento in una cella già occupata con la probabilità iniziale, e vale = Error!>1; perciò la realizzazione (y1=j,y2=j) avrà probabilità Pr(y1=j,y2=j)= Pr(y1=j)Pr(y2=j)>pj2=D-2. Il quoziente di eterorilevanza iniziale Error!confronta invece la probabilità di un accomodamento al secondo tentativo in una cella ancora vuota con la probabilità iniziale, e vale = Error!<1; la realizzazione (y1=j,y2=i) avrà probabilità Pr(y1=j,y2=i)=Pr(y1=j)Pr(y2=i)<pjpj=D-2 . Perciò al secondo passo é più probabile trovare una particella assegnata con energia pari a 2 che due particelle assegnate con un elemento ciascuna. Entrambi i coefficienti descriveranno la correlazione esistente tra gli insediamenti degli elementi di energia e saranno uguali a 1 nel caso di indipendenza. Ma tralasciamo per ora il processo fondamentale e torniamo al problema di Boltzmann. Una particella in un termostato Supponiamo allora che le D particelle con energia pari a N siano descritte dalla (2): vogliamo dedurre la distribuzione di probabilità per gli stati di una fissata particella. Se raggruppiamo le particelle in due sottoinsiemi, rispettivamente con d e D-d particelle, e sommiamo su tutti i possibili valori n e N-n di elementi di energia per i due sottosistemi, potremo scrivere la (1) nel modo seguente: W(N,D)=(N+D-1;N) =Error!= =Error! (11) in cui il simbolo ";" separa le variabili dai parametri che identificano i due sottostemi. Consideriamo adesso un vettore di occupazione che assegna k elementi alla jma particella e, in modo qualsiasi, i restanti N-k sulle altre D-1 particelle. Calcoliamo la probabilità marginale per la particella j-ma : in modo del tutto naturale considereremo le restanti D-1 particelle raggruppate insieme come costituenti un 14 "serbatoio", o "bagno termico" in grado di scambiare eccitazioni con la particella prescelta. Dobbiamo calcolare Pr{Nj=k} dati i parametri N e D. {Nj=k} corrisponde alla bipartizione del sistema W(k,N-k; 1,D-1), dalla (2) con d=1 e n=k W(k,N-k; 1,D-1)= ( N-k+D-2;N-k) , e allora, data l'uniformità della distribuzione (2), si avrà: Pr{Nj=k; N,D)=Pr(k; N,D)= Error! (12) in cui i valori dopo il segno ";" vanno intesi come parametri che caratterizzano il sistema particella + bagno termico. Più esattamente, la (12) é la distribuzione marginale per lo stato della particella, espressa in funzione dei valori N e D. Questi ultimi non sono valori aleatori, su cui sia definita una probabilità. In questo caso avrebbe senso la scrittura Pr(k| N,D), che indicherebbe l'usuale probabilità di k condizionata agli eventi N e D. La (12) è ancora una legge N-predittiva riconducibile alla forma (9'), che può ricavarsi come legge temporale del processo bidimensionale seguente: (0,N) (1,N-1) (0,0) (N,0) 15 Il vettore finale del processo (k,N-k) descrive il numero k di elementi che si sistemano sulla particella e quello N-k di elementi che si sistemano sul termostato. La legge di composizione di questa popolazione di due "individui", la particella e il termostato, é Pr(k,N-k; N,D), che sottointendendo i parametri può scriversi semplicemente Pr(k), dove k é lo stato finale della particella. La legge individuale della particella, che ne descrive l'accrescimento in energia, é una marginalizzazione della (10), così come la (12) lo è della (2). Se con aM+1 indichiamo l'accomodamento dell' M+1-mo elemento sulla particella, si ha Pr(aM+1|m,M-m)= Error!, mentre Pr(bM+1|m,M-m)=1-Pr(aM+1|m,M)=Error!descrive l'accomodamento dell' M+1-mo elemento nel termostato. La probabilità di una realizzazione della composizione (k,N-k) vale Error!, ed il numero delle distinte realizzazioni di (k,N-k) é Error!, per cui : Pr(k,N-k)= Error!=Error!, cioé la (12). La (12) non dipende da j, per cui le distribuzioni marginali sugli stati delle D particelle sono eguali. Essendo fissato il numero totale di elementi N, varrà perciò per il valor medio della (12) che D<k>=N, come é facile verificare; perciò <k> =:=:∑kkPr(k; N,D)=Error!, (13) e la media dell'energia della particella é <E> = = w. Il fatto che il numero medio di eccitazioni per particella , dove la media và intesa su tutte le realizzazioni del processo, sia pari al numero totale di eccitazioni diviso il numero di particelle, che è il parametro esterno Error!, segue dall'essere le distribuzioni marginali delle D particelle tutte eguali. Come abbiamo visto, in questa ricostruzione della (2) e della (12) gli N elementi sono necessariamente correlati positivamente. Anche le energie delle particelle sono correlate, poichè l' energia totale del sistema ED=Nè fissata da N. Questo secondo tipo di correlazione, negativa, può essere indebolita quanto si vuole operando nel modo seguente. Limite termodinamico. Dalla Polya alla binomiale negativa Aggiungiamo al sistema particelle ed elementi di energia in modo che, per N ∞ e D∞, si conservi il numero di elementi per particella Error!=, e osserviamo come 16 cambia la probabilità marginale per la generica particella . Questo accrescimento del serbatoio che conserva l'energia media delle particelle é normalmente giustificato in fisica dal grande numero di particelle elementari che costituicono i corpi macroscopici. Esso viene definito "limite termodinamico" Pr(k; N,D) = Error!= = Error!N∞,D∞,Error!= k k Error! Error! = Error! =PrT(k; ); cioé PrT(k; )= Error! k k=0,1,.... (14) La (14) dipende solo da , che risulta così l'unico parametro che caratterizza le distribuzioni nel T-limite. Osserviamo che naturalmente ∑kkPrT(k;N,D)=, cioé il limite termodinamico conserva la media della distribuzione . Ponendo x= Error!la (14) diventa: P( k; x()) = (1-x) xk k=0,1,.... (15) Nel caso del "limite termodinamico" della distribuzione uniforme (2) si ottiene come probabilità marginale la distribuzione geometrica5. Scelto opportunamente lo zero dell'energia, la particella ha l'energia Ek se contiene k elementi; la probabilità di avere l'energia Ek è perciò: P(k) = xk (1-x) = Error! (16) E' intuitivamente plausibile in questa nuova situazione (di accrescimento del serbatoio che conserva le proprietà "locali", o "intensive", della particella, in questo caso l'energia media) che il vincolo della costanza dell'energia totale divenga irrilevante, e che la correlazione negativa tra le energie delle diverse particelle tenda a zero. Infatti é già evidente dalla (16) che la particella j può assumere tutti i valori di energia da 0 ad ∞. L'energia totale del sistema é infatti cresciuta fino all'infinito, ed é possibile che tutta l'energia disponibile si concentri sulla particella . 5La distribuzione geometrica è la distribuzione dei tempi di attesa del primo insuccesso, quando lo schema di estrazione é bernoulliano. In genere è Pr {X1= h}=p qh-1, h=1,2.. In questo caso la stessa distribuzione risulta quale limite di un processo stocastico in cui gli incrementi sono positivamente correlati. 17 Adesso consideriamo d particelle, immerse nel serbatoio costituito dalle restanti D-d compagne, e vogliamo calcolare Pr{N1=k1&..&Nd=kd}, dati i parametri N e D. Se la somma di tutti i elementi k1+..+kd vale n, ogni stato n delle d particelle sarà compatibile con le (N-n+D-d-1;N-n) possibili situazioni del termostato. Per cui di nuovo Pr(n; N,D)=Error! (17) dove n indica lo stato d-dimensionale delle d particelle. La (17) é una generalizzazione della (12) al caso di d particelle. Passiamo al limite termodinamico N∞, D∞, Error!= : la probabilità di un ben preciso stato n delle d particelle diventa, in un modo del tutto analogo al caso precedente: Pr(n; N,D)=Error!=Error! Error!= xn(1-x)d, (18) dove x= Error!, e di nuovo la probabilità dipende solo da d e Error!=. Dato che P(n; ) é la congiunzione degli stati energetici k1,..,kd delle d particelle con k1+..+kd=n, é evidente dalla (16) e dalla (18) che P(n; )=P(k1,..,kd ; )= P(k1; )..P(kd; ), cioè gli stati energetici delle d particelle diventano indipendenti. Questo naturalmente non vale per le distribuzioni P{n; N,D}e P{k; N,D}, come si può facilmente verificare dalla (13) e dalla (17). Con ciò può dirsi dimostrato quanto intuitivamente appariva plausibile. Avendo a che fare con una popolazione finita, soggetta a vincoli precisi, "deterministici", l'esistenza del vincolo introduce una correlazione negativa "eliminabile" , che può appunto essere eliminata considerando la popolazione data quale sottoinsieme di una popolazione infinita che conservi i valori medi "locali". Tornando all'esempio di Boltzmann, ci si può chiedere la probabilità che il sottosistema di d particelle abbia energia pari ad n elementi, cioè Ed=n. Si vede dalla (17) che la probabilità di uno stato del sottosistema dipende solo dalla sua energia totale, per cui tutti gli stati corrispondenti allo stesso n sono equiprobabili. Quindi la probabilità cercata sarà Pr(n; )=(n+d-1;n) Pr(n; )=(n+d-1;n) xn(1-x)d (19) La (19) è la distribuzione di Pascal o binomiale negativa ed è la generalizzazione della distribuzione geometrica . 18 Limite continuo. Dalla Polya alla Beta Ripartiamo dalla probabilità (3) di avere k oggetti in una cella (o k elementi su una particella), dati il numero totale N distribuito sull'insieme delle D celle. P(k; N,D) =Error! Aumentiamo il numero di oggetti , N »1 , tenendo fisso questa volta il numero D delle celle. Nella sopra detta interpretazione fisica questa operazione potrà corrispondere ad un aumento graduale dell'energia del sistema fino all'infinito se il quanto di energia é finito. Alternativamente l' operazione può essere compensata da una diminuzione del valore del quanto di energia , di modo che ED=N=Dw, dove w é l'energia per particella, restino invariate. Questa seconda fu naturalmente la strada seguita da Boltzmann, che doveva liberarsi alla fine della discontinuità "quantica" genialmente introdotta all'inizio per poter operare in modo combinatorio sul problema. P(k ; N,D) =Error!= Error!D)Error! per cui possiamo scrivere : D-2 Pr(k; N,D) Error! = Error!B(Error!;1;D-1) , dove B(Error!; 1;D-1) è la distribuzione Beta : B(x ; = Error! Questa convergenza in distribuzione può essere utilmente inquadrata alla luce del teorema di rappresentazione di deFinetti[5]. Partiamo infatti dal nostro processo scambiabile ed invariante caratterizzato da =D e pj=D-1 e consideriamone la marginalizzazione su due sole celle, una contenente la j-particella e l'altra le restanti D-1. Ad ogni passo j=1 indichi l'accomodamento sulla particella e j=2 quello sul termostato. La probabilità iniziale sarà p1=D-1 e p2=1-D-1, ed il vettore di occupazione N=(N1,N2) sarà funzione solo di N1=k e di N. Indichiamo questo vettore con (k,N), e interpretiamolo come "k successi in N prove". Il teorema di deFinetti afferma che in un processo scambiabile indefinitamente proseguibile Pr(k,N) ammette la seguente rappresentazione: Pr(k,N)= Error!xk (1-x)N-k f(x) dx in cui f(x): f(x)≥0 eError!f(x) dx=1 é la densità di probabilità iniziale sul simplesso dei possibili valori del parametro x, e Pr(k,N|x)= (N;k) xk(1-x)N-k é la probabilità di (k,N) dato x: essa é la distribuzione binomiale di parametro x, ed esprime il fatto che il processo é indipendente subordinatamente ad ogni valore di x. Quando Pr(k,N|x) 19 sia pensato come una funzione di x con parametri (k,N) viene detta verosimiglianza di x. Il teorema di deFinetti, che rende rigorose e generali le tecniche inferenziali di ascendenza laplaciana, é il cardine della "filosofia della scambiabilità" che permea la contemporanea visione della stima statistica. Un processo scambiabile é una mistura di processi indipendenti: la "distributione peso" f(x) esprime l'ignoranza iniziale (in senso laplaciano), o la probabilità soggettiva iniziale (secondo le interpretazioni soggettivistiche) riguardo alle possibili composizioni di una popolazione infinita. Come si può vedere a proposito di scattering di fotoni[8], f(x) può rappresentare la frequenza relativa con cui si realizza il valore x del parametro che regola il processo. Se il parametro fosse noto, allora f(x) si ridurrebbe a (x-x0), da cui Pr(k,N) = Pr(k,N|x0)= = (N;k) x0k(1-x0)N-k, ed il processo sarebbe indipendente. Un secondo significato di f(x) é il seguente: la densità iniziale può essere intesa come la distribuzione limite cui converge (in legge) la successione della distribuzioni delle variabili casuali frequenze relative. Mostriamolo in modo non formale. La verosimiglianza (N;k) xk(1-x)N-k per grandi N e k tende ad una Gaussiana (N;k) xk(1-x)N-k ≈ Error!= Error!, che per N∞ tende alla funzione Error!, la quale concentra tutta la verosimiglianza su x=Error! Per cui si avrà: Pr(k,N)= Error!xk (1-x)N-k f(x) dx Error!Error!f(x) dx= Error!f(Error! ), cioé NPr(k,N)f(Error!). Per grandi valori di N si ha che Pr(k; N,D) tende a zero perché il dominio della distribuzione cresce senza limite, ma NPr(k,N) resta finito. Se passiamo alla variabile casuale frequenza relativa u=Error!, si avrà per le densità p(k)dk=p(Error!)d(Error! ), cioé NPr(k,N)=p(u); per cui la densità della frequenza relativa (e dell'energia relativa) sarà proprio il peso iniziale f(u). Se il processo, oltre che scambiabile, é invariante, allora vi é una corrispondenza biunivoca tra la densità iniziale f(x) ed i parametri e {pj} della legge individuale: cioé f(x)=B(x;p1;(1-p1). Quindi nel nostro caso Pr(k,N)= Error!xk (1-x)N-k B(x;1;D-1) dx dato che =p=1=(1-p)=D-1 20 Nel -limite (i.e.D=cost, N∞) si ha dunque che la probabilità dello stato della particella dipende solo da D.La particella assorbe comunque sempre infiniti elementi di energia, per cui si può dare un significato fisico a tutto ciò solo mandando a zero il valore del quanto e considerando l'energia quale limite continuo della variabile discreta k. In tal caso basterà interpretare come la frequenza relativa Error!della particella come la frazione dell'energia totale che le appartiene. Lo stesso limite N∞ può essere effettuato per il sottosistema di d particelle. Partendo dalla (17), e passando al numero totale dei quanti del sottosistema, si ha : Pr(n; N,D)=Error!. Per N>>D,n>>d si può scrivere: (n+d-1;n) Error!; (N+D-1;N) Error!; (N-n+D-d-1;N-n) Error!; per cui d-1 D-d-1 Pr(n; N,D)Error!=Error! Error! = =Error!B(Error!;d,D-d). Si può qui ripetere, in modo più generale, quanto espresso sopra nel caso di una sola particella. Se passiamo alla variabile casuale "frequenza relativa del sottosistema" v= Error!, si avrà per le densità p(n)dn=p(n(v))dn(v)=p(n(v))Error!dv; per cui la densità della frequenza relativa (e dell'energia relativa Error!) sarà proprio p(v)=B(v; d,D-d). A questo punto, partendo dalle distribuzioni di probabilità del numero di occupazione di un insieme di d individui che condividono con altri D-d individui N elementi di energia, abbiamo studiato il sistema in due direzioni ben distinte: a:(T-lim): abbiamo fatto crescere indefinitamente molecole ed elementi di energia, in modo da conservare le proprietà "locali" del sistema (cioè ); b:(-lim): abbiamo fatto crescere indefinitamente il numero di elementi di energia, in modo da conservare però il numero delle molecole. In questo secondo caso abbiamo introdotto le variabile aleatorie E=k, Ed=n,ED=N, che per 0 restano finite. Le distribuzioni di partenza P(n;N,D) e P(k;N,D) sono distribuzioni di Polya di parametri (d,D-d) e (1,D-1) rispettivamente. Seguendo le due trasformazioni, si ottiene nel primo caso: 21 PT(n;N,D)= T-limP(n;N,D)=(n+d-1;n) xn(1-x)d, cioé una distribuzione binomiale negativa di parametri x e d, e dove x= Error!e = Error!; nel secondo caso invece: Error! d-1 D-d-1 P(n;N,D)=-limP(n;N,D) Error! , o più correttamente per le frequenze relative v=Error!= Error!e le corrispondenti densità: -lim p(v;N,D)= Error!vd-1(1-v)D-d-1, cioè una distribuzione Beta di parametri d e D-d. Le stesse trasformazioni applicate alla distribuzione per una sola particella sono casi particolari (d=1) delle funzioni dette. Ma il lavoro di Boltzmann non si arresta qui: esso procede al calcolo del T-limite della distribuzione continua B(Error!;1,D-1)=Error! Dalla Beta alla Gamma Partiamo adesso dall'andamento asintotico nel -limite Pr(n;N,D) Error! d-1 D-d-1 Error! = Error!B(Error!; d,D-d) (20) Fissato un N>>1, al variare di n=0,1,..,N otteniamo la probabilità di tutti i numeri di occupazione possibili per gli elementi di energia delle d molecole. Ricordando che Ed=n=Error!Dw la (13) fornisce anche la distribuzione di probabilità per l'energia del sottosistema .Per le possibili frequenze relative ud=Error!avremo: d-1 D-d-1 NPr(n;N,D)B(Error!;d;D-d)= Error! Error! . Omettiamo l'indice d per l'energia del sottosistema, per non appesantire troppo la notazione. La densità p(Error!) =B(Error!; d,D-d) esprime la densità di probabilità che il sottosistema abbia esattamente la frazione Error!dell'energia totale ED, che é utile esprimere in funzione di D. Il limite termodinamico in questo caso continuo consiste nel far crescere D in modo che i valori medi locali si conservino. L'energia totale del sistema ED crescerà perciò oltre ogni limite, mentre l'energia per particella resterà costante. La media di B(x; ) é <x>=Error!, per cui <u>=Error!, ed <E>=Error!ED=Dw . Consideriamo allora d-1 pError!=B (Error!;d;D-d)= Error! 22 D-d-1 Error! , e facciamone il limite per D∞, w=cost=, L' andamento asintotico per D>>d é il seguente: d-1 D pError! Error! Error! , e passando a p(E)=Error!pError!= Error!pError!, si ha infine: lim D∞p(E)= Error!dEd-1 e-E, che per una singola particella produce la distribuzione esponenziale p(E)= e-E (20') molto simile alla famosa distribuzione di Maxwell, con E=Error!mv2, che Boltzmann riusciva così a derivare a partire da considerazioni puramente probabilistiche. Per concludere al commento del procedimento del 1868, possiamo dire che -1 Boltzmann parte dalla distribuzione uniforme su D particelle Pr(N)= (N+D-1;N) , ne calcola la distribuzione marginale per una particella Pr(k; N,D)= Error!, ricava nel limite continuo p(Error!)=B(Error!; 1,D-1) e ne fa il limite termodinamico, ottenendo la distribuzione esponenziale p(E)= e-E. Tutto questo in circa due pagine di eccezionale valore fisico e probabilistico. Bach definisce queste pagine un capolavoro di calcolo delle probabilità. Ciò che é essenziale dal nostro punto di vista é la superiorità di questo metodo (o metodo della marginalizzazione) rispetto a quelli usati successivamente, basati su "probabilità non normalizzate" e considerazioni combinatorie che hanno finito per dilagare nel campo della meccanica statistica6. Partendo da uno schema finito e da una distribuzione di probabilità su tutte le descrizioni di stato delle particelle compatibili con l'energia fissata, Boltzmann é in grado di pervenire a distribuzioni continue il cui significato é perfettamente ricostruibile in termini di elementi di energia e particelle. Le particelle sono equidistribuite, come richiede l'identità fisica; esse (nel limite termodinamico) sono indipendenti, cioé non vi é correlazione tra lo stato dell'una e quello di una qualsiasi altra; esse sono distinguibili, dato che sono punti di localizzazione degli elementi di energia. Il risultato finale p(E)=Ce-E é una distribuzione di probabilità per una particella: ciò ci consente di sottolinare la distinzione tra probabilità (di una 6 Per il valore di questo contributo di Boltzmann dal punto di vista della storia del calcolo delle probabilità rimandiamo al già citato lavoro di Bach. 23 particella) e frequenza relativa (relativa alle D particelle), fonte di innumerevoli confusioni in meccanica statistica. L'unico neo di questa trattazione, e certo la cosa é non banale, consiste nel fatto che il risultato finale p(E)=Ce-E è la distribuzione di Maxwell bidimensionale, e non la tridimensionale p(E)=C' Error! Un modello sbagliato? Che cosa significa affermare che un modello statistico é inadeguato alla rappresentazione di un sistema fisico? Innanzitutto un modello statistico consiste nella "costruzione" di una distribuzione di probabilità, o sulla base di analogie (in cui di solito compaiono urne, estrazioni, eventuali reimbussolamenti,..) intese a rendere intuitivamente accettabili le assunzioni probabilistiche, o attraverso condizioni esplicite cui la distribuzione deve sottostare (come nel processo invariante prima introdotto). In seconda istanza la distribuzione di probabilità deve essere posta a confronto con l'evidenza empirica: questo secondo passo é noto in statistica col nome di saggio di significatività. Nel caso in cui Boltzmann avesse potuto misurare direttamente l'energia di un campione di particelle, avrebbe potuto confrontare i valori empirici con quelli previsti dalla p(E) fornita dal modello, e considerare se la "distanza" tra i valori empirici e quelli previsti da p(E) fosse ragionevole od eccessiva. Come é noto questi dati empirici furono disponibili solo molti decenni dopo la formulazione del modello. In realtà la distribuzione di Maxwell fu assunta immediatamente sulla base del suo potere esplicativo e predittivo per la teoria cinetica e la termodinamica dei gas diluiti, e Boltzmann si limitò a tentare di ricavarla su basi probabilistiche. Cosicché il confronto tra la p(E) fornita dal modello ed il risultato atteso non dovette affrontare i delicati (e tuttora non perfettamente chiariti) problemi derivanti dal confronto tra un'ipotesi statistica ed i dati[10]. Ammettiamo in ogni modo che il modello statistico non sia soddisfacente. Le possibili ragioni sono molte: o vi sono errori nell'apparato deduttivo (errori di calcolo); oppure le condizioni sulla distribuzione di probabilità sono inadeguate (per esempio non é vero che gli elementi di energia sono correlati in modo che le descrizioni di stato delle particelle siano equiprobabili); ancora, non é lecito per qualche ragione fisica effettuare il limite continuo (quello termodinamico sembra 24 fuori discussione); infine, il modello "N elementi di energia su D particelle" é inadeguato perché non é in grado di descrivere correttamente le modalità del carattere di cui gli individui godono davvero, e cioé gli stati energetici delle D particelle. Se così fosse, il processo stocastico potrebbe essere riutilizzato con successo in uno schema opportunamente corretto. Focalizziamo quindi l'attenzione sull'adeguatezza del modello a rappresentare gli stati delle particelle. Se ho 2 molecole e 4 elementi di energia, e vale la (2), sono equiprobabili i cinque stati N rappresentati da (4,0),(3,1),..,(0,4). Gli Z corrispondenti sono: N (4,0) e (0,4) (3,1) e (1,3) (2,2) Z (1,0,0,0,1) (0,1,0,1,0) (0,0,2,0,0). Pr(Z) 2/5 2/5 1/5 Z1=(1,0,0,0,1) é il macrostato con una particella nello stato fondamentale e l'altra nel quarto stato eccitato, Z2=(0,1,0,1,0) ha una particella nel primo ed una nel terzo, Z3=(0,0,2,0,0) ha le due particelle nel secondo stato eccitato. Gli stati di una particella singola sono k=0,1,..,4, e sono equiprobabili per ciascuna particella. Questo è immediatamente evidente, ma apriamo una parentesi che sarà utile in seguito. La questione si può vedere in due modi. Il primo, che corrisponde al metodo della marginalizzazione appena esposto in modo formale, è il seguente: per ricavare la probabilità che la prima particella contenga k elementi si sommano le probabilità di tutte le descrizioni di stato in cui il primo valore sia k. In questo caso, essendo solo due le particelle, è banale, perchè Pr(k=0)= Pr(0,4)= 1/5,.., Pr(k=4)= Pr(4,0)= 1/5. Il secondo modo si basa sulle descrizioni Z: è interessante soprattutto perchè sarà usato da Boltzmann in seguito, ed è molto semplice da capire in questo caso semplicissimo. Se il sistema è nello stato Z=(1,0,0,0,1), vi saranno una molecola "ferma" ed una con energia pari a 4; questo stato ha probabilità 2/5; Se il sistema è nello stato Z=(0,1,0,1,0), vi saranno una molecola con energia pari ad 1 ed una con energia pari a 3; questo stato ha probabilità 2/5; se infine il sistema è nello stato Z=(0,0,2,0,0), vi entrambe le molecole avranno energia pari a 2; questo stato ha probabilità 1/5. Ciascuno stato Z non menziona le molecole, mentre la somma delle componenti di ogni Z vale D, per cui Z/D (=Z/2 in questo caso) è formalmente una distibuzione di 25 probabilità per una particella singola. Ad esempio, Z1/2=(1/2,0,0,0,1/2) assegna probabilità uguale ad 1/2 per essere la molecola negli stati k=0 e k=4, e probabilità nulla per k=1,2,3. Ne deriva che la media degli Z con pesi Pr(Z) può interpretarsi come la distribuzione di probabilità di una generica molecola sugli stati ammessi dai vincoli. Nel nostro caso ∑i Zi Pr(Zi)= Error!+Error!+ Error!= (1/5,..,1/5), che è la distribuzione uniforme sulla generica particella. Tornando al discorso principale, non é questa equiprobabilità che disturba, dato che nel limite termodinamico si trasforma nella distribuzione geometrica con media pari a 2, e nel limite continuo nell'esponenziale. Ciò che non va é che gli stati possibili di una molecola non sono un parametro esterno al modello, ricavato da considerazioni dinamiche, ma risultano dal meccanismo-base di accomodazione dei quanti di energia cinetica7! Questo meccanismo prevede un numero di stati di singola particella per livello energetico pari a 1, cioé per ogni livello k=k esiste un solo oscillatore. Ci aspettiamo perciò nel limite continuo g(E)= Error!= costante. Se ammettiamo invece che il numero degli stati con energia minore o uguale ad E sia proporzionale al corrispondente volume () dello spazio si ha()=Error! Solo nel caso bidimensionale si ha ()=Error! Se il meccanismo fosse costituito da molecole che si accomodano direttamente su stati con probabilità uniforme, il risultato dovrebbe dipendere dal numero degli stati, che andrebbero inseriti nel modello come richiede la dinamica; ma qui il modello è "elementi su molecole", per cui gli stati delle molecole e la loro probabilità sono un risultato. Già da qui si vede che il modello "elementi su molecole" non é in grado di soddisfare il corretto numero degli stati che la dinamica prescrive. Il fatto che il risultato descriva correttamente un gas bidimensionale é da considerarsi casuale. Proprio perché riteniamo che per il resto la deduzione sia corretta, possiamo affermare che non é possibile ricostruire l'insieme delle possibilità dinamiche (gli stati delle particelle) di un gas a partire da "elementi di energia cinetica" comunicati alle particelle. Lo schema "N oggetti su D celle" potrà essere ancora utilizzato, a patto di una radicale reinterpretazione del significato da attribuire ai termini. Frequenze di frequenze 7E' evidente come queste considerazioni siano del tutto estranee al pensiero di Boltzmann, ma abbiano solo un valore euristico per il modello che abbiamo introdotto. 26 L'inadeguatezza del modello statistico per la derivazione di p(E)=C Error! f(E)=C(D) e-E(21) e la trasforma nella funzione a scala fN(E)=f(k) per k<E≤(k+1)in cui f(k) é il numero di molecole nello stato k, cioé Zk~ k e-k= k qk, (22) essendo q=e-. Ora il vettore Z, essendo la versione discreta di f(E), é normalizzato al numero di molecole D: é il numero di molecole con k elementi di energia, per ogni k. Se (come abbiamo visto nell'esempio precedente) il vettore Z si normalizza ad 1, esso può rappresentare la probabilità che una molecola abbia esattamente k elementi di energia, la quale risulta perciò proporzionale a Error! Questa é la probabilità di osservare lo stato k di una molecola estratta "a caso " dalle D presenti (ad esempio facendo un foro nel recipiente, e tenendo conto dei fattori cinematici che influenzano questo tipo di campionamento). Si noti come in questa memoria si possa intravvedere la svolta essenziale (che si consoliderà nei lavori seguenti): la probabilità dello stato di una molecola, piuttosto che derivarsi marginalizzando la distribuzione congiunta delle D molecole, a sua volta deducibile9 da ipotesi sui "sottostanti" elementi di energia, si ricaverà dalle frequenze dei "sovrastanti " macrostati (frequenze di occupazione, o numeri di occupazione sugli stati k, o stati degli oscillatori). 8Formalmente, la (7) e la (9) Pr{j | M}= Pr{Yj;M+1 =1 |M} possono essere generalizzate così: Pr{Yj;n =1 |M}=Pr{Yj;n =1 |Mj,M} = Error! per n>M = Error! per n≤M Mentre per la regione predittiva n>M é necessario postulare l'invarianza della funzione di probabilità, nella regione n≤M la formula richiede solo la validità della condizione di scambiabilità, ed é perciò di molto più ampia applicazione. Dato che Mj=Error!, la formula può scriversi come riferita a E(Yj;n |Error!), con le due forme a seconda che l'n-ma osservazione compaia o no nell'evidenza. 9Non è il caso di Boltzmann in questo frangente, anche se in una occasione almeno analizzò la questione. 27 Z* <----- (1872-77) <--------Pr(Z) Pr(k) <--------(1868) <---------Pr(k1,...,kD) Questa procedura approssimata ha ancora un senso in Boltzmann, che é teso a ricavare la distribuzione di Maxwell per la generica molecola; non ne ha invece quando si cerchi il valore dell'entropia, o dell'energia media del sistema, che sono funzioni della distribuzione congiunta D-dimensionale. Questa approssimazione non compare nei lavori di Planck, il quale, subordinatamente al fatto che N eccitazioni siano distribuite su D oscillatori, si accontenta del fattore (N+D-1;N) ; ricompare in Bose e nel primo lavoro di Einstein sul Gas di Bose, per poi scomparire definitivamente nel suo secondo lavoro sull'argomento[11]. Come vedremo più dettagliatamente in seguito, é infatti evidente che la distribuzione sugli stati Pr(N)= -1 (N+D-1;N) contiene tutta (e sola) l'informazione necessaria per la descrizione statistica del (sotto)sistema. 28 Boltzmann 1877 Il medesimo modello "N elementi di energia su D particelle" é riutilizzato da Boltzmann nel 1877[3]. Boltzmann calcola il numero W(Z) di complessioni N compatibili con una distribuzione di stato Z. Il numero di distinti N é (N+D-1;N) , mentre il numero di N compatibili con un Z è W(Z) = Error!. Supponendo uniforme -1 la distribuzione Pr(N)=(N+D-1;N) , é allora nota la distribuzione -1 Pr(Z)= Error! per tutti gli Z: Error!=D e Error!=N di cui Boltzmann cerca il massimo condizionato ai due detti vincoli . Il risultato é Zk*~qk, e anche p(k)=Error!~qk. Questa distribuzione geometrica troncata diviene la geometrica nel T-limite, ed ancora la (20') nel limite continuo. Questo lavoro di Boltzmann é importante perché mostra la sua consapevolezza circa il legame esistente tra la correlazione degli elementi di energia e la conseguente distribuzione sugli stati N delle molecole: se gli elementi fossero indipendenti, allora lo stato di una molecola avrebbe una distribuzione bernoulliana, che diviene poissoniana nel T-limite e deterministica nel limite continuo, cioé p(E)=(E-E*)10. Riguardo l'atteggiamento generale rispetto al problema, si consolida la svolta rispetto al lavoro del '68. Nel '68 si parte da una distribuzione sugli stati delle molecole, si marginalizza su una molecola, e si lavora in modo esatto su questa distribuzione; nel '77 si parte dalla stessa distribuzione, si calcola la distribuzione sui macrostati Pr(Z), si cerca il macrostato più probabile (quello di equilibrio) e si pone alla fine Pr(k)=Pr(k|Z*)= Error!. Proprio nella stessa memoria Boltzmann abbandona gli elementi di energia, ed assume che lo schema (che diverrà fondamentale) (N,D) si riferisca ad N particelle su D celle dello spazio . Qui assistiamo ad una vera e propria traslazione di simboli e significati, che possiamo tradurre nel linguaggio a noi più familiare: un vettore N descrive l'occupazione delle D celle (ovvero insiemi di stati di particella singola, od 10Questo corregge parzialmente quanto detto all'inizio, circa la non menzione da parte di Boltzmann delle descrizioni di stato degli elementi di energia, che infatti inizia con la distribuzioni uniforme dei loro numeri di occupazione. In questa fase della sua opera egli comunque mostra piena consapevolezza delle conseguenze delle ipotesi implicite nel suo lavoro del '68. 29 oscillatori); una configurazione x descrive la collocazione delle N particelle sugli oscillatori. Il numero di configurazioni compatibili con un N fissato sarà perciò N! Error!con i vincoli Error!=N e Error!i=E, dove gi indica il numero di oscillatori della cella i-ma ed i é l'energia associata alla i-ma cella. Notiamo che essendo cambiato il significato dei vettori x e N, é cambiata la posizione della relazione che fissa il valore dell'energia. Inoltre i valori di energia di ogni cella i ed il numero di stati per ogni cella gi sono determinati dalle proprietà dello spazio , sono perciò parametri esterni del modello. Confrontiamo questa nuova formulazione con quella della memoria del '68: riscriviamo perciò la probabilità uniforme delle configurazioni delle particelle (2) nella nuova simbologia, in cui N é il numero delle particelle (il vecchio D) ed E/ é il numero degli elementi di energia (il vecchio N), cioé -1 Pr(x; N,E)= (E/ +N-1;E/) (2') dove come al solito i simboli N ed E che stanno all'evidenza non sono eventi, ma parametri che identificano la distribuzione. Osserviamo che N ed E sono due parametri indipendenti l'uno dall'altro. Indichiamo con N i vecchi macrostati Z , con le condizioni Error!=N, e Error!=E/. Osserviamo che questa impostazione tratta in modo equiprobabile tutte (e sole) le possibilità compatibili con l'energia data, che é un parametro del modello. In particolare la probabilità dei macrostati N é fissata con esattezza : é la vecchia Pr(Z) di due pagine sopra, che riscriviamo così -1 Pr(N)= Error! . Il macrostato più probabile dati i vincoli può in principio essere calcolato esattamente: l'approssimazione di Stirling é un espediente numerico giustificato dalla ricerca di N* nel dominio dei macrostati compatibili con E. Questo non é più vero nelle mutate condizioni cinematiche del '77. Se imponiamo che Pr(x) sia uniforme dati i vincoli sarà: Pr(x; N,E) =Pr(x; N)= Error!. (2'') Questa distribuzione é esatta come la (2) o la (2'), ed anch'essa può essere marginalizzata. Se vogliamo calcolare Pr(x1=jm), cioé la probabilità che la prima particella sia su un ben preciso oscillatore della m-ma classe, dobbiamo addizionare le probabilità di tutte le configurazioni in cui le N-1 restanti particelle sono compatibili col macrostato (N1,..,Nm-1,..,ND). Il loro numero é 30 (N-1;N1...Nm-1 ..ND) g1N1..gmNm-1..gDND, per cui Pr(x1=jm)=Error!gm-1, in cui il primo termine é la probabilità di appartenere all'm-ma classe, ed il secondo la probabilità dello stato data la classe. Mentre nella (2') vi sono due parametri indipendenti N ed E, nella (2'') il parametro della distribuzione è il macrostato N , e questo sia per quella congiunta che per quella marginale. A differenza del modello precedente, non vi é più una pluralità di macrostati compatibili con un valore di E e di N, ma in generale vi é corrispondenza 1-1 tra E ed N, cioé la funzione E(N) é in principio invertibile. Come é possibile liberarci di N e trovare una distribuzione marginale che dipenda solo da parametri termodinamici? In principio il metodo del macrostato più probabile fissata l'energia nelle nuove (e corrette) condizioni cinematiche non ha alcun senso. Per recuperarlo, é necessaria un'approssimazione di partenza: si deve introdurre un livello di descrizione "a grana grossa", in cui più classi di oscillatori si unifichino in f<<D strati, con g1,..,gf oscillatori con energia per particella E1,..,Ef. Per la nuova descrizione N=(N1,...,Nf) varrà Error!=N e Error! =E, dove lo spettro di E differisce da quello (esatto) di E, e come vedremo può considerarsi continuo. Se si pensa di formare gli strati suddividendo lo spazio secondo i multipli di una quantità fissata ∆, l'energia degli strati sarà Ei=i∆, e siamo perciò ricaduti in una situazione simile al modello di Boltzmann del 1868. Vi saranno perciò molti macrostati esatti N compatibili con E. Inoltre sarà legittimo supporre Ni,gi >>1, e quindi trattarli come quantità continue, e sostenere l'universale validità dell'approssimazione di Stirling. Questa descrizione é finalizzata all'introduzione (spesso velata) di una nuova ipotesi, e cioé l'equiprobabilità delle configurazioni compatibili con E, di cui non é facile calcolare il numero, come nel caso della (2), o nel caso della (2'') in cui si condiziona ad N. Quindi si può calcolare Pr(N|E) a meno di un fattore di normalizzazione; se ne può però calcolare il massimo, cioé si può individuare la descrizione N* che la massimizza con i vincoli Error!=N e Error!=E. Abbiamo così messo in evidenza le ipotesi generalmente nascoste nel metodo N* nel caso di "N particelle su D classi", ponendole a confronto col metodo Z* nel caso di "N elementi su D particelle". Una conclusione provvisoria é la seguente: nel modello del '68 il metodo del macrostato più probabile data l'energia é probabilisticamente sensato, anche se é sostanzialmente inutile; nel modello del '77 il metodo non ha senso se non introducendo fin dall' inizio approssimazioni sulle classi e sui livelli energetici. Tutto 31 questo non é ovviamente imputabile a Boltzmann, il quale non ha problemi di spettri o di quantizzazioni che non siano arbitrari strumenti di calcolo. L'aver legato la tanto sospirata derivazione della distribuzione di Maxwell al metodo del macrostato più probabile ha fatto sì che il metodo esatto della distribuzione sulle possibilità elementari, della marginalizzazione e dei limiti termodinamici venisse sostanzialmente dimenticato. In realtà, nel cosiddetto metodo elementare della meccanica statistica[12], il cosiddetto macrostato di equilibrio (che é una frequenza relativa) é sufficiente per la termodinamica, sicché le nozioni genuinamente probabilistiche di distribuzione sulle possibilità elementari e di probabilità marginale perdono di significato. 32 Parte II. Entra Brillouin La distribuzione di Polya D-variata , da cui Boltzmann partì per la derivazione delle probabilità marginali e dei limiti sopra visti, é un caso particolare della famiglia di distribuzioni Pr,p(N)= Error!= Error! (23) dove p=(p1,....,pD) é una distribuzione di probabilità, é un parametro reale, ed il simbolo x[n] sta per x(x+1)..(x+n-1). Si ottiene la distribuzione uniforme per =D e p=(D-1,....,D-1). La famiglia Pr,p(N) si può ricavare quale probabilità delle possibili composizioni N di un campione, ottenuto dopo N passi di un processo stocastico scambiabile ed invariante con probabilità iniziali p e parametro di correlazione c=D/. Questo processo fu applicato alla statistica delle particelle elementari da L.Brillouin nel 1927[13], utilizzando un linguaggio geometrico che forse rivela la scarsa consapevolezza del significato probabilistico delle assunzioni da lui operate . In questo lavoro l'autore fornisce una unica formulazione delle tre statistiche delle particelle elementari, la statistica di Maxwell-Boltzmann (MB), quella di BoseEinstein (BE) e quella di Fermi-Dirac (FD). Strumento concettuale unificante della trattazione dell'autore è il considerare tutte le particelle (projéctiles ) distinguibili e cercare una ipotesi ausiliaria che gli permetta di ritrovare le tre statistiche. L'articolo di Brillouin presenta un punto di vista originale sul problema della distinguibilità delle particelle classiche e quantistiche. Come è noto, questa distinzione fu assunta come fondamentale per spiegare il differente comportamento statistico delle particelle quantistiche[11][14]. In tale contesto i concetti d'indipendenza statistica e di distinguibilità delle particelle, capisaldi della teoria classica, perdono senso. La nozione di indistinguibilità delle particelle é infatti una giustificazione di tipo extraprobabilistico per supporre equiprobabili i numeri di occupazione (anziché le configurazioni) compatibili con il macrostato N. Come abbiamo visto in Boltzmann '68, l'equiprobabilità degli stati delle celle é compatibilile solo con la correlazione (positiva) degli oggetti. Nel caso dei fermioni l'ulteriore prescrizione del principio di esclusione cambia segno alla correlazione. Questa assunzione di equiprobabilità introduce perciò una mutua influenza tra le particelle, senza per altro giustificarla. O meglio, la nozione di "indistinguibiltà" viene assunta proprio per giustificare la scelta 33 di tale distribuzione. Come introduce invece Brillouin la correlazione tra le particelle? Lo fa ipotizzando che ciascuna particella abbia un volume proprio a nello spazio , sicché posto uguale a 1 il volume di una cella vuota dello spazo , il volume di una cella già occupata da k particelle sarà 1-ka. Ma vediamo più da vicino questo lavoro. Brillouin parte dalle formule che danno, nei tre casi, il numero di differenti modi (W) in cui si possono ripartire N particelle, in ragione di Ni per ogni classe (couche ) di energia Ei, sapendo che in ogni classe ci sono gi stati11 (cases ). Notiamo che qui classe sta per sottospazio dello spazio , mentre la cella elementare dello spazio é chiamata stato. Due sono le definizioni distinte che intervengono in questo calcolo: 1-definizione del criterio utilizzato per distinguere le situazioni elementari, legata alla distinguibilità o meno delle particelle; 2-definizione dei diversi casi considerati possibili, legata al problema delle correlazioni negative. Secondo Brillouin la MB, relativamente al primo punto, « admet qu'on peut , a priori, distinguer un projectile d'un autre »; mentre per la BE e la FD « tous les projectiles sont considérés comme identiques a priori » e quindi le ripartizioni si distinguono per il differente numero di particelle di ciascuno stato Relativamente al secondo punto la MB e la BE «admet ordinairement l'indifferences des objets ,» nel senso che « è la stessa la possibilità di aggiungere una particella in uno stato già occupato o in un stato vuoto »; mentre per la FD «chaque objet suffit à remplir une case, et l'on ne peut en placer plus d'un 12.» Mentre il primo punto é sufficientemente chiaro, il secondo afferma in modo confuso la possibilità di collocare un numero indefinito di bosoni o particelle classiche in uno stesso stato. A questo punto Brillouin riassume il metodo consueto per ottenere le tre statistiche: l'approccio consiste nel calcolare W(N), cioè, il numero degli stati microscopici compatibili con ciascun macrostato, e nel massimizzare logW(N) con i vincoli opportuni, identificando il macrostato di equilibrio N* come il macrostato "più probabile". Nel caso di un gas : gi = g(Ei)= (2V/h3)(2m)3/2 Ei 1/2E ; per i fotoni : gi= g(i)=V (4i2/c3) 12Questa e le citazioni precedenti si trovano in Brillouin (1927) pp.318-319. 11 34 Il modo usuale di calcolare W(N) divide le particelle in distinguibili e non, e poi queste ultime a seconda che valga o no il principio di esclusione. Se le particelle sono distinguibili, il numero di modi diversi in cui si possono distribuire le particelle in D classi, ognuna delle quali ha gi stati possibili di occupazione, così che nella prima classe ci siano N1 particelle, nella seconda ce ne siano N2, nella i-ma ce ne siano Ni ,.....etc. sarà dato dal numero dei modi diversi in cui le N particelle del sistema si possono disporre nelle D classi, così che nella prima classe ci siano N1 particelle, nella seconda ce ne siano N2,.., nella i-ma ce ne siano Ni ,..... moltiplicato per il numero di modi in cui le Ni particelle si possono distribuire tra i gi stati della classe i-ma; in definitiva, nel caso classico, si otterrà : W (N) = N!Error! MB Nel caso delle particelle indistinguibili non si può sapere quali particelle siano state poste in ciascuna classe, per cui la sola caratteristica distintiva di una data distribuzione microscopica sono i numeri di occupazione dei gi stati di ogni classe contenente Ni particelle. Il numero cercato è quindi uguale al numero delle distribuzioni sugli stati compatibili con la distribuzione N . Se le particelle non seguono il principio di esclusione di Pauli si otterrà: W BE (N) = Error! Se le particelle indistinguibili seguono il principio di esclusione di Pauli ( un stato può essere occupato da una sola particella) è facile vedere che per tutte le D classe si otterrà: W FD (N) = Error!. Passando ai logaritmi e utilizzando l'approssimazione di Stirling, chiamando genericamente con A i termini costanti (il cui ruolo del resto è nullo quando si cerca la distribuzione più probabile) Brillouin fornisce la seguente espressione per le tre statistiche: log W = A - Error!+Error! (24) L'autore cerca di derivare queste espressioni a partire da principi comuni. La teoria unificata 35 Brillouin considera la formula classica come intermedia tra quella di Bose e quella di Dirac; si pone allora l'obiettivo di trovare una formula generale che gli permetta di passare da una probabilità costante di occupare un stato ad una condizionata dal numero delle particelle già presenti nello stato. Egli è fortemente critico13 sull'ipotesi dell'indistinguibilità delle particelle quantistiche, corrispondente, secondo lui, ad un "processo irrealizzabile in pratica" . Ritiene quindi più corretto considerare le particelle, di qualsiasi tipo esse siano, ben distinguibili l'una dall'altra. In secondo luogo assume che la probabilità di collocare una particella in uno stato già occupato dipenda dal numero delle particelle già entrate. Egli suppone che ogni stato vuoto abbia una capacità uguale a 1 e ogni particella un volume uguale ad a , di modo che uno stato che contiene p particelle abbia capacità uguale a 1-pa. A seconda del valore del parametro a si otterranno capacità differenti. Brillouin suppone che i fermioni (a=1) abbiano un volume positivo, le particelle classiche (a=o) volume nullo, e i bosoni (a= -1) un volume negativo. Analizzare la probabilità in termini "geometrici" permette a Brillouin di descrivere l'occupazione di una classe in termini dell'occupazione degli stati. Si può allora affermare che, se uno stato è occupato da nj bosoni, la sua capacità aumenta ( passa cioè da un valore 1 a un valore 1+nj ); se è occupato da nj particelle classiche la sua capacità resta immutata, se è occupato da un fermione la sua capacità diventa nulla , cioè nessun' altra particella può più entrarvi. La probabilità che una particella occupi uno qualunque degli stati della classe Ci , con gi stati , varierà quindi a seconda del numero di particelle che la occupano . La probabilità che la prima particella occupi uno qualunque degli stati della cella Ci sarà data da Error!, con G=∑igi; la probabilità che la m+1-esima particella occupi uno qualunque degli stati della cella Ci , sapendo che le particelle che già occupano la cella sono in tutto Mi sarà: Error! 13Egli (25) scrive infatti : «L'identité complète des objets, admise par Bose, est une fiction irréalisable; chacun des objets a suivi une voie différente, qui nous permet de le distinguer des autres: le photon émis à un instant donné provient d'un atome déterminé, et les autres photons accumulés dans la meme case avaient eu, auparavant des histoires bien distinctes » Brillouin (1927) pag .330. 36 dove ( gi - Mia ) sono les places libres nella cella Ci e ( G - Ma ) les coups possibles , cioè la capacità totale del sistema in quel momento. La probabilità di avere Ni particelle all'interno di una cella si deriverà quindi, per il principio delle probabilità composte, a partire dal prodotto delle probabilità che Ni particelle assegnate occupino la cella . Tale prodotto, per le proprietà della funzione , sarà proporzionale a : Error!. (26) La formula (26) si ottiene dal prodotto di tutti i numeratori della (25) , cioè le diverse capacità della cella man mano che questa viene occupata dalle Ni particelle; tale prodotto dipende solo dal numero Ni di particelle all'interno della cella . Ma la capacità della cella non è altro che la somma delle capacità degli stati , cioè gi - Nia =Error!, dove con nj indichiamo il numero di occupazione di uno stato e Error!, allora N=(N1,.., Ni,....Nk) e n=(n1,..,nj,..,nG) indicheranno il generico vettore d'occupazione rispettivamente delle k celle e dei G stati , dove n=Error!=Error!. Introducendo la molteplicità delle sequenze, che saranno Error!, avremo in definitiva per tutte le celle : Pr (N) = Error!, (27) che altro non é se non la (23) con pi= Error! Da quel che abbiamo visto segue che Pr(N) é la distribuzione su tutte le possibili composizioni di una popolazione di N individui su G stati suddivisi in D classi. Al contrario Brillouin continua a chiamarla impropriamente W, dimostrando con ciò i limiti concettuali della sua derivazione. A lui interessa la derivazione unificata dei numeri (24), cui intende applicare l'usuale procedimento di massimizzazione condizionata. Infatti alla (27), per Ni e gi grandi , Brillouin applica la formula di Stirling , e ottiene : Pr (N) = Error!. La formula unificata per le tre statistiche è allora : log {Pr (N)} = Error![∑gi log gi - G logG] + N logN + (Error!- N) log (G aN) + +∑ [ - Ni log Ni + (Ni - Error!) log ( gi - aNi )] (28) 37 Considerando che N e gi sono delle costanti e sostituendo il valore opportuno del parametro a, dalla (27) si ritrovano le tre espressioni della (24). Concludendo il paragrafo Brillouin fa le seguenti ipotesi: 1° Hypothèse de Pauli, Dirac, a=1. In questa ipotesi è nulla la probabilità che una particella occupi uno stato già occupato da un'altra particella. 2° Hypotèse classique; indépendance des projectiles; a=0. La probabilità che una particella occupi uno stato che ne contiene gia p, oppure è vuoto, è sempre la stessa . 3° Attraction des projectiles, a=-1. La probabilità che una particella occupi uno stato che ne contiene già p è proporzionale a 1+p. In questa ipotesi Brillouin, massimizzando log{Pr(N)} con i vincoli ∑iNi=N e ∑iNii=E, ricava l'espressione di Planck per la radiazione del corpo nero, calcola poi le fluttuazioni e paragona infine il suo metodo con l'approccio di Einstein del 1909. Tralasciamo di osservare se il processo di massimo sia corretto ( cioé se si tratti di N o non piuttosto di N, vedi il precedente paragrafo), e consideriamo il grande valore della derivazione: il medesimo processo produce le tre distribuzioni sui macrostati, con un unico parametro in corrispondenza 1-1 con la particolare statistica. Formalmente (anche se Brillouin non ne fa cenno) si possono trattare "parastatistiche" corripondenti all'infinità continua di valori positivi della correlazione e all'infinità numerabile dei valori negativi14. A quanto ci consta, questo lavoro di Brioullin é stato ignorato per almeno sessant'anni. La ragione principale di questo disinteresse va forse cercata nella pretesa di Brillouin che la derivazione si basasse sulla distinguibilità delle particelle, tradizionalmente connessa al fattore Error!che compare nella (27). Il fatto che questo fattore compaia nelle tre statistiche, e non solo in quella classica, può far pensare che tutte le particelle siano distinguibili; in realtà lo stesso fattore rappresenta semplicemente il numero di distinte realizzazioni del processo che conduce a N, e non riguarda l'individualità (presunta) di qualsivoglia particella. Sicché la ripetuta asserzione di Brillouin circa la distinguibilità di tutte le particelle, mentre é del tutto scollegata dalla derivazione 14La probabilità (27) é ben definita per qualunque volume negativo purché finito, e per qualunque volume positivo pari a un sottomultiplo del volume della cella vuota. 38 della (27), ha probabilmente contribuito a rivestirla di un involucro filosoficamente perdente nel milieu del periodo. Una seconda ragione di sospetto verso questa derivazione sta forse nell'uso della probabilità di transizione (25), cioé Pr(i|M)= Error!, che é una probabilità difficilmente interpretabile come una frequenza relativa. Mentre la probabilità assoluta Pr(N) é la probabilità di una composizione della popolazione complessiva, che per grandi N é in principio empiricamente controllabile con i consueti metodi statistici, Pr(i|M) é la distribuzione sulle le possibili composizioni di una popolazione con un solo individuo (la M+1-ma particella osservata), condizionate al fatto che il sistema é nello stato M. La confusione tra i concetti di probabilità e di frequenza relativa, unite alla mancanza di chiarezza circa il ruolo delle ipotesi e dei controlli nelle teorie probabilistiche, hanno spesso condotto ad affermare l'assenza di significato empirico per espressioni quali la (25). Per terminare questa parte, chiariamo che non intendiamo riproporre in modo puro e semplice il metodo di Brillouin in una veste filosofica più sofisticata, ma intendiamo discuterlo anche nel merito, in vista di una sua riutilizzazione più soddisfacente. Il processo T=∞ Confrontiamo il modello di Boltzmann '68 con quello di Brillouin. Per Boltzmann vi sono E/ elementi di energia su N molecole. Il vettore x=(x1,..,xN) é una descrizione di stato delle N molecole, compatibile con l'energia totale E. Gli stati possibili di una molecola sono xi=0,1,..,E/, ed il numero di occupazione di ciascuno di questi stati sarà N=(N0,..,NE/). Il vincolo che fissa il numero di molecole del sistema implica Error!=N; quello che fissa l'energia implica Error!=Error!. Il modello di Brillouin é una generalizzazione del famoso metodo di Boltzmann del '77, e consiste nella sistemazione di N molecole su G stati, suddivisi in D classi di numerosità g1,..,gD. Per il vettore N che conta il numero di particelle per gruppo varrà Error!=N e Error!=E. Come abbiamo già osservato, il vincolo dell'energia é essenziale in Brillouin (é un evento), mentre per Boltzmann '68 é un parametro esterno. Il meccanismo di Boltzmann fissa l'energia all'inizio, percui il secondo vincolo vale automaticamente; quello di Brillouin no, perché l'energia totale dipende dalla classe in cui si colloca ogni particella, e quindi il secondo vincolo é logicamente indipendente da ciò che lo precede. Per il resto i due vincoli sono uguali se si sostituisce alla variabile di somma la parola "stati", ricordando che in Boltzmann '68 39 i=i. Boltzmann nel '68 pone (ne sia o meno consapevole) una correlazione tra gli E/ elementi di energia tale che Pr(x) sia uniforme, cioé tale che tutte le configurazioni delle molecole compatibili con l'energia totale siano equiprobalili. Dato che questo valore della correlazione é quello che caratterizza la sistemazione dei bosoni sulle celle elementari dello spazio si parla a questo proposito di Boltzmann quale "inventore" della statistica di Bose-Einstein[1][15]. Brillouin generalizza lo stesso procedimento ad ogni valore della correlazione (tramite l'espediente geometrico del "volume proprio"), e lo sposta di livello, applicandolo alla sistemazione di N particelle su G oscillatori. Come si vede dalla (25), la probabilità iniziale di sistemazione su ogni oscillatore é uniforme, e quindi per ogni classe é Error!: questo significa che tutti gli oscillatori sono inizialmente equiprobabili, quale che sia il valore i che li caratterizza. Mentre nel caso degli elementi di energia su molecole questa equiprobabilità iniziale tratta ragionevolmente allo stesso modo tutte le molecole, lo stesso non può dirsi per le celle elementari dello spazio . Essa sarà eventualmente giustificata solo nel limite di temperatura infinita, mentre non potrà valere quando l'energia totale sia limitata. Basti pensare alla quantizzazione di Planck del campo elettromagnetico: un oscillatore di frequenza non potrà essere eccitato nel caso in cui l'energia totale sia minore di h, per cui questa cella elementare dello spazio sarà certamente vuota finché l'energia totale non sarà almeno pari ad hDetto in sintesi, il processo di Brillouin non può essere interpretato come un effettivo processo di crescita di un sistema a contatto con un termostato di cui si conosce la temperatura. Il suo analogo é l' ensemble con uniforme su tutto lo spazio . Il calcolo della probabilità assoluta di un vettore N ovviamente prescinde dalla considerazione del vincolo sull'energia totale: é come se questa probabilità venisse calcolata a temperatura infinita, e poi ristretta ai vettori N compatibili con la fissata energia. D'altra parte può giustificarsi quale processo epistemico, in cui prima di ogni osservazione tutte le possibilità elementari per la prima particella (i G oscillatori) sono considerate equiprobabili. Il fatto che questa indifferenza iniziale (dovuta all'ignoranza) equivalga a supporre di conoscere con certezza il valore della temperatura é stato discusso in alcuni lavori di Shimony, a proposito dell'applicazione del cosiddetto Principio di massima entropia (MaxEnt) per la derivazione della distribuzione Canonica. Nel metodo tradizionale vi é una più o meno esplicita asserzione aggiuntiva di equiprobabilità dei microstati dato il macrostato, oppure data l'energia totale, ove si supponga che più macrostati siano compatibili con un 40 valore dell'energia macroscopicamente definito (cioé a meno di un E). In questo caso importa la probabilità (relativa) dei macrostati Pr(N|E) per individuarne il più probabile. Si preferisce evitare una distribuzione "universale" Pr(N) sia per l'infinità del dominio (in realtà G=∞) che per "some element of arbitrariness"[16] in cui é facile riconoscere il sospetto anti-bayesiano contro ogni tipo di distribuzione a priori. Su questo torneremo quando avremo analizzato le conseguenze in Brillouin di tale assunzione. Configurazioni, microstati e macrostati I punti fondamentali della trattazione di Brillouin sono i seguenti : 1) una statistica delle particelle elementari é ricavabile a partire da una distribuzione di probabilità su tutti i macrostati N a priori possibili date le N particelle; cioé una distribuzione di probabilità sui possibili stati delle D classi di oscillatori con N eccitazioni in tutto; 2) le tre statistiche sono elementi di una stessa famiglia di distribuzioni, e differiscono esclusivamente per il valore del parametro a, che é legato alla correlazione; 3) le tre statistiche sono derivabili come distribuzione di probabilità sulle possibili composizioni della popolazione generata da un processo stocastico scambiabile ed invariante, con probabilità iniziale uniforme e con parametro a. 4) il macrostato di equilibrio é il macrostato più probabile condizionato all'energia fissata. Circa il primo punto, come in Boltzmann '68, abbiamo finalmente una distribuzione di probabilità normalizzata su un ben preciso dominio. In Boltzmann é la distribuzione uniforme sugli stati possibili delle molecole, e il dominio é apparentemente costituito dalle diverse descrizioni di stato delle particelle. Se si prende sul serio la consapevolezza di Boltzmann della dipendenza della distribuzione sugli stati delle molecole dalla correlazione delle eccitazioni, allora le possibilità elementari sono gli stati delle eccitazioni (ovvvero le molecole). Se questi sono assunti come "punti" dello spazio di probabilità , abbiamo le successive e sempre meno raffinate decomposizioni di , e cioé le descrizioni di stato delle molecole x, le descrizioni di stato degli oscillatori N (il numero delle molecole di data energia), ed 41 infine l'insieme (E) dei punti compatibili con la data energia E, che coincide con =Bo. In Brillouin (ed in Boltzmann '77) i punti sono le realizzazioni del processo y (quale che ne sia l'interpretazione ) che registrano gli accomodamenti delle N particelle, in termini delle quali ha senso definire le descrizioni di stato dei G oscillatori n e le (meno raffinate) descrizioni di stato delle classi N, che coincidono con l'insieme dei punti compatibili con l'energia fissata. Le descrizioni N sono le decomposizioni dello spazio nella partizione =(E1)(E2)(Ek)..., dove la sequenza E1, E2,..,k,.. ordina in senso crescente i valori possibili dell'energia. Cioé N(E1)=(N,0,...,0), N(E2)=(N-1, 1, 0,...,0),.., e tutti i valori dell'energia sono rappresentabili in questo spazio =Br. Entrambe le descrizioni consistono in un insieme di punti (gli stati delle eccitazioni, rispettivamente elementi o particelle), raggruppati in microstati (gli stati delle molecole in Bolzmann oppure degli oscillatori in Brillouin), a loro volta raggruppati in macrostati (il numero delle molecole di data energia in Bolzmann o il numero di occupazione delle classi in Brillouin) Boltzmann '68 x n N Brillouin .. y n (E) Bo N (E) Br Supponiamo infatti che n=(n1,n2,..,nG) indichi il generico vettore d'occupazione dei G oscillatori (o stati di particella singola), e N=(N1,N2,..,ND) indichi il generico vettore d'occupazione delle D classi C1,..CD, dove n=Error!nj =Error!=Error!. In Boltzmann '68 n ed N coincidono, cioé gi=1, e G=D. In Brillouin vi é invece coincidenza tra N e(E), ove non si proceda a "coarse-graining". Dato che Brillouin é principalmente interessato a che le molteplicità W(N) fornite dal metodo combinatorio del numero dei microstati compatibili con un dato macrostato vengano ricavati come proporzionali alla probabilità di N, egli trascura la descrizione n, che il suo metodo é in grado di calcolare. Anche Pr(n) é data in modo "universale" , cioé il processo fornisce la probabilità di tutte le possibili descrizioni di stato di ogni oscillatore per ogni valore dell'energia. Il processo che conduce a Pr(n) (che non tiene in alcun conto dell'energia caratteristica delle diverse classi di oscillatori) é un processo invariante con probabilità iniziale pj= G-1, guidato dalla probabilità di transizione all'N+1-mo passo P(j | nj,N) = Error!, con Error!. Se si assume pj= 42 G-1, e si introduce c-1=Error!, da cui =Error!, e =Error!, la probabilità di transizione può essere riscritta così: Prc(j | nj,N) = Error!, (28) Nei tre casi di interesse fisico si ha : PrMB(j | nj,N) = pj , =1, = ∞, c=0 PrBE(j | nj,N) = Error!, = Error!, PrFD(j | nj,N) = Error!, = Error!, = G, c=1 = -G , c=-1 e le probabilità finali risultano essere : PrMB (n) = Error!G-N -1 PrBE(n) = (N+G-1;N) (distribuzione multinomiale G-dim) (distribuzione di Polya G-dim) (29) PrFD(n) = (G;N) -1 (distribuzione ipergeometrica G-dim) . Naturalmente queste distribuzioni sono ottenute in assenza di vincoli sull'energia: più esattamente, le (29) non dipendono dai valori {gi,i} che caratterizzano le diverse classi. Il fatto di raggruppare le G celle in D classi di numerosità g1,..,gi,..,gD caratterizzati dallo stesso valore i dell'energia appare a questo punto del tutto inutile, se non in vista di un'introduzione successiva del vincolo sull'energia. In tal caso di ottiene PrMB(N) = Error! PrBE(N) = Error! (30) PrFD(N) = Error! che sono le specializzazioni della (27), e in cui ciascun Pr(N)=Error!delle corrispondenti formule sui microstati. Quando Brillouin ha ottenuto la (27), dimenticando l'originalità della sua derivazione, massimizza lnPr(N)+ ∑Ni-∑Nii, usando l'approssimazione di Stirling e ricava nel modo consueto il macrostato N*che massimizza l'espressione, che consiste nelle ben note espressioni (con T=-1e ): Ni*BE = Error! Ni*FD= Error! Ni*MB = Error!= gi exp{-i-T} (31) Sembra quindi che Brillouin abbia brillantemente risolto il compito che si era prefisso: ricavare in modo unificato le tre espressioni (30), senza introdurre distinzioni circa la distinguibilità o il principio di Pauli. Più in dettaglio, le 43 molteplicità dei macrostati nei tre casi vengono derivate come proporzionali alle probabilità dei macrostati, ricavate in modo probabilistico unificato. Notiamo comunque come l'iniziale formulazione probabilistica venga bruscamente abbandonata al momento del calcolo della distribuzione di equilibrio: anziché ricavare la distribuzione di probabilità Pr*(N), si conclude come al solito con l'individuazione di N*. Due passi avanti e uno indietro Osserviamo innanzitutto che Brillouin parte da una formulazione probabilistica precisa (la legge individuale (25), la distribuzione sui macrostati (27)), ma introduce approssimazioni forse evitabili quando introduce il vincolo dell'energia e calcola il massimo condizionato. Abbiamo già visto che il metodo richiede uno slittamento dalla descrizione esatta N a quella approssimata N. A prescindere da ciò ci si può chiedere se sia necessaria questa procedura. Essa equivale alla massimizzazione dell'entropia del sistema: di quale entropia si tratta? Il passaggio da una distribuzione di probabilità all' elemento del suo dominio per il quale é massima equivale all'assunzione (probabilistica) della sostanziale equivalenza tra la distribuzione stessa e la distribuzione tutta concentrata sul valore più probabile; significa di fatto sostituire una probabilità con una frequenza relativa. Vi é inoltre un secondo problema, essenziale per la derivazione delle (31) in forma probabilisticamente corretta. Supponiamo che le (31) siano interpretabili (alla Darwin-Fowler) quali valori medi della distribuzione Pr(N|E), e consideriamo perciò Ni*=<Ni>. Per ogni distribuzione scambiabile vale che <Ni>=Npi, perché le N prove sono equidistribuite; perciò Error!non dipende da N e rappresenta la probabilità di successo per un generico tentativo. Si pensi all'estrazione del numero x al lotto, in cui si supponga che tutte le sequenze di estrazioni siano equiprobabili. Questo é il più semplice esempio di distribuzione scambiabile finita. La probabilità al primo colpo sarà P(x1)=Error!, quella al secondo colpo sarà P(x2)=(1-P(x1))P(x2|-x1), dove xi e -xi indicano successo e insuccesso all'i-mo colpo. Allora 1-P(x1)=Error!, e P(x2|x1)=Error!, per cui P(x2)=P(x1)=Error!. Dato che il numero medio di successi dopo due estrazioni sarà <N2(x)>=1·P(x1)+1·P(x2), si ha che <N2(x)>=2· Error!, cioé é il doppio della probabilità di successo sul singolo tentativo. 44 Ora é chiaro che questo non é previsto dalle (31), se non per il caso MB, che può infatti essere riscritto come Error!= Error!, che non dipende da N. Prendiamo come esempio estremo un sistema fermionico a T=0. Il vettore di occupazione per una particella sarà (1,0,...,0) con probabilità uno; quello per due particelle sarà (1,1,0,...,0) con probabilita uno; il numero medio di occupazione dello stato 1 resta invariato, quello dello stato 2 passa da 0 a 1. E' evidente che la probabilità assoluta di occupazione dell' k-mo oscillatore all'n-mo passo dipende da n (sarà 0 per n<k, e 1 per n≥k). E' perciò chiaro che il vincolo dell'energia distrugge in generale la scambiabilità del processo T∞. Questo puo vedersi anche così: dato il vettore (1,1,0,...,0) al secondo passo, é chiaro che la realizzazione "il primo fermione in 1 ed il secondo in 2" ha probabilità 1, mentre la realizzazione "il primo fermione in 2 ed il secondo in 1" ha probabilità 0. Le due realizzazioni dello stesso vettore non sono affatto equiprobabili. Il processo corretto a temperatura fissata dovrà perciò contenere il vincolo dell'energia passo dopo passo, simulando la crescita effettiva di un sistema che accoglie gradualmente particelle (o in generale eccitazioni) con le condizioni iniziali di vuoto, e con le condizioni al contorno adeguate a rappresentare il controllo effettivo delle variabili macroscopiche "Energia" e "Numero di eccitazioni". Il fatto che le realizzazioni del processo di crescita cessino di essere scambiabili quando esistono più gruppi di oscillatori e l'energia sia finita é cruciale per distinguere il concetto di "realizzazione del processo di crescita" da quello di "configurazione" ( o descrizione dello stato delle particelle)[7]. Tornando all'esempio precedente, (y1=1,y2=2) afferma che "il primo fermione si é accomodato in 1 ed il secondo si é accomodato in 2". Supponiamo che le particelle abbiano un nome, cioé siano estratte da un recipiente e siano immesse nel sistema in modo da conservare memoria dello stato dinamico precedente: in tal caso la sequenza di osservazione sarebbe bidimensionale, contenendo una variabile che rivela il nome della particella, e l'altra la cella in cui si accomoda. (y1=1&x1=a) significherà "il primo fermione si é accomodato in 1 e si chiama a". Se consideriamo (a=1)=def i(yi=1&xi=a), questa proposizione significherà "il fermione a si é accomodato in 1", senza precisare il passo del processo in cui a é stato immesso, mentre (y1=1)=def a(y1=1&x1=a) afferma che "il primo fermione si é accomodato in 1" quale che sia il suo nome. Se le particelle sono fisicamente identiche, ed il processo di accomodamento é determinato 45 solo dall'interazione fisica tra le particelle e tra queste e le pareti, sarà ragionevole supporre che Pr(y1=j1&x1=a, y2=j2&x2=b,..) (*) non dipenda dai nomi a,b,..delle particelle. Se le particelle sono solo due, a e b, le configurazioni compatibili col vettore (1,1,0,..,0) saranno (a=1, b=2) e (a=2, b=1), e Pr(1,1,0,..,0)=Pr(a=1, b=2) +Pr (a=2, b=1), mentre in termini di realizzazioni si avrà la decomposizione: Pr(1,1,0,..,0)=Pr(y1=1, y2=2) + Pr(y1=2, y2=1) Ora Pr(a=1,b=2)=Pr(y1=1&x1=a,y2=2&x2=b) + Pr(y1=2&x1=b, y2=1&x2=a), in cui il primo pezzo si riferisce all'ingresso prima di a e poi di b, e il secondo viceversa. Dato che Pr(y1=1&x1=a, y2=2&x2=b) é uguale a Pr(y1=1&x1=b, y2=2&x2=a) per la (*) e che la loro somma é Pr(y1=1, y2=2), sarà Pr(y1=1&x1=a, y2=2&x2=b)=Error! Pr(y1=2&x1=b, y2=1&x2=a)=Error! da cui Pr(a=1,b=2)=Error!= Error!= Pr(a=2,b=1) In questa ricostruzione, se le realizzazioni del processo di crescita sono scambiabili la probabilità di una configurazione é uguale alla probabilità di una qualunque realizzazione compatibile con essa. Infatti entrambe sono uguali a Error!Pr(n). Questa può essere la causa della pretesa di Brillouin circa la distinguibilità delle particelle di cui tratta. Quando il vincolo dell'energia viene introdotto quale condizione al contorno del processo, cade la scambiabilità e l'invarianza, e quindi il fattore Error!; in tal caso confusioni tra traiettorie di crescita e configurazioni di particelle non sono più possibili. Le configurazioni continuano ad essere scambiabili anche quando le realizzazioni del processo di crescita non lo sono più: ma questo é una banale conseguenza dell'identità fisica delle particelle. Se allora le (29) non possono riferirsi a distribuzioni scambiabili "tout court", sarà necessario precisare gli ambiti in cui la derivazione di Brillouin può essere recuperata. L'entropia 46 La ricerca della situazione di equilibrio é universamente associata a qualche condizione di massimo, il cui contenuto intuitivo si collega alla nozione di massima entropia. In Boltzmann '68 non é necessaria alcuna procedura di massimo condizionato: dobbiamo concludere che il problema dell'equilibrio possa prescindere da considerazioni di massima entropia? A ben vedere la distribuzione di partenza é la distribuzione uniforme sugli stati delle particelle. Se ammettiamo che l'entropia di qualcosa sia un funzionale S della distribuzione che ne descrive lo stato, cioé S= S({p(j)}) = -Error!, con {p(j)}, j=1,..,k; p(j)≥0, ∑j p(j)=1, allora Pr(N)= cost= -1 (N+D-1;N) é proprio la distribuzione di massima entropia delle molecole. E' noto infatti che se p(j) é uniforme, cioé p(j)=k-1, allora S= lnk, e S({k-1})= lnk é il massimo valore di S rispetto ad ogni altra {p(j)} sullo stesso dominio. Abbiamo così introdotto dall'inizio nella trattazione la prescrizione di massima entropia, che si conserva sia nel T-limite che nel limite continuo. Vediamo più esattamente come potremmo tradurre la prescrizione di massima entropia in Boltzmann '68: 1) si definisca lo stato microscopico (o microstato) del sistema: in questo caso un microstato é una descrizione di stato delle D particelle, cioé una congiunzione di D "enunciati atomici" in cui di ogni individuo (particella) si indicano le modalità del carattere in questione (la sua energia); 2) si consideri l'insieme ∑ ( o simplesso) delle distribuzioni di probabilità {p(che hanno quale dominio l'insieme Ω dei microstati; 3) si definisca per ogni p={p(la sua entropia S(p) = -Error! 4) si consideri il sottoinsieme ∑'∑ che contiene solo le p∑ che soddisfano i vincoli macroscopici ; in sintesi uno stato macroscopico sarà perciò una p∑' definita per ogni ; 5) lo stato di equilibrio sarà dato da p* che massimizza S(p) in ∑'. Vediamo se questa nozione probabilistica di entropia, e la procedura di massimizzazione condizionata ad essa legata, abbia una funzione esplicativa per il prosieguo del nostro discorso. a) Nel caso di Boltzmann del '68 il dominio Ω dei microstati tiene già conto del vincolo dell'energia, per cui tutto si semplifica e la distribuzione uniforme é la soluzione di massima entropia che soddisfa il vincolo. b) Nei successivi approcci di Boltzmann, quando la distribuzione di Maxwell non é più ottenuta attraverso la marginalizzazione della distribuzione sulla singola 47 molecola, bensì attraverso la ricerca del macrostato Z*più probabile da cui derivare in forma approssimata la distribuzione marginale Pr(k)= Error!, la ricerca della distribuzione di massima entropia assume un significato più combinatorio che probabilistico. Dato lo schema "N elementi su D molecole", vi sono più macrostati Z compatibili con i vincoli. Ricordiamo che Zk é il numero di molecole nello stato k, cioé Zk denota lo stato del k-mo oscillatore. Il numero di stati delle molecole contenuti in ogni Z é -1 W(Z)= Error!, e la probabilità di un Z é Pr(Z)= Error! . Il logaritmo di Pr(Z) é perciò proporzionale a lnW(Z*). Dato che Pr(N) é uniforme, lnW(Z*) é il valore dell'entropia probabilistica Pr(N| Z*), cioé l'entropia di tutti gli stati di particella compatibili con Z* . Dato che nell'approssimazione di Stirling Z* contiene praticamente tutti i microstati possibili, cioé Pr(Z*)≈1, Pr(N)≈Pr(N| Z*)Pr(Z*)≈Pr(N| Z*). Z* é lo stato degli oscillatori che si realizza quasi certamente, per cui il supporto di Pr(N) praticamente coincide con l'"evento" Z*. Ne consegue che la massimizzazione (combinatoria) di Pr(Z) equivale alla massimizzazione dell'entropia (probabilistica) della distribuzione Pr(N|Z). La definizione dell'entropia quale logaritmo del numero dei microstati compatibili col macrostato Z* nasce da questa approssimazione. c) Da un altro punto di vista, calcolare il massimo di lnPr(Z) con i vincoli Error!=D e Error!=N significa calcolare il massimo di ln Error!, che é proporzionale a D lnD-∑ZklnZk =∑Zk(lnD-lnZk) = -D∑Error!lnError!= D{∑pklnpk}, che é D volte l'entropia della distribuzione marginale di una molecola. Se si tien conto che nell'approssimazione di Stirling é contenuto il limite macroscopico, per cui gli stati delle molecole divengono indipendenti, allora Pr(N)=Pr(k1)·..·Pr(kD), e l'entropia di Pr(N) é D volte quella di Pr(k). Insomma, qui ci preme mostrare (come già precedentemente affermato) che il metodo del macrostato più probabile é un espediente approssimato per trovare la distribuzione di massima entropia (in senso probabilistico) per la singola particella, partendo dalla distribuzione di massima entropia delle descrizioni di stato. E' importante sottolineare che D{-∑pklnpk} é l'entropia (approssimata) della distribuzione congiunta delle configurazioni delle molecole, che vale esattamente ln(N+D-1;N) . Infatti se teniamo conto che Error!é una distribuzione geometrica pk=Apk=(1-p)pk, per k=0,1,...., il cui valor medio = Error!vale Error!, ovvero p= Error!, e 1-p= Error!, si ha 48 -∑pklnpk=-∑pk(klnp+ln(1-p))= -lnp-ln(1-p)=-ln Error!-ln Error!= = - ln+(1+)ln(1+). Seguendo il metodo probabilistico esatto, ln(N+D-1;N) ≈ NlnError!+DlnError!= =D{-ln+(1+)ln(1+)}, e questo senza passare attraverso il macrostato più probabile. Da questo breve escursus si può estrarre la seguente lezione: se la distribuzione di cui si vuol calcolare l'entropia é uniforme, il metodo del macrostato più probabile é un metodo di calcolo approssimato che fornisce l'entropia corretta nel limite macroscopico N,D>>1. Tenendo a mente tutto ciò torniamo a Brillouin, in particolare alle (29). Rammentiamo che in questo caso i microstati sono le descrizioni di stato n degli oscillatori, mentre i macrostati sono le classi d'equivalenza degli n rispetto all'energia. Consideriamo i microstati n compatibili con un macrostato N. Nei due casi quantistici ci troviamo nella stessa situazione di Boltzmann tradotta in "particelle su oscillatori". Infatti Pr(n|N)= Error!dà -1 PrBE(n|N) Error! -1 (32) PrFD(n|N)= Error! Le due distribuzioni "universali" (29) sugli stati n degli oscillatori sono uniformi (su due diversi supporti, ma ciò é inessenziale), e perciò continuano ad essere uniformi anche se condizionate a un macrostato N; il loro valore é quindi pari all'inverso del numero dei microstati ammissibili ; per cui il logaritmo dei numeratori delle (30) quantistiche sono esattamente l'entropia della distribuzione Pr(n|N). Completamente diverso é il caso MB. Prendiamo il caso di Boltzmann in cui gli elementi di energia siano indipendenti. Z contiene Error!descrizioni di stato N delle D particelle, ciascuna delle quali contiene Error!configurazioni degli elementi di energia, ciascuna delle quali ha probabilità pari a D-N. in tal caso Pr(Z)=Error!DN=Error!D-N, e lnPr(Z) sarà proporzionale a DlnD+NlnN-∑ZklnZk -∑Zkln(k!)≈D{∑Error!lnError!-∑Error!ln(k/N)} , dove il termine tra parentesi non rappresenta l'entropia della singola particella -∑pklnpk. . Qui la distribuzione "universale" sugli oscillatori (29) é sì di massima entropia, dato che pj=G-1, ma ciò non basta a renderla uniforme. Infatti l'entropia probabilistica di una multinomiale G-dimensionale con probabilità iniziale uniforme é complicata, cioé 49 S= -Error!, e non é vero che il macrostato più probabile é quello per cui * Pr(n|N ) ha l'entropia massima. D'altra parte sappiamo che la PrMB(n) é derivata dalla probabilità sulle configurazioni PrMB(x)=G-N, che é uniforme sul proprio dominio, che si restringe al numeratore della (30) subordinatamente a N. E' perciò evidente che il logaritmo del numeratore della (30) classica é esattamente l'entropia della distribuzione Pr(x|N), cioé il macrostato più probabile é quello che contiene il più grande numero di distinte configurazioni, quello cioé per cui Pr(x|N*) ha l'entropia massima. Da questo punto di vista, nel massimizzare la probabilità del macrostato, Brillouin massimizza l'entropia degli oscillatori nei casi quantistici, e l'entropia delle particelle nel caso classico. Il tentativo di unificazione delle statistiche subisce perciò un brusco arresto, dovuto ad una definizione dell'entropia sempre approssimata (perché calcolata col metodo del massimo) e in certi casi sbagliata. Entropia delle particelle o entropia degli oscillatori? Per distribuzioni scambiabili vale Pr(y)=Error!Pr(n), per y e n compatibili. Se parliamo di configurazioni di particelle identiche, Pr(x)=Error!Pr(n) vale quale che sia il processo concreto. Consideriamo l'entropia delle configurazioni S{Pr(x)}=Error!. Se raggruppiamo gli x per ogni n, e poi sommiamo su n, abbiamo S{Pr(x)}=-Error!=-Error!= = -Error!, cioé S{Pr(x)}=S{Pr(n)} +lnN! -Error!. Questo risultato é esatto: se si trascura l'ultimo termine, e questo sarà lecito per una Pr(n) che assegna probabilità trascurabili a vettori n con componenti maggiori di 1 (gas diluiti), si ottiene: S{Pr(x)}=S{Pr(n)}+lnN! , che mostra nel modo più icastico la ragione profonda dell'introduzione del fattore lnN! nell'entropia delle particelle classiche per evitare il paradosso di Gibbs. Questo problema è automaticamente risolto nelle statistiche quantistiche, dove l'entropia é dall'inizio l'entropia degli oscillatori. Il paradosso di Gibbs mostra come sia necessario abbandonare l'entropia delle particelle ed abbracciare l'entropia degli oscillatori perché l'entropia termodinamica possa esser una funzione estensiva. Se noi pretendiamo che: 50 1) lo stato microscopico termodinamico (microstato) sia la descrizione di una sequenza di "individui" (oggetti fisici) ciascuno in un ben precisa "modalità" (stato); 2) lo stato termodinamico macroscopico sia una distribuzione di probabilità sui microstati; 3) l'entropia fisica sia l'entropia dello stato termodinamico, cioé della distribuzione di probabilità sui microstati; allora si può usare l'entropia fisica, che é una funzione dello stato termodinamico le cui variazioni sono misurabili con apparati macroscopici, per inferire qualcosa sulla nozione di stato microscopico termodinamico, che a priori ammette una pluralità di livelli di descrizione ( e quindi di "individui" e "stati") tutti logicamente coerenti. Dal paradosso di Gibbs e da queste premesse segue che l'approccio classico, basato sugli stati delle particelle, e quindi sulla densità nello spazio , sbaglia radicalmente il livello della descrizione del sistema fisico che é rilevante ai fini della termodinamica. La nozione di "indistinguibilità" é invocata per colmare la frattura insanabile che si viene a creare tra il microstato dinamico (un punto di ) ed il microstato statistico (una frequenza su Il fatto che lo stato degli oscillatori sia il livello di descrizione adeguato per la termodinamica non implica che gli oscillatori siano gli elementi ultimi della realtà, o che livelli più raffinati di descrizione vadano esclusi dalla pratica scientifica. Semplicemente vuol dire che ciò che davvero "si muove", o meglio che per muoversi richiede calore o lavoro, non sono le particelle intese come individui, ma sono gli stati degli oscillatori. L'informazione legata all'individualità delle particelle non si paga in termini dell'entropia termodinamica, che é indifferente alla particolare configurazione associata allo stato degli oscillatori. 51 Parte III. Le statistiche come processi parzialmente scambiabili Supponiamo allora che Brillouin abbia colto sostanzialmente nel segno, assumendo che le statistiche siano derivabili, almeno fino ad un certo punto, come particolarizzazioni di un medesimo processo scambiabile ed invariante. Assumiamo che il microstato termodinamico sia il vettore n, che descrive lo stato degli oscillatori, e che lo stato macroscopico sia la distribuzione di probabilità sugli stati degli oscillatori Pr(n|H), dove H sia un insieme di parametri che contenga l'insieme dei vincoli macroscopici. Assumeremo che l'entropia termodinamica associata allo stato macroscopico H sia S(H)-∑Pr(n|H)lnPr(n|H). Tra tutti gli stati macroscopici Pr(n|H) lo stato di equilibrio sarà la distribuzione Pr*(n|H) che massimizza S(H). Precisiamo perciò le condizioni probabilistiche che permettono la derivazione unificata non solo delle formule (31), ma delle distribuzioni di Gibbs per il gas perfetto. Distribuzione di equilibrio ad energia esattamente fissata. Consideriamo N particelle dotate di energia E=Error!j =Error!j =Error!, e supponimo che in generale la corrispondenza tra E ed N sia biunivoca. Il sistema sarà perciò nel macrostato N, ed il suo stato macroscopico sarà una Pr(n; N(E))15, cioé una funzione di probabilità definita solo per i microstati che rispettano il vincolo dell'energia. Ciò implica che ciascuna classe di oscillatori contiene esattamente Ni particelle. E' utile a questo proposito introdurre una notazione matriciale, dotando ogni oscillatore di due undici, di cui l'indice di riga i sia riferito alla classe, ed il secondo j sia riferito al particolare stato interno alla classe. Allora possiamo riscrivere i vincoli nel deguente modo: E=∑ijniji = ∑iNii, e dove Ni=ni.=∑jnij sono le frequenze marginali di riga della tabella n={nij}. Supponiamo di aver costruito il sistema immettendo nel volume N1 particelle di energia 1,..,ND particelle di energia D. Poiché tra le classi non vi é interazione, il processo di accomodamento si decompone in D processi di riga indipendenti tra loro, in ciascuno dei quali Ni 15Distinguiamo di nuovo Pr(n; H), in cui H é da considerarsi come un insieme di parametri che definiscono l'universo del discorso, da Pr(n|H) in cui H é considerato un evento, e in cui si lascia intendere che il dominio di Pr(n) é più ampio dell'insieme H. 52 eccitazioni si collocano su gi oscillatori. Ciascuno di questi sottoprocessi sia per ipotesi scambiabile ed invariante: con ciò intendiamo che quando l'i-mo processo é attivato (cioé aggiungiamo un'eccitazione di energia i) é regolato da una probabilità di crescita che dipende solo dallo stato della classe i. In questa ipotesi la probabilità di accrescimento dell'oscillatore (ij) della classe i al passo m+1-mo dipenderà solo dallo stato mi=(mi1,..,migi) dei gi oscillatori dell' i-ma riga, cioé Pr(ij|i,m)=: Pri(ij|mi), e varrà : Pri(ij|mi)=Error!, dove Mi =∑jmij indica il numero di passi già compiuti dell'i-mo processo, i=Error!é funzione del numero degli oscillatori della classe gi e del parametro di correlazione c (il "volume proprio" di Brillouin cambiato di segno), mij il numero di eccitazioni del j-mo oscillatore dell'i-ma riga, ed infine {pj|i}, j|i=1,..,gi, é la probabilità che il j-mo oscillatore venga occupato alla prima attivazione del i-mo processo. Resta da fissare la probabiltà di attivazione dello specifico i-processo, che considereremo dipendente solo dal macrostato M e chiameremo Pr(i|M). La probabilità che la prossima particella si accomodi sul j-mo oscillatore della i-ma classe, sarà perciò Pr(ij|m)= Pr(i|M)Pri(ij|mi)= Pr(i|M)Error!, (33) dove anziché Pri(ij|mi) potremo scrivere Pri(j|mi) senza tema di ambiguità. Il processo di crescita é così spezzato in due fattori: il processo macroscopico Pr(i|M), che dipende dalle condizioni al contorno della crescita e dalle manipolazioni sul (o preparazioni del) sistema, ed il processo microscopico Pri(j|mi)=Error!, governato essenzialmente dalla correlazione tra le particelle. Se la procedura di immissione é deterministica, cioé ad ogni passo si fissa l'energia dell'eccitazione entrante, allora Pr(i|M)=1 o 0 ad ogni passo, e la probabilità di una realizzazione dello stato finale n compatibile con N finale sarà ∏i Error!, e poiché il processo microscopico é scambiabile, il numero delle distinte realizzazioni equiprobabili é Error!....Error!. Per cui si avrà : Pr(n|N)=Error!, che si specializza in (33') -1 PrBE(n|N)=Error! per pj|i=gi-1e i=gi; PrMB(n|N) = Error! pj|i=gi-1e i=∞; 53 (34) -1 PrFD(n|N)=Error! per pj|i=gi-1e i=-gi, nij=0,1 =0 nij>1 Questo vale per ogni n compatibile col macrostato finale N. E' evidente che, nel caso in cui il macroprocesso non sia deterministico, per ogni vettore finale regolare N sarà ancora Pr(n|N) dato dalla (33'), mentre sarà Pr(n)=Pr(n|N)Pr(N). Naturalmente il generico processo di crescita effettivo Pr(ij|m)= Pr(i|M)Error!avrà proprietà che dipendono dalle condizioni al contorno, descritte passo-passo da P(i|M); possiamo però affermare che, se valgono le ipotesi che conducono alla fattorizzazione (33), il processo microscopico di crescita é scambiabile ed invariante subordinatamente ad ogni realizzazione del processo macroscopico. Il processo subordinato Ma tralasciamo queste considerazioni inessenziali per la nostra questione: ciò che importa é la forma generale di Pr(n|N)=∏iPr(ni|Ni), dove ni indica lo stato dei gi oscillatori della i-ma classe. Da questa é immediato ricavare l'espressione per l'entropia di un gas perfetto ad energia (o macrostato N) esattamente fissata: S(Pr(n|N))=∑iS(Pr(ni|Ni)), cioé l'entropia é additiva per le diverse classi di oscillatori. Questa é una diretta conseguenza della supposta conservazione dell'energia, che permette lo scambio di eccitazioni all'interno di ogni classe, ma impedisce lo scambio tra le differenti classi. Assumeremo che la distribuzione di equilibrio ad energia fissata sia quella che massimizza S(Pr(n|N)), cioé per ogni classe quella che massimizza S(Pr(ni|Ni)). Ora ricordiamo che Pr(ni|Ni) é la probabilità sulle possibili composizioni della popolazione risultante dopo Ni passi di un processo scambiabile invariante a gi modalità di parametro i e distribuzione individuale iniziale {pj|i}, per j|i=1,..,gi. Dato che il valore igi=c-1 é legato alla natura delle particelle (é un parametro), la massimizzazione dell'entropia della distribuzione Pr(n|N) riguarda solo {pj|i}. Come é forse immaginabile, si può dimostrare che la scelta {pj|i}* che rende massima S(Pr(n|N)) é {pj|i}*=cost= gi-1, cioé la distribuzione di massima entropia per ogni classe é quella che tratta allo stesso modo gli oscillatori della medesima classe. Le (31) sono perciò le distribuzioni di equilibrio ad energia fissata per i tre valori di igi=1,∞,-1 che corrispondono alle tre statistiche. In termini di gi/i=c si ha perciò 54 S1(Ni,gi)=: SBE(Pr(ni|Ni))= ln(Ni+gi-1;Ni) S-1(Ni,gi)=: SFD(Pr(ni|Ni))= ln(gi;Ni) (35) S0(Ni,gi)=: SMB(Pr(ni|Ni))=-Error!gi-Ni lnError!gi-Ni Come si vede i casi quantistici sono estremamente semplici: il logaritmo della molteplicità é esattamente l'entropia probabilistica della distribuzione sugli stati degli oscillatori condizionata al numero di particelle per classe. Per essi il cosiddetto postulato fondamentale della meccanica statistica, cioé l'equiprobabilità di tutti i microstati compatibili con l'energia totale, é soddisfatto. L'entropia degli oscillatori classici S0 é invece complicata. Naturalmente l'entropia delle configurazioni per le particelle classiche sarebbe molto più semplice: la condizione di equilibrio sarebbe la distribuzione equiprobabile per le giNi configurazioni, per cui l'entropia di questa distribuzione sarebbe SMB(Pr(x|Ni,gi))= ln(giNi) , che non é estensiva. Infatti, se si raddoppia il sistema (mettendolo in comunicazione con un suo "doppio"), ln{(2g)2N}=2N(lng+ln2)≠2Nlng. Il tradizionale fattore di correzione per particelle "indistinguibili " trasforma ln(gN) in lnError!≈Nln Error!, che é estensivo. Questo é esattamente il limite di S0(Ni,gi) per Ni<<gi; più precisamente é il limite di bassa densità dell'entropia per qualunque valore di c. Se volessimo ampliare la gamma dei sistemi a qualunque valore formalmente ammissibile di c, avremmo i seguenti risultati: l'unica distribuzione Pr(n|N) uniforme sul dominio di (N+g-1;N) valori possibili é la distribuzione B.E. (c=1); la distribuzione F.D.(c=-1) é anch'essa uniforme sul supporto di (g;N) valori, per cui nj=0,1; per ogni altro valore di c non si danno distribuzioni uniformi Pr(n|N), neppure su supporti ristretti; la distribuzione sulle particelle Pr(x|N) =g-N, corrispondente a c=0, é l'unica uniforme sul dominio delle dN configurazioni. La richiesta di equiprobabilità per i microstati si rivela quindi niente più che un idolo, cui si deve sacrificare il cambiamento di dominio tra il caso BE e quello FD, ed addirittura il cambiamento di livello di descrizione tra i casi quantistici ed il caso MB. Se i microstati sono gli stati degli oscillatori, il massimo di simmetria imporrà che questi siano trattati in modo equivalente se appartengono alla stessa classe; il loro stato di equilibrio sarà perciò quello con la massima simmetria compatibile con la correlazione c tra le eccitazioni . Questo vuol dire che la distribuzione di massima entropia dovrà essere ristretta alla famiglia di funzioni del tipo (33'). Questo ci sembra rendere esplicite le ragioni per cui Brillouin usò lo stesso livello di 55 descrizione (i microstati) per derivare la probabiltà dei macrostati, ma lo cambiò (forse inconsapevolmente) in modo surrettizio dai casi quantistici a quello classico nel calcolo della massima entropia della distribuzione. Torniamo al discorso generale: la distribuzione (33) con pj|i=gi-1 é perfettamente analoga alla distribuzione iniziale di Boltzmann '68, e cioé Pr(N)= -1 (N+D-1;N) . Le possibilità sono in entrambi i casi le descrizioni di stato degli elementi ultimi (le particelle in Boltzmann, gli oscillatori nella (30')) compatibili con l'energia totale E (=N in Boltzmann, = ∑Nii nella (33')). La principale differenza é che gli elementi ultimi in Boltzmann sono fisicamente equivalenti (essendo le molecole), mentre nella (33') sono ripartiti in D classi di equivalenza (essendo gli stati di diversa energia); inoltre la (33') generalizza ad ogni valore il parametro c=1 di Boltzmann '68. La probabilità é il risultato di un processo stocastico di accomodamento delle N eccitazioni: questo processo é scambiabile ed invariante in Boltzmann '68, solo parzialmente scambiabile ed invariante nella (33'). Entrambe le distribuzioni sono di massima entropia (perché trattano allo stesso modo gli elementi ultimi equivalenti), se nella (33) si pone per ogni classe pj|i=di-1per ogni ji. Le distribuzioni iniziali di Brillouin (29), o in forma compatta l'espressione Pr(n)=Error!, malgrado sia formalmente la generalizzazione più semplice di quella di Boltzmann, é in realtà una distribuzione "universale" su tutti i valori dell'energia, che tratta in modo simmetrico gli oscillatori appartenenti a diverse classi. La (33') o le sue specializzazioni (34) sono analoghe al metodo dell'insieme microcanonico, nel senso che non forniscono una relazione funzionale diretta tra l'energia del sistema ed il macrostato più probabile, ma permettono un calcolo diretto dell'entropia. Essendo poi basate sui livelli esatti E dell'energia totale, in principio non esiste una funzione continua E(N), e quindi una entropia S(E) derivabile: non esiste quindi una temperatura16. Intuitivamente ciò significa che, se un certo valore di 16Più esattamente si possono definire tante temperature quante sono le classi attraverso la relazione fondamentale Error!= Error! , dove il volume costante V mantiene costante il livello i. Dato che non si può variare l'energia della classe senza variare il numero delle eccitazioni (non esiste scambio di "calore" tra le classi se E é 56 E corrisponde ad uno stato del tipo (0,N,0,...) con popolazione completamenta invertita, allora le (34) descrivono l'equilibrio del sistema dato il macrostato. L'equilibrio delle (34) riguarda gli oscillatori entro le classi; é chiaro che il vettore stesso non é in equilibrio nel senso usuale del termine. Questo fatto esprime in modo semplice la cosiddetta complementarità tra energia e temperatura nella descrizione di un sistema fisico. Affinché la temperatura sia ben definita é necessario che l'energia fluttui, e viceversa. Nel metodo N* il problema non si pone, perché la rappresentazione approssimata N parla solo di sistemi macroscopici, e contiene sicuramente un intorno del macrostato (0,N,..) dove abbondano vettori in cui lo stato fondamentale é più popolato del primo eccitato. Ma torniamo al metodo esatto, e permettiamo fluttuazioni energetiche. La temperatura Supponiamo che lo stato macroscopico sia una mistura di stati ad energia definita17, cioé Pr(n;N)=Pr(n|N)Pr(N;N) (36) Il modello fisico tipico é quello di un sistema in contatto termico con un termostato; in un approccio "informazionale" o bayesiano Pr(N;N) potrebbe descrivere la distribuzione iniziale sullo stato energetico di un sistema isolato. Dal punto di vista probabilistico il mutamento essenziale consiste nell'ampliamento del dominio degli stati degli oscillatori, conservando come unico vincolo della somma totale delle eccitazioni pari a N. Supponiamo inoltre che la distribuzione (36) debba soddisfare la condizione macroscopica <E>=Error!=E, dove E é un valore fissato dell'energia interna termodinamica, cioé la media della variabile aleatoria microscopica E(n). Chiamiamo Pr(n;N,E ) un generico elemento di questo insieme di distribuzioni di probabilità, o stati macroscopici. Osserviamo che il parametro microscopico N limita il dominio degli stati microscopici ammissibili, mentre la condizione macroscopica perfettamente definita),una relazione analoga vale per il potenziale chimico , cioé Error!= Error! , cioé i=-i V 17Con la notazione che segue intendiamo evidenziare come il macrostato N si trasformi da parametro in evento, relativamente al quale si può condizionare la distribuzione Pr(n;N). Sarebbe più esatto scrivere Pr(n|N; N), ma ciò é ridondante poiché N contiene anche l'informazione N. Il fatto che all'equilibrio si abbia Pr(n|N)=Pr(n; N) date dalle (34) non é affatto scontato, come si vedrà tra poco. 57 <E>=E limita le distribuzioni sul dominio, cioé gli stati macroscopici. Conformemente a quanto ci proponiamo in generale, lo stato macroscopico di equilibrio ad N ed E fissati sarà l'elemento dell'insieme di Pr(n;N,E ) di massima entropia. Per il calcolo di S({Pr(n;N)})=S({Pr(n|N)Pr(N;N)}), la distribuzione "universale" Pr(n;N) si scinde nella la distribuzione "universale" sui macrostati Pr(N;N) e nelle distribuzioni subordinate Pr(n|N), una per ogni N. Per cui si ha S(N)= S({Pr(n;N)}) = -Error!= = -Error!= = - Error!+Error!= = ∑(N)+<S(N)> (37) dove ∑(N)=-Error!é l'entropia associata alla distribuzione sui macrostati e <S(N)> é la media ponderata delle entropie delle distribuzioni sui microstati condizionate ad N con pesi Pr(N;N). La (37) é l'entropia di un generico stato macroscopico a numero di eccitazioni N fissato. Cerchiamo adesso lo stato di massima entropia, restringendo l'insieme agli stati macroscopici con energia media pari a E. Osserviamo che nel presente contesto il metodo dei moltiplicatori di Lagrange viene applicato agli stati macroscopici (cioé alle distribuzioni di probabilità), e non ai macrostati N (che sono eventi, o frequenze). Dato che il vincolo probabilistico E =Error!=Error!opera solo sui macrostati, le soluzioni di massima entrapia per Pr(n|N) continuano ad essere le (34), e le loro entropie sono le (35). Non resta quindi che massimizzare la (37) rispetto a Pr(N;N) nella forma: - Error!=max, la cui soluzione generale é Pr*(N;N,E )Pr(N;N,=CeS(N)-E(N) (38) dove S(N) naturalmente dipende dalla correlazione delle particelle. La distribuzione di equilibrio sui microstati a temperatura -1 ed N fissati sarà perciò in generale: (39) Pr(n;N,)=Pr(n|N)Pr(N;N,)=CPr(n|N)eS(N)-E(N) Nei casi quantistici eS(N) é proprio il numero degli stati n regolari compatibili con N, per cui Pr(n|N)eS(N)=1, e si può scrivere Pr(n;N,)=Ce-E(n) (40) 58 che é la distributione canonica. Per ogni altro valore della correlazione la distribuzione di equilibrio é diversa da Ce-E(n). Di nuovo é formalmente possibile ricavare la distribuzione tradizionale per l'entropia delle particelle classiche (e non degli oscillatori ad eccitazioni indipendenti) se si considera l'entropia della distribuzione Pr(x|N) delle configurazioni, per cui ancora vale Pr(x|N)eSx(N)=1, e quindi per essa vale la distribuzione canonica Pr(x;N,)=Ae-E(x) (39') E' forse inutile ripetere che le entropie delle particelle, non essendo estensive, sono concettualmente escluse dalla trattazione termodinamica. Si può procedere allo stesso modo verso le distribuzioni grand-canoniche, considerando Pr(n)=Pr(n|N)Pr(N), con N=0,1,..., o alternativamente Pr(n) = Pr(n|N)Pr(N), per tutti gli N, togliendo cioé ogni limitazione al dominio degli stati degli oscillatori. In questo caso le condizioni probabilistiche saranno due, cioé Error! =N and Error!=E, dove ancora distinguiamo tra la variabile aleatoria microscopica N(n) ed il suo valor medio macroscopico N . Usando la rappresentazione Pr(n) = Pr(n|N)Pr(N), la condizione di massimo sarà la seguente: -Error!=max, da cui Pr*(N;N,E )Pr(N|,=AeS(N)+N(N)-E(N) (41) che (con ragionamento del tutto simile a quello visto sopra) fornisce le distributioni grand-canoniche per gli oscillatori di Bose e di Fermi e per le particelle classiche. Per ogni altro caso ed in generale sarà: Pr(n; ,)=Pr(n|N)Pr(N;,=CPr(n|N)eS(N)+N(N)-E(N) (42) Osserviamo che il metodo della distribuzione di probabilità (o stato macroscopico) di massima entropia é un metodo esatto, che vale anche per sistemi piccoli e senza alcun bisogno di "coarse-graining"; mentre il metodo del macrostato (o distribuzione di frequenza) più probabilile é un metodo approssimato che vale solo nel limite di sistemi macroscopici. Massimizzare sul simplesso delle distribuzioni di probabilità permette di operare con naturalezza con valori continui; cosa che non accade se si opera sulle frequenze, che sono numeri interi. Entropia assoluta ed entropia subordinata 59 Le tre successive distribuzioni Pr*(n;N)Pr(n;N,E), Pr*(n;N,E )Pr(N;N,)e Pr*(n;N,E )Pr(n;,) sono caratterizzate da valori esatti che divengono progressivamente valori medi, e da domini sempre più ampi. Possiamo pensare questa successione come un prolungamento di Pr(n;N) a domini sempre più vasti, con la proprietà che subordinatamente a N la funzione Pr(n|N) resti la stessa Pr(n;N). La distribuzione di massima entropia non é perciò qualsiasi distribuzione che soddisfi i vincoli macroscopici, ma é una distribuzione tale che Pr(n|N) sia della forma (33), con correlazione fissata dalla natura delle particelle. Non é infatti una novità ricavare le distribuzioni di Gibbs applicando il principio della massima entropia: quale che sia l'insieme degli stati, l'entropia -∑statiPr(stato) lnPr(stato) é massima ad energia media fissata per Pr(stato)~exp{-E(stato)}, ed anche il caso grandcanonico segue immediatamente[17]. La potenza del metodo é però pari alla sua indeterminatezza: per essere operativo (calcolare cioé la funzione di partizione) esso richiede che si specifichi il dominio, cosa che si fa al solito modo, via distinguibilità o meno, e poi principio di esclusione. E' ovvio che questo metodo contiene comunque l'ipotesi implicita della equiprobabilità degli stati a parità di energia, che é vera solo per gli oscillatori quantistici e per le particelle classiche. La distribuzione grancanonica può essere raggiunta anche con un metodo alternativo a quello del prolungamento e dell'entropia condizionata: é il metodo della marginalizzazione, che segue esattamente la via aperta da Boltzmann nel 1868. 60 Boltzmann 1868 rivisitato. Ripartiamo dalla (33'), che scriviamo per pj|i=gi-1e i=c-1gi Pr(n|N)=Error!, che é la generalizzazione delle (34), ed assumiamo che il nostro sistema sia costituito da una collezione di f>>1 sistemi fisici identici, ciascuno con di=gi/f oscillatori della classe di energia i, in grado di scambiarsi eccitazioni. Concentriamo l'attenzione su uno di questi sistemi, ed indichiamo con m ed M lo stato dei d=G/f oscillatori e delle loro frequenze marginali secondo il seguente schema: 1,...,d1; d1+1,...,g1 .... .... 1,...,di; di+1,.....,gi ... ... 1,...,dD; dD+1,..,gD _________________ d=∑di; G-d G=∑gi =fd Poniamo c=1, ed otteniamo la distribuzione sull’intera tabella -1 PrBE(n|N)=Error! : questa probabilità é esattamente il prodotto di D distribuzioni di riga uguali alla (2) di Boltzmann '68. Studiare per una di queste -1 PrBE(ni|Ni)=(Ni+gi-1;Ni) la distribuzione dei di=gi/f oscillatori del nostro sottosistema significare rifare esattamente il processo di marginalizzazione di Boltzmann su di molecole. Per un singolo oscillatore varrà, nel limite macroscopico f∞, PrBE(k;i)= Error!, (43) dove i=Ni/gi, mentre i di oscillatori sono probabilisticamente indipendenti. Per xi= Error!la (43) diventa Pr( k; xi(i)) = (1-xi)xik . L'entropia dei di oscillatori é percio Si= disi, ed si= -∑kPr(k;i)lnPr(k;i)=-∑kPr(k;i){klni-(k+1)ln(1+i)}= = ilni+(1+i)ln(1+i) (44) 61 é l'entropia di un oscillatore di Bose in funzione del numero medio di eccitazioni i. L'entropia del sottosistema, quando il sistema grande é nel macrostato N, é perciò la somma delle entropie delle classi, che a loro volta sono la somma delle entropie dei singoli oscillatori. Allora S=∑iSi= ∑i disi = ∑i di{ilni+(1+i)ln(1+i)}, dove la sequenza {i}i=1,..,D é determinata univocamente dal macrostato N del sistema complessivo. Facciamo per un attimo astrazione dall'interpretazione di i come "media d'insieme" Ni/gi, e consideriamoli come parametri che fissano il numero medio di eccitazioni per oscillatore della i-ma classe del sottosistema. Naturalmente ∑dii=N e ∑diii=E, cioé il valor medio del numero di eccitazioni e dell'energia sono funzioni del vettore di parametri i. Non tragga in inganno l'apparente aspetto deterministico di questi vincoli: ad ogni vettore {i} corrisponde univocamente una distribuzione congiunta di dimensioni d1+..+dD=G/f=g sugli oscillatori del sottosistema, che fattorizza in g fattori a causa dell'indipendenza tra gli oscillatori. Quindi N =∑N(m)Pr(m), dove Pr(m)=Pr(k1)Pr(k2)..Pr(kg) e N(m)=k1+k2+..+kg , per cui Error!= Error!+..+ Error!, e lo stesso per il vincolo dell'energia media. La condizione S+N -E =max si decompone in D condizioni indipendenti sul vettore {i} si(i)+i -ii=max, ovvero Error!= -+i (45) che dalla (44) risulta essere, con T =-1and , - ln Error!= Error!. (46) La distribuzione di massima entropia sarà perciò il prodotto di g distribuzioni del tipo (43), con i parametri * che sono soluzioni della (46), e cioè: i i*BE = Error! (47) Questa scelta determina completamente e senza alcuna approssimazione la distribuzione su tutti gli stati possibili dei g oscillatori del sottosistema. Questo stato macroscopico Pr(m;{i*}) Pr(m;T,) realizza la massima entropia sul sistema di g oscillatori quando le grandezze macroscopiche N ed E siano fissate. 62 Distribuzione microcanonica Se il meccanismo fisico di interazione che fissa i valori medi è il sistema grande, che funge da bagno termico e diffusivo, la distribuzione Pr(m; T,) si realizzerà se e solo se il sistema grande é nel macrostato Ni*=gii*, cioè valgono le (31) del metodo approssimato del macrostato più probabile. Se questo accade, il sistema grande ha energia fissata, ed un suo qualsiasi sottosistema è nello stato di massima entropia compatibile con i vincoli: possiamo allora affermare che il sistema grande é all'equilibrio. Attraverso questa via siamo perciò in grado di definire in modo esatto cosa si intenda per sistema isolato ad energia fissata in equilibrio macroscopico (non solo entro le classi, ma anche tra le classi): un sistema in uno stato macroscopico Pr(n;N) tale che la sua marginalizzazione su un sottosistema sia la distribuzione grandcanonica. Osserviamo che tale sistema é essenzialmente infinito, ed una sua trattazione rigorosa richiede l'uso di teoremi limite del calcolo delle probabilità. Distribuzione grandcanonica generalizzata; Il procedimento di Boltzmann '68 si generalizza immediatamente ad ogni valore della correlazione c nel dominio (-1, -1/2,..,-1/n,..,0,..,1/n,..,1 ), o meglio per m=c-1, a partire dalla (33'), con il risultato fondamentale m k Prm(k;i)=Error! Error! = m k = Error! Error! (43') che generalizza la (43) a tutti i valori c ( o m) ammissibili. In realtà la (43') é definita per ogni valore positivo di c, ma per sempificare la trattazione ci limitiamo al dominio |c-1| intero, che ci permette di liberarci delle funzioni . Il principio di esclusione generalizzato, che é il campo di ricerca delle cosiddette "parastatistiche", é rappresentato dai c negativi, dove m=|c-1| rappresenta il numero massimo di eccitazioni per oscillatore per cui la probabilità é positiva. I c positivi rappresentano crescenti valori di correlazione positiva, dall'indipendenza (c=0), a quella tipica della distribuzione geometrica (c=1). Essi trovano un primo esempio di applicazione fisica nell'interpretazione di un brillante esperimento di scattering di fotoni [8], in cui la correlazione é sostanzialmente pilotata dal rumore dello specchio. In ogni caso non si 63 tratta di termodinamica dell'equilibrio. La (43') é la descrizione dello stato di un oscillatore di frequenzai immerso in un bagno che fissa il numero medio di eccitazioni i; lo stato macroscopico di g oscillatori sarà il prodotto di g funzioni quali la (43') con i parametri adeguati. Le tre distribuzioni "fisiche" per un oscillatore all'equilibrio grandcanonico sono PrBE(k;i)= Error! k=0,1,...,n,.. PrFD(k;i)=ik(1-i)1-k k=0,1 =0 PrMB(k;i)= Error! k>1 k=0,1,...,n,.. con i fissato dal criterio della massima entropia della distribuzione g-dimensionale con vincoli ∑dii=N e ∑diii=E. L'entropia di un oscillatore risulta: siBE=-ilni +(1+i)ln(1+i) siFD=-ilni -(1-i)ln(1-i) siMB=-ilni +i+<lnk!>, dove <lnk!> é la media sulla poissoniana di parametro i. Se i<<1, allora <lnk!>≈0, e siMBsilow=-ilni +i, che é il limite i<<1 per ogni valore di c. I valori i* che massimizzano S=∑disi con i vincoli probabilistici ∑dii=N e ∑diii=E sono quelli per cui Error!= -+i, dove adesso, rispetto alla (45), l'entropia dipende dalla correlazione. Risolvendo nei tre casi si avrà un vettore i*=i*(c) per cui i*BE=i*(1) = Error! i*FD=i*(-1) = Error! i*low(c) = Error!, in cui i casi quantistici sono esatti, mentre il caso corrispondente all'usuale statistica di Boltzmann é in realtà il limite a bassa densità per ogni valore di c. Per |c|≠1 l'entropia esatta di un oscillatore è l'entropia della (43'), che non é semplice da calcolare; però i*(c) é il valore per cui Error!= -+i. La (43') é la distribuzione marginale su ciascun oscillatore nel caso in cui il sistema grande sia nel macrostato N=(g11,..,gDD). Il procedimento di Boltzmann nel caso "elementi su molecole" ammetteva una sola distribuzione marginale, essendo le molecole tutte equivalenti; 64 trasferito sul nuovo livello di descrizione, il procedimento ricava tante distribuzioni marginali quante sono le classi degli oscillatori. Fluttuazioni La distribuzione (43') contiene tutte (e sole) le proprietà di ogni oscillatore con correlazione c subordinatamente al parametro i. Per c>0 la (43') é una distribuzione binomiale negativa [18] di parametri c-1=m e x=Error!, cioé Prm(k; )=(m+k-1;k) (1-x) m xk k=0,1,.. i il cui valor medio é E{k}=mError!=i e la cui varianza é Var{k}=E{(k-E{k})2}=mError!= i(1+m-1i)=i(1+ci), in cui c modula con continuità il "termine ondulatorio" i2, nullo per eccitazioni indipendenti ed unitario per i bosoni. Per c<0, ricordando che (x+k-1;k) = (-1)k(-x;k) , e che il significato di m =|c-1| in questo caso é quello di numero massimo di eccitazioni per oscillatore, é bene definire x=Error!, per cui la (43') diventa: Prm(k;i)=(m;k) (1+x) -m xk, k=0,1,...,m, che con l'ulteriore sostituzione Error!=m-1i=p diventa la bernoulliana Prm(k;i)=(m;k) (1-p) m-k pk, k=0,1,...,m, il cui il cui valor medio é E{k}=mp=i e la cui varianza é Var{k}=mp(1-p)= i(1-m-1i)=i(1-|c|i). Naturalmente per due oscillatori vale l'indipendenza, il che implica Cov{k1k2}=E{k1k2}-E{k1}E{k2}=0, per cui i momenti del primo e del secondo ordine sono espressi dalle medesime formule per ogni c ammissibile: Ec{k}=i; Varc{k}=i(1+ci); Covc{k1k2}=0 65 Ricordiamo che queste formule sono il limite termodinamico della distribuzione per un oscillatore di una classe di d oscillatori equivalenti con n eccitazioni in tutto, per cui vale Ec{k; n,d}=Error!=; Varc{k; n,d}=Error!+Error!, dove c é il coefficiente di autorilevanza, che vale c=1+c Error!. Con questa sostituzione si ha: Varc{k; n,d}=Error!+Error!c, e la convarianza é negativa, a causa del vincolo dell'eccitazione totale pari a n: Covc{k1k2; n,d}=- Error!Varc{k; n,d}, ed il coefficiente di correlazione di Bravais é anch'esso negativo: Rc{k1k2; n,d}=(Varc{k1; n,d}Varc{k2; n,d})-1/2 Covc{k1k2; n,d}= =- Error! La potenza del limite termodinamico (o limite grandcanonico, che é la generalizzazione del limite di Poisson a processi correlati) sta proprio nell' annullare la correlazione tra gli oscillatori facendo crescere d, e nel far crescere n in ugual misura, cosicché n/d resti invariato. Il coefficiente di eterorilevanza (c)=Error! perde significato, perché tende ad 1 quale che sia c, mentre il coefficiente di autorilevanza c tende a 1+c, cioé a 0 per i fermioni , a 1 per le eccitazioni classiche, ed infine a 2 per i bosoni. I limiti continui di Boltzmann sono applicabili solo nella regione c≥0, e forniscono per la (43') la densità di probabilità di ottenere lo stato energetico x quando i cresce ed i diminuisce, in modo che ii=u sia costante: Prm(k;i)Prm(x;u)=(x; ), con =m e =Error!, dove u=ii , cioé: m Prm(x;u)=Error! xm-1exp{- Error!} che per m=1 é la distribuzione ricavata da Boltzmann nel 1868. Ricordando che per (x; ) vale E{x}=Error! Em{x}=u Varm{x}=Error!=cu, che rende evidente la scoperta di Boltzmann secondo cui per elementi indipendenti (c=0, ovvero m=∞) Prm(x;u) (x-u), cioé tutta la probabilità si concentra sul valor medio. 66 Parte IV.Processo di crescita ed equilibrio Le formule (33) che forniscono Prc(n|N) sono in grado di ricostruire la termodinamica dell' equilibrio di un gas di particelle identiche: questo é evidente per le considerazioni seguenti. Il nostro modello si basa sulla descrizione delle realizzazioni del processo di crescita del sistema, a partire dalla condizione iniziale di vuoto, e con le condizioni al contorno che determinano il macroprocesso Pr(i|N). Il caso (irrealistico) più semplice é quello in cui ad ogni passo il valore iN+1 é fissato con certezza, il che implica che il controllo sull' energia totale del sistema é deterministico passo dopo passo. Chiameremo perciò deterministico questo macroprocesso. Come sappiamo il processo microscopico Pr(ij|n) fattorizza in D processi subordinatamente scambiabili ed invarianti, caratterizzati dal medesimo parametro di correlazione c e dalle D distribuzioni individuali iniziali {pj|1},.., {pj|D}. Queste ultime sono le probabilità iniziali che le particelle occupino un particolare oscillatore della classe, quando il processo di classe si attivi per la prima volta. Noi supponiamo che il controllo sulle micro-accomodazioni durante la crescita sia nullo: con questo intendiamo che la manipolazione esterna si limiti a fissare l' energia della particella entrante, lasciando alla correlazione tra le eccitazioni degli oscillatori della stessa classe il compito di guidare la particella sul particolare oscillatore. Porremo perciò che per ogni i=1,..,D valga {pj|i}j=1,..,di=di-1: il sistema perciò crescerà in modo che ad ogni passo sia in equilibrio, cioé valgano le (31). A questo punto le particelle già accomodate nel sistema sono considerate non interagenti, sicché ogni scambio di eccitazioni tra gli oscillatori é congelato. L'unica interazione ammessa é quella che la particella entrante subisce dall'insieme delle particelle già accomodate nella medesima classe di oscillatori cui essa é destinata. Un processo deterministico con probabilità iniziali di classe uniformi sarà perciò il più semplice esempio di processo di crescita “reversibile”, cioé un processo che ad ogni passo genera una distribuzione di probabilità sui microstati Pr(n) uguale a quella di equilibrio nella situazione data. Un generico processo di crescita reversibile avrà perciò la forma Pr(ij|n)=Pr(i|N)Pr(j| ni), con Pr(j| ni)=Error!. La crescita canonica 67 Il macroprocesso Pr(i|N) più interessante riguarda la crescita di un sistema in contatto termico con un termostato. In questo caso si può supporre che la manipolazione esterna si limiti all'immissione di una particella, mentre l' energia di accomodamento sia fissata dal termostato. Cioé: all' atto dell'immissione di una nuova particella, essa viene indirizzata alla classe i secondo la legge Pr(i|N;), dopo di che la microaccomodazione é ancora guidata da Pr(j|ni). Rispetto alla crescita deterministica, il controllo manipolatorio sul sistema é minimo (si limita all'immissione di particelle), mentre sia il macro- che il micro-processo sono regolati da elementi del mondo fisico. La crescita canonica reversibile sarà quella che genera ad ogni passo la distribuzione canonica Prc(n;N,), dove N=1,2,... e =T-1 é costante. Come abbiamo già anticipato in modo qualitativo, il processo Pr(ij|n;)=Pr(i|N;)Pr(j|i,ni) non é scambiabile, mentre lo é subordinatamente ad ogni macrorealizzazione (i1,..,iN). Visto in astratto, Pr(ij|n;) é l'elemento di un operatore che trasforma la distribuzione di equilibrio Prc(n;N,), con ∑nij=N, nella Prc(n';N+1,), con ∑nij'=N+1. Vediamo la cosa più in dettaglio. Processi di crescita e matrici di creazione Limitiamoci ad una classe di d oscillatori equivalenti con c>0. Consideriamo il teorema delle probabilità totali Pr(n)= ∑j Pr(j|n-j)Pr(n-j), (48) che connette la probabilità dei vettori della distribuzione ad n particelle con quella dei vettori ad n-1 particelle. Al solito indichiamo con n-j il vettore (n1,..,nj-1,...nd). Poiché vi sono W(n;n,d)=(n+d-1;n) equazioni (48), riscriviamo Pr(j|n) nel modo seguente: Prn(j,n)= Error!, e consideriamola quale elemento di una matrice An(j,n) che opera su vettori colonna n e li trasforma in n+j, dove n+j= (n1,..,nj+1,...nd). Svincoliamo il simbolo n dal numero totale di particelle, che verrà richiamato dall'indice n nelle funzioni di probabilità. Cioé in Prn(n) e Prn(j,n) si intenderà ∑nj=n. Consideriamo il caso più semplice d=2: allora n=(m,n-m), ed i valori possibili Wn(n) sono i distinti valori di m, m=0,1,.., n. La generica equazione (48) sarà Prn (m)=Prn-1(1|m-1)Prn-1(m-1)+Prn-1(2|m)Prn-1(m), 68 dove m indica l' eccitazione xn-1 dell'oscillatore 1 al passo n-1, ed n-m quella dell' oscillatore 2 (per cui é inutile introdurre il simbolo della corrispondente variabile casuale). Se c=1, l' insieme{Prn-1(j,n)}={An-1(m',m)} può essere rappresentato dalla seguente matrice a n+1 righe e n colonne: m’ \m Prn-1(0) Prn-1(1) Prn (0) Error! 0 0 Prn (1) Error! Error! 0 Prn (2) 0 ... Prn (n-1) Prn (n) 0 Error! ... 0 Prn-1(2)......Prn-1(n-2) Prn-1(n-1) ...........0 0 ...........0 0 Error! ........... 0 ... 0 0 0 ... ..... .... 0 ............Error! Error! ............0 Error! 0 La matrice, essendo (n+1) x n, ha due pseudodiagonali (una sopra ed una sotto) con termini diversi da zero: i termini sopradiagonali sono quelli con m=m', e quelli sottodiagonali sono quelli per cui m'=m+1. La somma dei valori di ciascuna colonna é pari ad 1. Il termine An-1(m',m) rappresenta la probabilità di transizione dallo stato xn-1=m allo stato xn=m'. Perciò An-1(m,m) é la probabilità che la prossima particella si accomodi sull' altro oscillatore essendo il nostro nello stato x n-1=m, mentre An-1(m+1,m) é la probabilità che la prossima particella si accomodi sul nostro oscillatore nello stato m. Le uniche transizioni regolari sono mm e mm le altre sono di probabilità nulla per le condizioni cinematiche. In generale per ogni c si avrà An(m',m)=Error!{c(n-m)+1}(m'-m)+ {(cm+1)(m'-m-1}, =Error!{c(n-m')+1}(m'-m)+ {c(m'-1)+1}(m'-m-1} c=2/perm'=0,..,n+1 e m=0,..,n. Naturalmente per c negativo, |c-1|=k, la matrice sarà definita solo per m e m'≤k, e quindi per n ≤ kd; per c=0 tutti i termini non nulli valgono Error!, come é lecito attendersi dall'indipendenza. 69 E' facile vedere che la sequenza An-1An-2..A0 applicata al vettore di probabilità iniziale Pr0(0)=1 fornisce proprio ∏n={Prn(n) per ogni n:∑nj=n} nella forma (23), che é la distribuzione di equilibrio di una classe di oscillatori equivalenti18. Processi di svuotamento e matrici di distruzione La matrice che crea una particella nel sistema descritto da ∏n-1 é An-1: essa trasforma ∏n-1 in ∏n, a partire dal processo fondamentale scambiabile, invariante ed equivalente per gli oscillatori. La matrice che distrugge una particella del sistema descritto da ∏n e lo trasforma nello stato ∏n-1 sarà Bn, e vogliamo che sia anch' essa costruita sulla base del medesimo processo. Se il sistema é nel microstato n e noi osserviamo una particella in modo che tutte le sequenze di osservazione senza Prn(n) nel caso di due soli oscillatori equivale a {Prn(m)}, m=0,1,.., n che descrive l' oscillatore 1; Prn(m) é un vettore colonna normalizzato ad n+1 componenti. Per n=0 ha una sola componente, e la sua forma é (1), che traduce la condizione iniziale Pr0(m=0)=1; per n=1, Pr1(m) ha due componenti Pr1(0) e Pr1(1). A0 é la matrice degenere a 2 righe e 1 colonna A0=(1/2;1/2) , che applicata a (1) (lo scriviamo così per indicare il vettore normalizzato ad 1-dim) ottengo P1= (1/2;1/2) , che non dipende dalla correlazione. Per c=1 (caso B.E.) si ha A1(1)=( 2/3;0;1/3;1/3;0;2/3 ) , che applicata a P1(1)= (1/2;1/2) dà P2(1)= (1/3;1/3;1/3) ; nel caso F.D. A1(-1)=( 0;0;1;1;0;0 ) trasforma P1(1)=(1/2;1/2 ) in P2(1)=( 0;0;1;1;0;0 )(1/2;1/2) =(0;1;0) ; nel caso classico (c=0), A1(0)=( 1/2;0;1/2;1/2;0;1/2 ) trasforma (1/2;1/2) in P2(0)=(1/4;1/2;1/4) . In generale A1(c)=Error!trasforma Error!in P2(c)=Error!. Già al secondo passo, quando la correlazione inizia ad operare, si vede che c=1 é il valore che separa le distribuzioni “convesse” (che tendono ad avere un massimo al centro ) da quelle “concave”, che tendono ad avere due massimi ai bordi. I valori c>1 indicano correlazione superbosonica. Il valore di F.D. c=-1 é evidentemente la massima correlazione negativa possibile. Anche se P1 fosse diverso da (1/2;1/2 ), varrebbe A1(-1)P1 =(0;1;0) . 18 70 ripetizione siano equiprobabili (potrebbe essere il processo u di pag. 8), allora Pr(j,n)=Error!, e le relazioni tra le distribuzioni sono: Prn-1(n)= ∑jPrn(-j,n+j)Prn(n+j), mentre il sistema lineare é rappresentato dalla seguente matrice: Bn =Error! Bn é una matrice a n righe e n+1 colonne, che non dipende da c. La somma dei valori di ciascuna colonna é ancora pari ad 1. Questo processo descrive lo svuotamento di un sistema di n particelle, preparato nello stato ∏n, in cui la sottrazione di ogni particella presente ad ogni passo è equiprobabile dato n. Mentre attraverso An procedevamo al passo successivo, qui con Bn procediamo a ritroso di un passo. Se immaginiamo l' insieme dei punti del diagramma del processo come dominio della famiglia di distibuzioni ∏n, n=0,1,... (0,2) u (0,1) q t (0,0) (1,1) s p (1,0) r (2,0) i termini p, q,.. rappresentano le probabilità di transizione per il processo di crescita (processo di creazione). Indichiamo con p', q', ... le stesse probabilità di transizione, ma per il processo inverso di svuotamento (processo di distruzione). Cioé, se p=Prn(+j,n), cioé p: nn+j, allora p'=Prn+1(-j,n+j), cioé p' : n+jn. Se ∏n é la distribuzione di equilibrio, allora é immediato dimostrare che in generale 71 Prn+1(-j,n+j)=Error!, cioé la probabilità di estrarre una particella nello stato j é pari al numero di particelle in quello stato ( e cioé nj+1) diviso il numero totale n+1. Questa é una conseguenza della versione finita del teorema di deFinetti, che afferma che ogni distribuzione scambiabile finita é una mistura di processi ipergeometrici[19]. Lo stesso risultato si ottiene se si impone il principio del bilancio dettagliato alle due transizioni, cioé Prn(n)Prn(+j,n)=Prn+1(n+j)Prn+1(-j,n+j), dove Prn(n) e Prn+1(n+j) sono i valori di equilibrio e Prn(+j,n) é la transizione del processo di crescita reversibile. Naturalmente B1...Bn-1Bn ∏n=∏0, per cui, se ∏n é di equilibrio, allora ad ogni passo si ritrova la corrispondente distribuzione di equilibrio. Se ad esempio c=1 e ∏n=(1/(n+1);..;1/(n+1)) , allora Bn ∏n =∏n-1=(1/n;..;1/n) . Se cioé lo stato iniziale é di equilibrio, allora tutti gli stati attraversati saranno di equilibrio. Alcuni esempi di matrici di distruzione per c=1 sono le seguenti: B1= (1 1) B2= Error! B3=Error! Processi di riaggiustamento In termini delle matrici An e Bn siamo in grado di definire una matrice Cn=An-1Bn, che, applicata allo stato ∏n, rappresenta la distruzione e la successiva creazione di una particella. Le condizioni sopra discusse su An e Bn equivalgono a supporre che l' estrazione imponga la correlazione ipergeometrica a tutte le particelle (dipenda cioè dalla preparazione), mentre la creazione avrà la correlazione propria di ciascun tipo di particella (la preparazione ammette una nuova particella, ma la sua destinazione dipende dalla correlazione intrinseca). E' chiaro che applicare Cn allo stato ∏n equivale ad introdurre un'evoluzione dinamica del sistema, in cui ad ogni applicazione corrisponde la possibilità per una particella di passare dallo stato i allo stato j; cioé gli oscillatori della medesima classe si scambiano una eccitazione. In due dimensioni Cn é una matrice bistocastica quadrata (n+1)x(n+1); applicata allo stato di equilibrio ∏n, lo lascia inalterato per costruzione. Infatti Cn∏n=An-1Bn∏n =An-1∏n1=∏n. Cioé ∏n é l' autovettore destro di Cn. La matrice Cn in generale dipende dal parametro di correlazione c. Il termine diagonale Pr(mm) é la somma di due vie: 72 estrazione e ri-immissione sul primo oscillatore (con m eccitazioni) e sul secondo (con n-m). Perciò vale: Cn(m,m)= Error!+ Error!= Error!{m2 + (n-m)2+ n(c-1-1)}. Il termine sopradiagonale Pr(mm-1) consiste esclusivamente nell' estrazione dal primo e nella ri-immissione sul secondo. Per cui vale: Cn(m-1,m)= Error!= Error!m(n-m+c-1); per il termine sottodiagonale Pr(mm+1) vale il processo opposto: Cn(m+1,m)= Error!= Error! Che la matrice sia stocastica, cioé ∑m'Cn(m',m)=1, é evidente dall'interpretazione delle quattro possibilità prima elencate, che sono i quattro modi cinematicamente possibili di evoluzione dello stato (m,n-m). Per le limitazioni nel caso c<0 vale quanto detto a proposito delle matrici di crescita. Le pulci di Ehrenfest generalizzate Le precedenti considerazioni sulle matrici di creazione, distruzione ed evoluzione sono state fino ad ora riferite alle distribuzioni di equilibrio ∏n. Nulla ci vieta di pensare le stesse matrici applicate a stati Pn qualsiasi e studiarne l' evoluzione. Omettiamo l'indice n ed introduciamo l' indice temporale t=0,1,..., tale che P0 sia lo stato preparato inizialmente e che Pt sia lo stato risultante da t applicazioni della matrice C. La formula Pt =CPt-1 rivela che l'evoluzione dello stato é markoviana omogenea, e che pertanto P∞ =∏. Da Pt =CPt =CnP0, si ha che C∞ é una matrice con le righe costanti ed uguali a Pr(n) per ogni n. Il processo di evoluzione per ogni valore c della correlazione é una generalizzazione del famoso processo delle pulci di Ehrenfest. Questo processo, noto come l' "Ehrenfest urn model", fu introdotto dagli Ehrenfest nel 1907[20], ed è noto anche come il modello dei cani e delle pulci. Esso ha un ruolo euristico fondamentale nel tentativo di conciliare la nozioni meccaniche di "reversibilità" e "ricorrenza" con la nozione termodinamica di "irreversibilità". Esso é citato universalmente (si veda [21]) come appunto un modello euristico, cioè un' analogia utile ma insufficiente per fondare una soddisfacente teoria dell' approccio all' equilibrio. 73 Vi sono due cani con n pulci in tutto, di cui m sul primo e n-m sul secondo, ed ad ogni passo viene scelta una pulce " a caso" (cioé in modo equiprobabile) e la si cambia di cane. E' sufficiente la variabile casuale m: la probabilità della transizione mm' sarà data da En(m',m)=Error!{m [m'-(m-1)]+ (n-m) [m'-(m+1)]}, che sintetizza Pr(mm-1)=Error!; Pr(mm+1)=Error!. In forma matriciale En é una matrice stocastica quadrata di dimensione n+1 En= Error! la cui diagonale é nulla perché il meccanismo impone che Pr(mm)=0. Se confrontiamo questo processo con quello regolato da Cn(0), cioé l' evoluzione dinamica di particelle indipendenti, abbiamo Cn(0)= Error!=Error!En+Error!In , dove In é la matrice identità. L' unica apprezzabile differenza tra i due processi é dovuta alla cinematica (noi ammettiamo le transizioni mm vietate dagli Ehrenfest ); é chiaro che i due processi hanno lo stesso autovettore destro, cioé lo stesso stato di equilibrio P∞ =∏, che é la distribuzione bernoulliana Pr(m)=(n;m) 2-n. Se noi adesso consideriamo le matrici generiche Cn(c), tutto si potrà ripetere allo stesso modo: quale che sia lo stato iniziale P0(c), lo stato P∞(c)=Cn(c)∞P0(c) sarà ∏n(c) dato dalle (23). Le ipotesi adottate ci consentono quindi di dare un' interpretazione dinamica (in senso probabilistico) alle distribuzioni di equilibrio. 74 Cenni al processo markoviano verso l'equilibrio. Riassumendo quest'ultima parte, consideriamo un sistema di oscillatori con N eccitazioni nello stato macroscopico Prc(n;), dove rappresenti un vincolo macroscopico (un setto, un campo di forze esterno,...) che venga rimosso al tempo t=0, in cui solo l' energia E(N)= ∑Nii risulti fissata. Lo stato al tempo t=0 sia perciò Prc(n;N) = Prc(n,t;N)t=0=PN(0), e sia lasciato evolvere dalla dinamica probabilistica. Poiché ad energia perfettamente fissata lo stato PN fattorizza in PN1..PND , cioé Prc(n; N)=∏iPrc(ni; Ni), possiamo supporre che lo stato di ciascuna classe di oscillatori evolva in modo markoviano omogeneo con matrice di transizione CNi che dipende dal numero di oscillatori gi, dal numero delle eccitazioni Ni e dal parametro di correlazione c. E' perciò chiaro che lo stato di equilibrio sarà di nuovo il prodotto di D stati della forma (23). La matrice dell' evoluzione dello stato completo Pn é decomponibile a blocchi, poiché ciascuna classe evolve in modo indipendente, cioè: CN =( CN1;0;..;0;0;CN2;..;0;..;..;..;CND ) , PN =(PN1;PN2;..;PND) Se il sistema, inizialmente nel macrostato N, è invece posto in contatto con un termostato a temperatura T=-1, allora nella matrice CN compariranno termini fuori diagonali, corrispondenti a transizioni tra le classi che non conservano l’energia del sistema: il processo non sarà perciò decomponibile in blocchi, e quale che sia Pr(N) iniziale si dovrà ottenere alla fine la distribuzione canonica. 75 La probabilità E' ben noto come la confusione tra le nozioni di probabilità e di frequenza relativa abbia regnato a lungo nell'ambito delle scienze sperimentali, in particolare nella statistica e nella meccanica statistica. L'identificazione dei "casi favorevoli sui possibili" (di natura logica) con le "osservazioni positive sul totale" (di natura empirica) ha avuto come conseguenza l'impossibilità di affrontare la probabilità del caso singolo, costringendo per esempio a mascherare col concetto di "ensemble di copie mentali" lo spazio di probabilità dell'unico sistema fisico che si sta esaminando. La rinascita bayesiana in statistica ha rovesciato la questione, pagando però un pesante tributo ad opzioni soggettiviste, tali da rendere difficoltoso e parziale il reigresso di concezioni non frequentiste nella meccanica statistica[17]. Per parte nostra ci sembra superato dallo sviluppo stesso della statistica ogni atteggiamento dogmatico che pretenda di dividere il campo una volta per tutte. Per esempio il processo stocastico che si rivela così utile per la ricostruzione probabilistica delle statistiche delle particelle é nato e si é sviluppato tanto nell'ambito della concezione soggettivistica estrema di de Finetti quanto in quello della concezione logicista di R.Carnap, in ogni caso molto lontano dagli ambiti frequentistici della meccanica statistica tradizionale. Nel caso della crescita di un sistema fisico, é chiaro che l'immissione (la creazione) di una particella è analoga all' estrazione di una pallina da un'urna, o al lancio di un dado, o alla realizzazione di un esperimento le cui possibilità siano 1,..,d. Così la proposizione "Pr(xk=nk) = p" relativa allo stato del k-mo oscillatore dopo la realizzazione del processo di accomodamento di n particelle ha una struttura probabilistica analoga alla seguente: " in una sequenza di n lanci di monete la probabilità di uscita di k teste é p". Per un frequentista raffinato (alla von Mises) questa probabilità é la frequenza relativa nell'appropriato collettivo di M∞ sequenze di n lanci, o la frequenza relativa dei sistemi in cui si realizza x k=nk nell'ensemble appropriato. Essa non ha perciò senso se il collettivo non esiste, come nel caso in cui si parli del "prossimo" lancio di "queste" monete, cioé di un evento irripetibile per definizione. L'ensemble associato al lancio di n monete sarà un insieme molto grande di "repliche" del sistema di n monete, rappresentato su un insieme di 2n eventi elementari (tanti quanti sono i possibili risultati j=(j1,..,jn) di una sequenza di teste e croci lunga n), su ciascuno dei quali é definita una funzione j) 76 che indica il numero dei sistemi nello stato j. In questo contesto ipotetico, l' osservazione della frequenza "xk=nk" sul sistema fisico in esame può perciò riguardarsi come l' osservazione di un campione estratto “a caso” da una popolazione infinita, le cui unità statistiche sono insiemi di n lanci. Il numero di unità statistiche nello stato j sarà perciò j), e la composizione percentuale della modalità “j” sarà Error!;∑jj)). La probablità dell’evento osservato "xk=nk" sarà perciò uguale alla frazione di unità statistiche della popolazione fittizia in cui vale che il k-mo oscillatore è nello stato nk. Il fatto che gli stessi frequentisti ammettano che questa costruzione é insoddisfacente[23], congiunta al fatto che il campionamento da una popolazione di composizione data é pur sempre retto da ipotesi probabilistiche, rende la nozione di ensemble ( o di popolazione ipotetica infinita) sostanzialmente superflua per l'interpretazione della probabilità. Una volta che si rifiuti il dogma frequentista, si può tranquillamente ammettere che un'asserzione probabilistica può avere una pluralità di significati, situati al livello psicologico del "grado di fiducia", o al livello logico del "grado di conferma", o al livello fisico di "propensità", o infine al livello empirico di frequenza rilevata o attesa. Il fatto é che nessuna di queste interpretazioni esaurisce il termine "probabilità". Anche se identificassimo operativisticamente il significato con il metodo di determinazione della probabilità, non solo risolveremmo la pluralità di cui sopra (data la varietà dei metodi atti a determinarla), ma dovremmo alla fine concludere che ogni valutazione di probabilità é priva di qualunque significato. Ciò che invece ha un significato preciso é il controllo di un valore di probabilità (o meglio, di una distribuzione di probabilità), la cui validità può essere assunta per ipotesi, ed essere messa alla prova nei vari ambiti che ne costituiscono i diversi significati. Cioé: il significato di un' affermazione probabilistica é l' insieme delle conseguenze che se ne traggono quando se ne ipotizzi la validità. Questo vale in generale anche per le affermazioni deterministiche, sicché si può supporre che un'interpretazione del metodo scientifico basata sul binomio congetture-confutazioni faccia ormai parte della visione comune della scienza contemporanea. Notiamo però che un'affermazione deterministica può essere smentita da un solo controesempio, mentre l' affermazione "Pr(xk=nk) = p" non esclude alcuna delle alternative, che in generale sono (n+d-1;n) . Per cui la confutazione di un' asserzione probabilistica non sarà mai logicamente cogente allo stesso modo della confutazione di un'affermazione deterministica. Ciononostante la statistica ha elaborato metodi appositi, i cosiddetti 77 saggi di significatività, allo scopo di adattare alle proprie specificità (e trasferire nel proprio dominio di applicazione) la procedura di confutazione tipica della logica del certo. I famosi saggi del 2 di K.Pearson, del t di Student o il test esatto di Fisher sono gli esempi più noti di questa branca essenziale delle inferenze statistiche. Essi si basano sulla posizione di un'ipotesi nulla, sulla derivazione di una distribuzione campionaria su una funzione dei risultati, e sulla scelta di una zona di rigetto, che permette di falsare l'ipotesi nulla nel caso in cui il valore campionario osservato vi appartenga. Questi strumenti sofisticati sono tradizionalmente poco applicati alla Fisica, dove i numeri degli individui osservati (siano essi le particelle che compongono i sistemi fisici, o il numero delle successive osservazioni microscopiche contenute in ogni misura macroscopica) é spesso enorme. In tal caso lo strumento più importante per mettere alla prova in senso oggettivistico un’ affermazione probabilistica é offerto dall' applicazione della legge debole dei grandi numeri, la quale afferma che, sotto condizioni molto generali, date M realizzazioni stocasticamente indipendenti di una variabile casuale, per M∞ tende ad uno la probabilità che il numero delle realizzazioni con valore k non si discosti troppo da MPr(k). Nel caso del processo di accomodazione di n particelle sui d oscillatori, per M∞ tende ad uno la probabilità che il numero M(nk) delle realizzazioni in cui l' oscillatore k é nello stato nk non si discosti troppo da MPr(nk). Questo può essere inteso nel modo seguente: se esiste l'ensemble per il sistema in crescita (cioé se si dispone di M sistemi identici governati dalla stessa probabilità ed indipendenti tra loro) allora mi aspetto che, dopo aver introdotto n eccitazioni per ciascun sistema, per grandi M la frequenza relativa M(nk)/M sia molto prossima alla probabilità Pr(nk). Nel caso in cui si osservasse che questa frequenza diverge significativamente da Pr(nk) si sarebbe autorizzati a ritenere errate le assunzioni sulle probabilità operate nella descrizione del sistema. In conclusione: se M é enorme il controllo dell'ipotesi nulla é sostanzialmente simile al controllo di un'ipotesi deterministica. Questa procedura é una sorta di caso degenere dei metodi di controllo empirico per le ipotesi probabilistiche, sviluppati per numeri di osservazioni non necessariamente elevati, e basati sul principio (formulato principalmente da R.A.Fisher) secondo cui l' osservazione di eventi che l'ipotesi nulla valuta improbabili é una buona ragione per ritenere che l'ipotesi stessa non valga. Dato che per ragioni del tutto generali valori distanti dal valor medio dell' ordine della varianza sono poco probabili, più piccola é la varianza della distribuzione campionaria più vasto é il cosiddetto contenuto 78 empirico dell'ipotesi nulla. Lo schema delle osservazioni ripetute consente perciò di mettere alla prova distribuzioni campionarie ipotetiche di varianza dell' ordine di Error!, dove M é il numero delle ripetizioni. Questo schema, sicuramente sopravvalutato dai fisici ed in generale dai frequentisti, benché fondamentale non é l'unico: vi sono casi in cui una sola osservazione dell' accomodazione di n particelle é già sufficiente per mettere alla prova l'ipotesi nulla se n é grande (correlazione nulla o negativa, in cui la varianza della frequenza relativa é dell' ordine di Error!); alternativamente esistono schemi diversi dalle ripetizioni indipendenti, quali ad esempio processi di osservazione di Markov, che conducono a distribuzioni ipotetiche di varianza infinitesima. In ogni caso la funzione dell'insieme delle repliche indipendenti o delle catene markoviane é quella di mettere alla prova l' ipotesi probabilistica, non quella di dare un significato al termine probabilità. Per sintetizzare possiamo affermare che un' espressione probabilistica ha una pluralità di significati, molti dei quali non hanno nulla in comune con quello di frequenza relativa; se però essa vuol essere messa a confronto con l'esperienza, e quindi valutata come compatibile o no con lo stato del mondo di cui essa parla (e non per esempio con lo stato della mente di chi la afferma) deve essere messa a confronto con i risultati degli esperimenti cui si riferisce. Se vogliamo perciò che le nostre affermazioni probabilistiche possano essere sottoposte a controllo empirico, possiamo riferirle ad uno schema di osservazioni ripetute, le cui frequenze relative osservate siano in relazione con le probabilità affermate. Per essere ancora più precisi, consideriamo la trattazione probabilistica del più semplice oggetto fisico in grado di generare un processo stocastico di osservazione (una moneta lanciata ripetutamente ed analizzata secondo le modalità "testa" e "croce"): essa si basa sull'assegnare probabilità alle distinte sequenze di 0 e 1 che si possono ottenere nei lanci successivi. La probabilità di ciascuna sequenza sia determinata a partire dall' ipotesi nulla H0: "Pr(T1)=..=Pr(Tn)=..=1/2" &"le distribuzioni di diversi lanci sono indipendenti", che é la traduzione probabilistica corretta della frase del linguaggio comune "la moneta é giusta". Dall'ipotesi nulla segue la distribuzione campionaria Pr(k,n)=(n;k) 2-n, che fornisce la probabilità di osservare k teste in n lanci nell'ipotesi H0. Per mettere alla prova H0 faremo sì che la preparazione di ciascun lancio cancelli la memoria del risultato precedente: naturalmente nessuno ci potrà garantire che influenze nascoste non continuino ad operare, ma noi dovremo fare il possibile affinché l'ipotesi (probabilistica) di 79 indipendenza stocastica dei lanci trovi riscontro nella realtà. Iniziamo a lanciare la moneta, e arrestiamoci dopo 10 lanci: degli 11 valori di k possibili ve ne sono due (k=0 e k=10) la cui probabilità ipotetica per p=1/2 é 2-10=Error!≈ 1/1000. Ad un livello di significatità dell' ordine dell’ 1 per mille si può ritenere che solo questi due valori possano falsare l'ipotesi nulla. In altri termini qualsiasi valore di frequenza relativa tra 1/10 e 9/10 é compatibile con l'ipotesi di indipendenza e probabilità simmetrica al livello di significatività dell' 1 per mille. Ben diverso é il caso in cui il numero dei lanci sia per esempio dell' ordine di 1012: in tal caso l'ipotesi nulla impone probabilità dell'ordine dell' 1 per mille a tutte le frequenze relative che distino dal parametro p=1/2 di un valore dell'ordine di 10-5. Data la precisione di qualunque apparato di misura delle frequenze si scelga, al crescere del numero dei lanci qualunque valore di frequenza diverso da 1/2± avrà probabilità trascurabile, per cui la distribuzione campionaria sarà tutta concentrata sulla frequenza relativa 1/2. Per cui non risulta più necessario introdurre l'apparato specifico dei test di significatività (la statistica 2, la sua distribuzione campionaria, la zona di rigetto, il livello di significatività ,..): se analizzando un segmento molto lungo della sequenza si trova che la frequenza relativa delle teste é contenuta nell'intervallo p±dove p é ilvalore ipotizzato della probabilità di un singolo lancio Pr(T)=p, si può affermare che l'ipotesi nulla é corroborata dall' esperimento. Con ciò ci pare di aver chiarito le ragioni per cui in Fisica si fà molto spesso ricorso all'identificazione di probabilità e frequenza relativa, assumendo spesso rozzamente come definizione di probabilità un importante risultato del calcolo delle probabilità (la legge debole dei grandi numeri), per mezzo del quale si possono derivare distribuzioni campionarie ipotetiche che costituiscono un caso degenere della molto più generale procedura dei test di significatività19. Un' altra in apparenza profonda differenza tra metodi e modelli tipici dei fisici e quelli consolidati nella prassi statistica é il metodo dell'ensemble. A nessuno statistico verrebbe in mente di mettere alla prova l' affermazione Pr(T)=p sull'unica moneta 19Data la diffusa e spesso inconsapevole identificazione della probabilità con la frequenza relativa, l'esempio precedente della moneta potrebbe essere erroneamente considerato non un saggio di significatività (che é un'inferenza induttiva) ma una sorta di dimostrazione della sensatezza della definizione frequentista; tutto ciò rende evidente come non sia spesso semplice chiarire la struttura logica delle affermazioni probabilistiche in Fisica. 80 disponibile costruendo una popolazione reale di M∞ monete fisicamente identiche e lanciandole tutte contemporaneamente con la stessa preparazione ed in modo da evitare interazioni fisiche tra i lanci. In sintesi, la sequenza di variabili casuali da cui si estrae il campione normalmente si riferiscono ai tempi diversi in cui si esegue il medesimo esperimento sul medesimo sistema fisico. Perché la stessa cosa non si può fare per un sistema dinamico, osservandolo cioé a tempi diversi e considerando la successione delle osservazioni come la popolazione infinita che ne costituisce la traduzione in linguaggio statistico? E' chiaro che la frequenza relativa di osservazione di una modalità assume il significato di frazione di tempo in cui il carattere assume quella modalità, sicché (se valgono le condizioni per la legge dei grandi numeri) la probabilità di una modalità in un'osservazione é il limite della frazione di tempo in cui la sequenza assume quel valore. Se però il sistema ha una dinamica deterministica, e noi compiamo osservazioni successive sul sistema ad intervalli regolari, é concettualmente difficile supporre che le diverse realizzazioni del processo di osservazione siano indipendenti! In particolare, se la sequenza delle osservazioni inizia con la determinazione dello stato meccanico microscopico, allora tutte le successive osservazioni sono in principio assolutamente determinate. Se invece le osservazioni sono meno raffinate, e si limitano a stabilire un peso iniziale sui punti dello spazio delle fasi , allora é possibile seguire l' evoluzione deterministica di ciascun punto e di nuovo derivare il peso ad ogni tempo. Insomma, la sequenza delle osservazioni é visto come un problema tipicamente dinamico, agli antipodi di ogni trattazione probabilistica. In termini statistici, il campionamento é effettuato dalla dinamica. Ciò significa che la procedura tipicamente statistica per indagare la popolazione nel modo "il più casuale possibile" viene affidata ad un algoritmo in principio deterministico[24]. La cosa si complica ulteriormente, poiché ogni osservazione macroscopica ha una durata così grande rispetto ai tempi tipici dell' evoluzione dinamica da poter essere considerata come una media temporale su un segmento molto lungo della sequenza infinita. Sarebbe come se, nel lancio di una moneta, ogni osservazione macroscopica risultasse in un valore k/n, pari al numero delle teste comparse durante il tempo di osservazione diviso per il numero di eventi elementari osservati. In questo esempio é chiaro che per n molto grande le osservazioni avranno quasi tutte un valore molto vicino a p. E' esattamente quel che accade nella meccanica statistica dell'equilibrio: siamo praticamente certi di osservare valori empirici uguali a quelli previsti dalle distribuzioni di equilibrio; i valori 81 osservati sono medie temporali sulla sequenza di variabili dell'unico sistema presente; ne parrebbe conseguire che le proprietà statistiche della sequenza temporale sono descritte dalle distribuzioni di equilibrio. Il paradosso é evidente: la sequenza temporale, prodotta deterministicamente dalla dinamica, é statisticamente indistinguibile dalla sequenza casuale per antonomasia! E' chiaro che lo scandalo é soprattutto filosofico, perché tra la sequenza rigidamente alternata 0,1,0,1,..,0,1,.. ed una generata da una moneta "giusta" non vi é possibilità pratica di distinguere se le osservazioni mediano su segmenti lunghi; le ricerche sui teoremi ergodici sono alimentate dalla speranza di dimostrare che quasi tutte le sequenze deterministiche (le traiettorie) hanno le stesse proprietà statistiche delle sequenze campionarie generate dalle distribuzioni di equilibrio. Ma torniamo al nostro argomento principale: una fondazione probabilistica delle statistiche delle particelle non ha il dovere di giustificare degli assiomi, derivandoli da teorie più "fondamentali". Come ogni teoria statistica varrà in forma ipotetica fino a che in ultima analisi non sarà smentita (secondo le modalità tipiche delle ipotesi statistiche) dall' evidenza empirica. Inoltre non é essenziale che ogni elemento della teoria abbia una interpretazione empirica in senso frequentista: é invece essenziale che la teoria conduca prima o poi a distribuzioni di probabilità che superino gli opportuni controlli sperimentali. In caso di corroborazione l'insieme degli assiomi e delle condizioni possono essere legittimamente sostenuti; in caso di confutazione l'insieme é da rifiutare e si apre la ricerca del possibile errore (come nel caso di Boltzmann '68). Naturalmente la principale corroborazione delle distribuzioni introdotte in meccanica statistica consiste nell’accordo tra le formule dei numeri medi di occupazione delle tre statistiche i*(c) per c=1,0,-1 e le relazioni termodinamiche che ne conseguono per i gas perfetti ( di Bose, classico, di Fermi). Ad un livello immediatamente successivo si può considerare corroborata la formula che riassume le fluttuazioni i(1+ci) per c=1,0,-1. In tutto questo naturalmente le medie e le varianze vanno intese in senso temporale. Per un’analisi più puntuale della questione, vediamo gli insiemi delle ipotesi che caratterizzano le diverse distribuzioni ed i problemi concettuali che comportano. 1) La crescita di un sistema fisico é un processo stocastico (parzialmente) scambiabile, in cui ciascun passo generalmente dipende dal vettore di stato. Limitiamoci pure al processo di riempimento di una classe, che é scambiabile ed 82 invariante. La disrtibuzione dopo n passi Pr(n) assegnerà probabilità agli ( n+d-1;n) valori possibili. Questa distribuzione può in principio essere messa alla prova col metodo dell' ensemble. Date M realizzazioni (indipendenti tra loro) del processo di accomodazione di n particelle sui d oscillatori di M identici sistemi fisici preparati allo steso modo, Pr(n) sarà corroborata se per ogni j il numero M(nj) delle realizzazioni in cui l' oscillatore j é nello stato nj non si discosta troppo da MPr(nj). Alternativamente le M realizzazioni possono avvenire sul medesimo sistema, svuotato dopo la realizzazione precedente. Per mettere alla prova Pr(n) dobbiamo perciò ricorrere in linea di principio ad una sequenza potenzialmente infinita di realizzazioni indipendenti del processo, osservarne M, ed infine corroborare o respingere Pr(n). Come abbiamo già detto, questo ricorso alle repliche ed all' infinito non deve essere visto come un cedimento al frequentismo: esso non va confuso col metodo in cui Pr(n) é definito come il rapporto tra il numero delle copie nello stato n ed il numero totale. Per noi invece la probabilità fisica intende descrivere le proprietà di quel sistema fisico e delle condizioni al contorno. Il ricorso all'infinito sta nel fatto che la probabilità non descrive direttamente queste proprietà, ma regola gli eventi che hanno luogo in quel sistema. Solo se l' osservazione del sistema é accurata (prolungata, o ripetuta, comunque non episodica) potrà mettere alla prova la probabilità ipotizzata. Se noi, ispirandoci all'insieme di Gibbs, introduciamo M copie del sistema fisico, e concepiamo una crescita parallella ed indipendente degli M sistemi, ci comportiamo come se, invece che N lanci di una moneta, facciamo un lancio di N copie della stessa moneta. 2) Abbastanza diverso é il caso della probabilità di occupazione per la singola particella Pr{j |m}, in base alla quale siamo in grado di determinare la probabilità Pr(n). Essa dipende da j e da m, per cui le successive accomodazioni sono in generale correlate. Questo implica che la probabilità della sequenza (j1,..,jn) non é il prodotto delle probabilità marginali, cioé Pr(j1,..,jn)≠Pr(j1)..Pr(jn). Se la correlazione é positiva, e quindi la sequenza può diventare infinitamente lunga, Pr(j1,..,jn) non si concentra tutta sul vettore np che ne costituisce il valor medio ad ogni passo. In particolare il teorema di de Finetti afferma che la densità di probabilità che vi sia una frequenza di occupazione del j-mo oscillatore Error!pari a x sarà f(x), cioé la densità iniziale é il limite della distribuzione asintotica delle frequenze relative. In particolare per c=1 e d=2 si avrà f(x)=1, cioé la frequenza asintotica attesa é uniforme. Da questo segue che ovviamente nessuna frequenza osservata può smentire questo 83 schema probabilistico. La situazione cambia se si ha a disposizione un ensemble di copie che crescono simultaneamente. Se dopo m passi concentriamo l'osservazione sugli N(m) sistemi nello stato m, e seguiamo la transizione successiva, allora il numero di questi sistemi che finiscono in mj diviso il numero N(m) dovrà essere approssimativamente uguale a Pr{j|m}. Cioé si può introdurre una seconda infinità potenziale, per mettere direttamente alla prova la distribuzione in oggetto. Tuttavia Pr{j|m} é derivato dalle stesse ipotesi che sostengono la distribuzione sugli stati Pr(n), per cui una conferma di Pr(n) risulterebbe una conferma indiretta della legge individuale Pr{j|m}. D'altra parte Pr{j|m} é la generalizzazione della formula di Einstein sull' emissione stimolata, una formula fondamentale nell' ottica quantistica, il cui status epistemologico é perciò qualcosa di più di una semplice legge individuale in grado di generare distribuzioni N-predittive confermate dall'esperienza. 3) Ancora differente é il caso della distribuzione Pr(n) nel caso in cui sia ammessa un'interazione debole tra le particelle, e quindi il sistema evolva secondo il processo markoviano di approccio all' equilibrio di cui abbiamo tratteggiato i lineamenti. In tal caso la popolazione generata dalle successive osservazioni sull'unico sistema fisico reale é rappresentata dalla sequenza di stati n0,n1,..,nt con distribuzioni Pr(nt)=Prt(n), t=0,1,..,t,..., dove Prt(n) si ottiene da Prt-1(n) mediante l'applicazione della matrice di riaggiustamento Cn. Se Pr0(n) é di equilibrio, le variabili aleatorie nt sono equidistribuite, cioé Prt(n)=Pr0(n). Naturalmente non sono indipendenti, poiché nt+1 non può "distare" da nt per più di una eccitazione per oscillatore. Osserviamo che nella trattazione dinamica probabilistica il processo di campionamento non é deterministico, bensì é retto da una "sampling distribution" markoviana. E' una passeggiata a caso ad incrementi scambiabili tra gli individui della popolazione (le osservazioni). Poiché tutte le modalità (i microstati possibili) comunicano (costituiscono un insieme ergodico), l'assunto intuitivo é che tutte prima o poi verranno osservate, e che per una passeggiata infinitamente lunga la frequenza di osservazione di una modalità (o la frazione di tempo in cui il sistema si trova in quello stato) converga verso la probabilità di equilibrio. In tal caso una grandezza osservabile Ft=Ft(n) potrà concepirsi come funzione del valore attuale del microstato n al tempo t, con distribuzione Prt(n). Poiché l' osservazione dura un tempo molto maggiore del tempo di interazione microscopico supposto unitario, avremo che il valore misurato sarà la media temporale su diFt(n), 84 cioé F=Error!= Error!F(n), dove W(n) é la frequenza di occorrenza del valore n nell'intervallo (0,]. La legge debole dei grandi numeri generalizzata alle catene di Markov stazionarie[25] ci assicura che per Error!;) Pr(n). E' perciò evidente che la compatibilità tra i valori misurati effettivamente e quelli calcolati sulla base delle distribuzioni di equilibrio costituisce una conferma dell' insieme di assunzioni probabilistiche operate (il modello) per descrivere il sistema fisico. In particolare: a) la corroborazione di Pr(n) attraverso misure macroscopiche intese come medie su sequenze di campionamento markoviano costituisce una conferma per le matrici di transizione Cn; 2) la corroborazione delle matrici di transizione Cn é una conferma indiretta del processo stocastico fondamentale, (parzialmente) scambiabile ed invariante, sulla base del quale le Cn sono state costruite. Il processo di crescita (o di creazione) e quello di svuotamento possono perciò essere messi alla prova indirettamente (attraverso Cn ed il processo temporale), evitando pertanto l'interpretazione altrimenti necessaria delle crescite (o decrescite) di M sistemi indipendenti. Indipendenza e correlazione Come considerazioni conclusiva e in certa misura provvisoria ci pare che sia degno di nota come una formulazione probabilistica delle statistiche fisiche tenda ad escludere da ogni ambito la nozione di "indipendenza", su cui si é sempre cercato di fondare in modo acritico la descrizione del comportamento delle particelle elementari. Dal punto di vista ontologico, cioé del comportamento delle particelle in quanto tale, la correlazione positiva dei bosoni e quella negativa dei fermioni sono state lo stimolo essenziale per l'introduzione del concetto di "indistinguibilità", con la conseguenza più o meno consapevole di spostare il livello di descrizione del sistema fisico dalle particelle agli oscillatori. Essendo questi indipendenti nell' insieme grand-canonico, furono da Schrödinger [11] considerati come gli elementi fondamentali della descrizione statistica. E' chiaro come l'intreccio tra dogmi filosofici, osservazioni empiriche e tentativi di spiegazioni più profonde ha avuto sostanzialmente un ruolo progressivo per l'ampliamento delle conoscenze fisiche: in ogni caso é chiaro che l'espressione "meccanica statistica delle particelle indipendenti" riferita ai casi 85 quantistici é assolutamente fuorviante. Il fatto che in statistica la correlazione sia assunta come fondamentale non é un problema per questa disciplina: mentre va rispettato il tentativo della fisica di render conto della "misteriosa influenza" non mediata da termini di interazione nell' hamiltoniana, é bene non confondere esigenze e procedure tipiche di ciascuna disciplina, col risultato di incoerenze su entrambi i fronti. Quale che sia la distribuzione di probabilità sugli stati n, se si ammette che la dinamica probabilistica sia data dal processo di evoluzione markoviana di matrice Cn=An-1Bn, in cui An-1 dipende dalla correlazione tra le particelle, si ottiene che la distribuzione di probabilità di qualunque osservazione macroscopica é quella di equilibrio. Il significato di distribuzione di equilibrio é quello di autovettore destro della matrice Cn, per cui l'interpretazione della risultante distribuzione di probabilità sugli stati n non necessita di alcun insieme di repliche "ideali" ed "indipendenti" del sistema dato e della sua crescita. La sistemazione di particelle sugli stati possibili é invece un processo subordinatamente scambiabile correlato, cioé la creazione di un sistema di n particelle soggiace ad una probabilità di transizione che é una mistura macroscopicamente determinata di processi di accrescimento scambiabili ed invarianti. La nozione di indipendenza viene perciò espunta dalla trattazione, sia per ciò che riguarda il processo di creazione che determina l'ipotesi nulla Pr(n), sia per ciò che riguarda (attraverso l' ensemble) la sua interpretazione, che infine per il suo controllo empirico. Poiché storicamente vi é stata una connessione stretta (anche se non logicamente necessaria) tra l'uso di probabilità indipendenti, concezione frequentista di probabilità e legge debole dei grandi numeri per ripetizioni indipendenti, non é forse un caso che l' abbandono simultaneo di queste tre nozioni permetta di ottenere risultati cosiddetti "non classici" attraverso una probabilità scambiabile o markoviana. Come appunto mostrano gli sviluppi di questo secolo, vi é forse ancora molto da esplorare nel campo della correlazione, prima di condannare dispregiativamente come classica ( e quindi inadatta ai complessi fenomeni microfisici) una teoria della probabilità arbitrariamente limitata allo schema dell'indipendenza. 86 Riferimenti bibliografici [1] [2] [2'] [3] A.Bach, "Boltzmann's Probability Distribution of 1877", Arch. for Hist. Ex. Sci.,Vol.41, N.1(1990), pagg.1-40 L.Boltzmann, [1868] "Studien über das Gleichgewicht der lebendigen Kraft zwichen bewegten materiellen Punkten", in Wissenschaftliche Abhandlungen, Vol.I, F.Hasenoehrl, ed., (Leipzig: Barth, 1909), pp. 49-96. L.Boltzmann, [1872] "Weitere studien über das Wärmegleichgewicht unter Gasmolekülen", in Wissenschaftliche Abhandlungen, Vol.I,F.Hasenoehrl, ed, (Leipzig: Barth, 1909), pp.316-402. L.Boltzmann, [1877] "Über die Beziehung zwischen dem zweiten Hauptsatze der mechanischen Wärmtheorie und der Wahrscheinlichkeitsrechnung, respektive den Sätzen über das Wärmegleichgewicht", inWissenschaftliche Abhandlungen, Vol.II, F.Hasenöhrl, ed., (Leipzig: Barth, 1909), pp.164-223 [4] [5] [6] [7] W.Feller, An Introduction to Probability Theory and its Applications, Vol.II, J.Wiley 1966 B.deFinetti, Ann. Inst. H.Poincaré, Vol.7, n.1 (1937); B.deFinetti, "Gli eventi equivalenti e il caso degenere", Giornale dell'Istituto Italiano degli Attuari, Anno XV(1,2)1952, pp.40-64 J.Tersoff, D.Bayer,Phys.Rev.Lett., Vol.50, 1983, pp. 553 A.Kiprianidis, S.Roy, J.P.Vigier, "Distinguishability or indistinguishability in classical and quantum statistics",Phys. Lett. A, vol.119(9)1987,333336 D.Costantini&U.Garibaldi,"Elementary Particle Statistics Reconsidered", Phys.Lett.A, vol.134(3), 1988,161-164 D.Costantini&U.Garibaldi, "Classical and quantum statistics as finite random processes", Found.of Phys. vol.19(6)1989,743-754 D.Costantini, U.Garibaldi," Brillouin Statistics Vindicated", Found.of Phys.Lett., Vol.3,No.2,1990; D.Costantini &U.Garibaldi,"A unified theory for elementary particle statistics", Il Nuovo Cimento 105B(4) 1990,371-380. 87 [8] [9] [10] D.Costantini, U.Garibaldi, "Induced correlations and partition statistics in degenerate ligth beams", Phys.Lett.A,Vol.150(8,9), 1990 F.De Martini & S. Di Fonzo, Europhys. Lett. 10(2) 1989, 123-128 E.C.G.Sudarshan, J.Mehra, "Classical statistical mechanics of identical particles and quantum effects", Int.Jour.of Theor.Phys. vol.3(3)1970,245-251 D.Costantini, U.Garibaldi, M.A.Penco, Introduzione alla StatisticaI fondamenti dell'argomentazione incerta, Franco Muzzio Editore, Padova 1992 [11] S.Bose (1924), Plancks Gesetz und Lichtquantenhypothese , Zts.Phys. 26 (1924), pp.178-181 A.Einstein , "Quantentheorie des einatomigen idealen Gases", Berl. Ber (1924), pp. 261-267. A.Einstein, "Quantentheorie des einatomingen idealen Gases. Zweite Abhandlung", Berl. Ber (1925), pp. 3-14. E.Schrödinger, "Zur Einsteinshen Gastheorie, Zts.Phys. 24 (1926), pp.95-101 Per questi lavori si é utilizzata la traduzione italiana in La statistica quantistica e le onde di materia, a cura di P.Bernardini, Bibliopolis, Napoli, 1986. [12] [13] [14] [15] [16] D.ter Haar, Elements of Statistical Mechanics, Rinehart &Comp. Inc., NewYork , 1958 L.Brillouin,"Comparaison des différentes statistiques appliquée aux problèmes de Quanta", Ann. de Phys.,vii,1927,315-331 P.A.M. Dirac (1926), "On the theory of Quantum Mechanics", Proc.Roy.Soc. 112, pp.661-677. E.Fermi, (1924) Considerazioni sulla quantizzazione dei sistemi che contengono degli elementi identici, «Nuovo Cimento» 1 , pp.145-152. S.Bergia, "Who discovered the Bose-Einstein Statistics? ", in "Simmetries in Physics", M.G.Doncel, A.Hermann, L.Michel, A.Pais Eds., World Scientific, 1988 A.I.Khinchin, Mathematical Foundations of Statistical Mechanics, Dover Publications Inc., 1949, pp.48-49 88 [17] E.T.Jaynes, "Papers on Probability, Statistics and Statistical Physics", R.D.Rosenkrantz Ed., D.Reidel Publishing Company, Dordrecht, Holland 1983 [18] L.Daboni, Calcolo delle probabilità ed elementi di statistica, UTET Torino 1980, pp. 124-126. [19] ibidem, pagg. [20] P. e T.Ehrenfest , "Über zwei bekannte Einwände gegen das Boltzmannsche H Theorem", Phys. Z. 8 (1907), p. 311 [21] O.Penrose, Foundations of statistical Mechanics, Pergamon Press Ltd, Oxford 1970, p.62 W.Feller, An Introduction to Probability Theory and its Applications, Vol.I, J.Wiley 1966, p.313 M.Kac, Probability and related topics in physical sciences, Interscience publishers, Inc., Groningen 1959, p.72 P.Whittle, Systems in Stochastic Equilibrium, John Wiley &sons,1986, pp.8688 N.G.Van Kampen, Stochastic processes in Physics and Chemistry, NorthHolland 1981, p.96 D.R.Cox, H.D.Miller, The Theory of Stochastic Processes, John Wiley &sons, 1986, p.129 [23] A.Stuart, J.K.Ord, Kendall's Advanced Theory of Statistics, C.Griffins &C.Ltd, London 1987, Vol.1, pp.290-292 [24] J.von Plato, "Probability in dynamical systems", in "Logic, Methodology and Philosophy of Science VIII", J.E.Fenstad, I.T.Frolov and R.Hilpinen (eds.), North-Holland 1988, Amsterdam [25] O.Penrose, Foundations of statistical Mechanics, Pergamon Press Ltd, Oxford 1970, p.86-91 89 90