Corso di Storia della Fisica A.A. 2006-2007 Lezione 3 - L’Ottocento: le teorie del calore Copyright, 2006-2007 © Giulio Peruzzi Le ragioni del sopravvento dei modelli fluidistici negli ultimi vent’anni del Settecento sono molteplici: – la scoperta dei gas diversi dall’aria, – il sorgere della calorimetria con l’invenzione di nuovi strumenti di misura (il calorimetro a ghiaccio), – le ricerche sulle transizioni di fase, – la comprensione graduale del significato del calore latente e dei calori specifici (legato al tipo di sostanza e non solo a V e !), – l’analisi dei fenomeni nei quali l’assorbimento di calore non produce solo un innalzamento di temperatura o una transizioni di fase ma anche una dilatazione, – i primi tentativi di distinguere il calore specifico a volume costante da quello a pressione costante, – l’intreccio tra la fisica del calorico e la rivoluzione chimica di Lavoisier, – nonché lo stimolo proveniente dai successi ottenuti nelle ricerche sui fluidi elettrici e magnetici. Ciononostante varie indagini nell’ambito dei fenomeni termici (e in particolare nel calore prodotto per attrito e nella radiazione termica) produssero modelli non sempre in linea con il dominante modello fluidista, basti pensare - alle concezioni cinetiche di D. Bernoulli (Hydrodynamica, 1738), nelle quali la descrizione di Newton di un fluido elastico come aggregato di masse puntiformi in interazione repulsiva viene sostituita dalle collisioni tra sfere elastiche di dimensioni finite (equazione di stato dei gas e primi embrioni della dipendenza di T dalla velocità molecolare al quadrato); - alle concezioni ondulatorie di Benjamin Thompson, conte di Rumford (1753-1814) contrastate dalle diverse (e influenti) idee di Pierre Prévost basate su un’interpretazione “emissiva” del calore. Il fatto che la teoria fluidistica del calorico dovesse essere abbandonata dopo il 1850 con l’affermarsi della termodinamica ha generato l’errata opinione (di cui fu sostenitore Tyndall) secondo la quale la fisica fluidistica costituì comunque un ostacolo al progresso della fisica dei fenomeni termici. In realtà la fisica del calorico rappresentò il quadro concettuale che permise alla scienza dei fenomeni termici di svilupparsi per diversi decenni sia sul fronte delle tecniche di misura sia sul fronte della matematizzazione. Quella fisica non crollò di fronte a esperimenti cruciali per far nascere le ipotesi corpuscolari. Essa, al contrario, fu il luogo ideale degli esperimenti e delle teorizzazioni che misero un primo ordine nella complessa fenomenologia chimica e fisica dei processi termici, affrontarono il problema centrale della riducibilità della scienza del calore ai principi della teoria del moto, introdussero il calcolo delle probabilità nelle teorie dei gas, e permisero la scoperta di quel carattere universale dei processi termici che riguarda la loro direzionalità nel tempo. La fisica del calorico non cadde a causa di esperimenti che avrebbero potuto essere eseguiti in epoche anteriori se si fossero accettate le ipotesi corpuscolari, ma cadde poiché seppe progredire a tal punto da far emergere problemi che essa stessa non era in grado di risolvere. [cit. Bellone, Caos e Armonia, p. 105] Calore e temperatura prima dell’introduzione della conservazione dell’energia L’identificazione del calore come fluido igneo, chiamato calorico da Lavoisier nel 1787, rimase centrale a partire dagli anni 1770 fino quasi alla metà del 1800. Al calorico vennero assegnate proprietà simili a quelle del fluido elettrico: le particelle del fluido calorico si dovevano respingere tra loro ed erano attratte dai corpuscoli costituenti la materia ordinaria. Su questa linea si muove la teoria di Laplace del calore (Traité de Mécanique Céleste, vol. V, 1825): ogni molecola (una massa elementare) è circondata da un’atmosfera costituita da particelle di calorico, emesse e assorbite sotto l’azione di forze a corto raggio d’azione. Le particelle legate alle atmosfere rappresentavano il calorico latente (non osservabile con termometri), mentre quelle libere di muoversi ad alte velocità nello spazio il calorico libero. Siccome il termometro era sensibile solo al calorico libero, si imponeva una analisi del significato fisico del termine “temperatura”. Immaginava allora una cavità vuota delimitata da pareti a temperatura costante; questa si riempiva di calorico libero di muoversi in ogni direzione, e la densità del fluido calorico era funzione della temperatura delle pareti: era la densità di fluido calorico a costituire il referente del termine temperatura. Se un corpo era in equilibrio di temperatura in una certa regione di spazio e veniva trasportato in un’altra dove la densità di calorico libero era diversa, allora la temperatura del corpo variava fino a che l’emissione e assorbimento di calorico libero da parte del corpo non diventavano uguali fra loro: La temperatura di un corpo è la densità di calorico dello spazio dove si realizza questa uguaglianza. Incrinature nell’approccio caloricistico Di Benjamin Thompson, Conte Rumford (1753-1814) abbiamo già parlato. Humphry Davy (1778-1829) afferma nel 1799 che il calorico viene creato per frizione (al contrario di ciò che sostenevano i caloricisti) e che “è sperimentalmente assodato che il calorico non esiste”. Luce e calore vengono analizzati nei primi decenni dell’Ottocento in stretta analogia: William Herschel, Macedonio Melloni, James Forbes mettono in evidenza che anche il calore sembra avere proprietà di riflessione, rifrazione, interferenza, ecc. simili a quelle della luce. L’introduzione dell’interpretazione ondulatoria della luce porta alla sua generalizzazione analogica al calore, aprendo la strada alla possibilità di concepirlo come forma di energia. ENERGIA E LEGGE DI CONSERVAZIONE Dall’Antichità a oggi, un principio guida nelle scienze fisiche è stato la ricerca di elementi di costanza e regolarità in un mondo caratterizzato dal mutamento, nel tentativo di mettere in luce un ordine in un caos apparente. La scienza moderna porta all’individuazione successiva di principi di conservazione: 1. La conservazione della quantità di moto (nel Seicento, seguita molto tempo dopo dalla legge di conservazione del momento angolare a essa associata). 2. La conservazione della carica elettrica (a metà del Settecento). 3. La conservazione della materia (tra la fine del Settecento e gli inizi dell’Ottocento). La formulazione di queste leggi (o principi) di conservazione differisce da quella della conservazione dell’energia che non a caso richiese un periodo di gestazione più lungo. La Naturphilosophie o Scienza Romantica Nella scoperta della conservazione dell’energia giocarono un ruolo importante alcune idee che si stavano diffondendo nei primi decenni dell’Ottocento in diversi ambienti della comunità scientifica e che avevano nella Naturphilosophie il loro punto di riferimento. La concezione di un’unità delle forze della natura propugnata dai Naturphilosophen veniva associata sia all’idea che le diverse specifiche manifestazioni di queste forze potessero essere ricondotte al conflitto tra forze primordiali tra loro opposte, sia all’idea che tutte le forze potessero essere convertibili le une nelle altre. Bologna, Il Mulino 2000, pp. 1-736 La profonda convinzione dell’unità della natura si concretizzava, sotto l’influenza prima di tutto di Schelling, nella concezione di una unità dinamica della natura vista come processo di continuo mutamento in cui i fenomeni qualitativamente diversi che ne emergevano avevano come sostrato comune le azioni reciproche delle medesime forze primordiali. Non è un caso che il movimento di idee della “scienza romantica” portò a rileggere e interpretare in una nuova luce alcune parti del pensiero di Leibniz e di Kant in particolare il Kant dei Metaphysische Anfangsgründe der Naturwissenschaft (Primi principi metafisici della scienza della natura). In forme e modi diversi l’influenza di questo vasto movimento di idee, nonostante gli elementi irrazionalistici e misticheggianti che lo permeavano, si ritrova nella formazione di molti scienziati dell’Ottocento (tra i quali Mayer, Joule, Ørsted, Faraday e Maxwell). D’altra parte, la Naturphilosophie aveva rappresentato, nei primi decenni dell’Ottocento, anche la ribellione contro l’ingenua interpretazione meccanicistica dei fenomeni organici complessi propria dei newtoniani dell’epoca. Come aveva sostenuto Goethe (1749-1832) in molte delle sue opere, e soprattutto in Per la teoria dei colori (1810), ridurre tutti i fenomeni e i processi del mondo organico a movimenti e forze era inaccettabile. Ma i progressi nel campo della fisica, della chimica e delle scienze biologiche avrebbero poi permesso, nel corso dell’Ottocento, di acquisire elementi tali da dare nuovo vigore a coloro che ritenevano che le cosiddette scienze della vita ponessero problemi solo quantitativamente diversi da quelli delle scienze fisiche e chimiche. Ludwig, von Helmholtz, Du Bois-Reymond e von Brücke furono tra quelli che, in aperta polemica con i movimenti romantici, sostennero con più forza e autorevolezza che i fenomeni della vita potessero essere interpretati come manifestazioni di leggi fisiche e chimiche. Mayer e Joule, la sintesi di Helmholtz ! Julius Robert Mayer (1814-1878): articolo del 1842 contenente le Considerazioni sulle forze della natura inorganica ! James Prescott Joule (1818-1889): 1841-1845 vari articoli che iniziano con l’indagine del calore dissipato in circuiti elettrici e approdano all’equivalente meccanico del calore ! Hermann L. F. von Helmholtz (1821-1894): 1847 Sulla Conservazione della forza. Enunciazione del principio generale di conservazione dell’energia: a. impossibilità del moto perpetuo; b. polemica con la Naturphilosophie; c. uso dell’argomentazione matematica applicata ai fenomeni del movimento (spiegare i fenomeni naturali a partire dai movimenti di particelle interagenti). [cit. p. 113, Helmholtz, UTET] La nascita della termodinamica ! Sadi Carnot (1796-1832) - Riflessioni sulla potenza motrice del fuoco e sulle macchine atte a sviluppare quella potenza (1824) ! Benoit-Paul-Èmile Clapeyron (1799-1864) - Sulla potenza motrice del calore (1834) ! Rudolf Clausius (1822-1888) - saggio del 1850 ! William Thomson (futuro Lord Kelvin) - saggi a partire dal 1851 sulla teoria dinamica del calore. [cit. 1852 sulla tendenza universale in natura a dissipare energia meccanica, Bellone, p. 201] Possiamo dire - scrive Calusius nel 1865 - che S indica il contenuto di trasformazione del corpo, così come diciamo che U è il contenuto di calore e di lavoro del corpo stesso. Tuttavia, poiché sono dell’opinione che i nomi di quantità di questo tipo - che sono così importanti per la scienza debbano essere ricavati dai linguaggi antichi al fine di introdurli senza modificazioni nei linguaggi moderni, propongo di chiamare la grandezza S con il nome di entropia del corpo, partendo dalla parola greca “tropé” che significa trasformazione. Intenzionalmente ho formato il termine entropia in modo tale da renderlo il più possibile simile al termine energia: infatti entrambe queste quantità … sono così strettamente connesse l’una all’altra dal punto di vista del significato fisico, che mi pare utile una certa analogia [assonanza] tra i loro nomi. BIBLIOGRAFIA • S. Carnot, La potenza del fuoco, Bollati Boringhieri, Torino 1992. • C. Truesdell, The Tragicomical History of Thermodynamics 1822-1854, Springer-Verlag, New York 1980. • G. Peruzzi, Maxwell. Dai campi elettromagnetici ai costituenti ultimi della materia, “i grandi della scienza”, Le Scienze, n. 5, 1998. • S. G. Brush, Selected Readings in Physics: Kinetic theory, Vol. 2 (Irreversible Processes), Pergamon Press 1966; Statistical Phsics and Atomic Theory of Matter From Boyle and Newton to Landau and Onsanger, Princeton University Press, Princeton 1983. • E. Bellone, I nomi del tempo, Bollati Boringhieri, Torino 1989. • C. Cercignani, Ludwig Boltzmann e la meccanica statistica, La Goliardica Pavese, Pavia 1997 • H. Reichenbach, The Direction of Time, University of California Press, Berkeley 1956. • R. Penrose, The emperor’s new mind, Oxford University Press, Oxford 1989 (trad. it. La nuova mente dell’imperatore, Bompiani) La teoria cinetica dei gas: Clausius e Maxwell Il primo lavoro di Clausius, uscito nel 1857 col titolo Über die Art der Bewegung, welche wir Wärme nennen (Sulla specie di movimento che chiamiamo calore), costituisce un notevole passo avanti rispetto ai risultati di Herapath, Joule e Krönig* nella derivazione della formula che esprime il legame tra la pressione di un gas (una grandezza fisica macroscopica) e la velocità dei moti molecolari (una grandezza appartenente al livello microfisico). * August Karl Krönig era scienziato autorevole: docente presso la Realschule di Berlino e editore della rivista “Fortschritte der Physik” Modello di Joule-Krönig Per ricavare l’espressione che lega la pressione di un gas ai moti molecolari (Joule) Krönig partiva sì dall’ipotesi probabilistica che i moti irregolari delle molecole finissero in media per assumere un andamento regolare, ma da questa traeva una drastica, quanto ingiustificata, semplificazione del modello. Se si hanno N particelle sferiche di massa m in un recipiente a forma di parallelepipedo, si può ottenere l’espressione della pressione in funzione delle energie cinetiche delle particelle ipotizzando che le N particelle si dividano in tre fasci che si muovono lungo le direzioni individuate da una terna di assi cartesiani solidale con gli spigoli del recipiente. Clausius obietta a Krönig che la riduzione del movimento molecolare a puro movimento traslatorio richiede una giustificazione, in quanto negli urti si possono determinare anche moti oscillatori e vibrazionali delle molecole. Modello di Clausius Pur non fornendo un calcolo esplicito dell’energia contenuta nelle rotazioni e vibrazioni molecolari, Clausius ritiene che quando si stabilisce, a causa degli urti molecolari, uno stato di equilibrio nel gas (pressione costante in tutto il volume occupato dal gas) la parte di energia totale del sistema relativa alle rotazioni e vibrazioni è fissata: non conosciamo l’energia complessiva rotazionale e vibrazionale delle molecole ma sappiamo che all’equilibrio è una costante. Ipotesi di Clausius relative alla costituzione del gas e agli urti molecolari: 1. Gas ideale (lo spazio occupato dalle molecole deve essere infinitesimo rispetto al volume complessivo del gas). 2. Collisioni istantanee (tempi di collisione molto più piccoli degli intervalli di tempo che separano due collisioni successive). 3. Solo collisioni (l’influenza delle forze tra le molecole deve essere trascurabile). Si può allora pensare che nell’intervallo di tempo che intercorre tra due collisioni successive le particelle si muovano su traiettorie rettilinee con una velocità che Clausius, per semplicità, suppone uguale in modulo per tutte le molecole. Sulla base di queste ipotesi, Clausius arriva alla seguente espressione del legame tra pressione, volume e moti molecolari: . dove P è la pressione del gas, V è il volume occupato dal gas, N è il numero totale di molecole del gas, m la massa e v la velocità di traslazione media di ogni molecola. Se si conosce la densità del gas – che nelle notazioni precedenti è espressa da Nm/V – a una data pressione P, la formula trovata permette di ricavare la velocità media delle molecole. I valori trovati da Clausius nel caso dell’ossigeno, dell’azoto e dell’idrogeno sono, rispettivamente, 461, 492 e 1844 metri al secondo. Il risultato di Clausius viene criticato pochi mesi dopo dal meteorologo olandese Christoph Hendrik Diederik Buys-Ballot (1817-1890). Una velocità molecolare così elevata sembra in evidente contraddizione con la relativa lentezza del processo di diffusione di un gas in un altro. Clausius risponde a questa obiezione in un articolo del 1858 (letto da Maxwell in traduzione nel 1859): • abbandona l’ipotesi delle dimensioni infinitesime delle molecole (il cui diametro è ora d); • introduce un parametro, chiamato cammino libero medio e indicato con l, per designare la distanza media che una molecola percorre prima di urtarne un’altra. l deve essere abbastanza grande rispetto a d, per non compromettere l’applicazione dei concetti base della teoria cinetica usati per derivare la legge del gas ideale, ma deve essere sufficientemente piccolo da far sì che una molecola debba cambiare la sua direzione frequentemente, e impiegare quindi un tempo relativamente lungo per uscire da una certa regione dello spazio di dimensioni macroscopiche. Il cammino libero medio è, come dice Clausius, inversamente proporzionale alla probabilità che una molecola che si muove nel gas collida con un’altra molecola. Siccome una collisione tra due molecole di raggio r avviene quando i loro centri si trovano a una distanza minore o uguale a d=2r, il risultato è equivalente a quello che si ottiene pensando alla collisione di una particella puntiforme su un oggetto circolare di raggio d. La probabilità di collisione è allora proporzionale alla superficie " d 2 e quindi l deve essere inversamente proporzionale a " d 2. Ricorrendo ad argomenti statistici Clausius stabilisce che la probabilità W che una molecola percorra una distanza x senza collidere è data da: W = e # x / l, per cui solo una piccola frazione delle molecole percorre una distanza maggiore a qualche l prima di collidere, e questo risponde all’obiezione di Buys-Ballot. Da Clausius a Maxwell I fondamentali motivi che spingono Maxwell ad avviare i suoi studi sulla teoria cinetica dei gas scrivendo l’Illustration of the dynamical theory of gases nel 1860: • tentare di risolvere il problema di una trattazione dei moti di un sistema costituito da molte particelle, studiare le proprietà fisiche di tale sistema (come la viscosità) • sondare le possibilità della applicazione di metodi statistici all’analisi dei problemi fisici (Quetelet e John Herschel). L’interesse di Maxwell per la teoria della probabilità risaliva agli anni tra il 1848 e il 1850, gli anni in cui leggeva con attenzione i contributi forniti in questo campo da vari autori, tra cui Laplace e Boole. Al 1850 risale la lettera a Campbell dove scrive: [...] la vera logica di questo mondo è il Calcolo delle Probabilità [...] Questa branca della Matematica, che di solito viene ritenuta favorire il gioco d’azzardo, quello dei dadi e le scommesse, e quindi estremamente immorale, è la sola “Matematica per uomini pratici”, quali noi dovremmo essere. Ebbene, come la conoscenza umana deriva dai sensi in modo tale che l’esistenza delle cose esterne è inferita solo dall’armoniosa (ma non uguale) testimonianza dei diversi sensi, la comprensione, che agisce per mezzo delle leggi del corretto ragionamento, assegnerà a diverse verità (o fatti, o testimonianze, o comunque li si voglia chiamare) diversi gradi di probabilità. MAXWELL E LA TEORIA CINETICA DEI GAS (1859-1879) 1. On the stability of the motion of Saturn’s Rings (1855-59) 2. Illustration of the dynamical theory of gases (1860) 3. On the viscosity or internal friction of air and other gases (1865-66) 4. On the dynamical theory of gases (1867) 5. On stresses in rarified gases arising from inequalities of temperature (1878) 6. On Boltzmann’s theorem on the average distribution of energy in a system of material point (1879) Marzo 1855 - Viene bandito il concorso per il premio Adams con il tema “i moti degli anelli di Saturno”. Maxwell partecipa con una memoria dal titolo “Sulla stabilità del moto degli anelli di Saturno” e vince il premio. On the stability of the motion of Saturn’s Rings (1855-59) La distribuzione delle velocità (1860) Il punto di partenza di Maxwell è l’“analogia fisica” tra le molecole in un gas e un insieme di sfere di piccole dimensioni, dure e perfettamente elastiche. L’analisi degli urti elastici tra coppie di sfere permette a Maxwell di ricavare l’ipotesi fondamentale che trasforma la teoria cinetica in una teoria compiutamente statistica: le numerose collisioni tra le molecole di un gas non determinano l’uguaglianza delle velocità delle varie molecole, ma hanno l’effetto di produrre una distribuzione statistica delle velocità, nella quale tutti i valori delle velocità, da zero all’infinito, sono presenti con probabilità diverse. Le ipotesi da cui parte Maxwell per formulare la distribuzione statistica delle velocità sono due: 1. nell’urto elastico tra due sfere il rimbalzo può avvenire con uguale probabilità in tutte le direzioni; 2. scomposta la velocità lungo tre direzioni mutuamente ortogonali, la distribuzione di probabilità per ogni componente della velocità è indipendente dai valori delle altre componenti (un’ipotesi che nel 1867 riuscirà a derivare); il che equivale al fatto che le distribuzioni di probabilità per le componenti ortogonali della velocità sono tra loro uguali nella forma. Su questa base Maxwell ricava che, in un gas composto da N particelle, il numero dN(vx) di particelle che ha velocità lungo x compresa tra vx e vx + d vx è: Distribuzione gaussiana Analoghe espressioni valgono per il numero di particelle dN(vy) e dN(vz) che hanno velocità lungo y e lungo z compresa tra vy e vy + d vy e vz e vz + d vz. Maxwell può così ottenere che il numero di particelle dN(v) che hanno velocità v = (vx2 + vy2 + vz2)1/2 compresa tra v e v + d v è . . È questa la celebre espressione della distribuzione maxwelliana delle velocità, dalla quale Maxwell ricava l’espressione della velocità media vM = 2$/" 1/2. La conclusione di Maxwell è che “le velocità sono distribuite tra le particelle secondo la stessa legge con la quale gli errori sono distribuiti tra le osservazioni nella teoria del metodo dei minimi quadrati ”. La descrizione dei processi fisici tramite una funzione statistica segna una svolta importante nella fisica ottocentesca. Come sottolinea Gibbs nel necrologio scritto nel 1889 per Clausius “Nello studiare Clausius ci sembra di studiare la meccanica; nello studiare Maxwell, come pure succede per la gran parte del lavoro di Boltzmann, ci sembra invece di studiare la teoria delle probabilità”. Dall’interpretazione causale deterministica, fondata sulle leggi della meccanica, si comincia a passare a un’interpretazione di tipo probabilistico, che troverà fondamento nella moderna meccanica statistica. I nuovi problemi interpretativi emergono già nella seconda metà degli anni ‘60 dell’Ottocento, quando si cerca di dare una giustificazione soddisfacente della funzione statistica trovata da Maxwell. La legge di distribuzione delle velocità ottenuta manifesta vari caratteri che la rendono intuitivamente plausibile: 1. dN(v) tende a zero quando v tende a zero; 2. dN(v) tende a zero quando le velocità sono molto grandi; 3. la funzione di distribuzione ha un massimo per v = $. Tutto ciò è in accordo con quanto ci si aspetta fisicamente che avvenga, cioè che solo un numero relativamente piccolo di molecole abbiano velocità molto basse o molto alte. COME GIUSTIFICARE LA FUNZIONE STATISTICA? Numerosi tentativi saranno fatti, a partire dagli anni Sessanta dell’Ottocento, per dare una dimostrazione rigorosa della distribuzione maxwelliana delle velocità in un gas all’equilibrio, che esperimenti successivi dimostreranno essere verificata con grande precisione. È lo stesso Maxwell a tentare per primo un approccio diverso nel fondamentale articolo del 1867 dal titolo On the dynamical theory of gases. Supponendo che le velocità molecolari si trovino già distribuite secondo la funzione maxwelliana, le collisioni elastiche tra le molecole lasciano questa distribuzione invariata nel tempo, cioè la distribuzione maxwelliana è stabile. Su questa base Maxwell congettura che la distribuzione trovata sia quella a cui converge qualunque distribuzione iniziale delle velocità. Proprio da qui parte Boltzmann negli anni Settanta con l’obiettivo di fornire una spiegazione del secondo principio della termodinamica, fondata sulla teoria cinetica dei gas. Sulla verifica sperimentale della distribuzione di Maxwell delle velocità si rimanda alla lettura dell’articolo: I. Estermann, O.C. Simpson, O. Stern, “The Free Fall of Atoms and the Measurement of the Velocity Distribution in a Molecular Beam of Cesium Atoms”, Physical Review, vol. 71 (1947), pp. 238-249 Torniamo al lavoro di Maxwell del 1860. Una volta introdotta la funzione di distribuzione, Maxwell affronta il problema d’una sua indiretta verifica sperimentale, applicandola alla descrizione dei fenomeni di trasporto (viscosità, diffusione e conducibilità termica). Egli interpreta la viscosità come trasferimento di impulso tra strati di particelle che, allo stesso modo che negli anelli di Saturno, si muovono strato per strato con velocità tangenziali diverse, e ottiene la seguente espressione del coefficiente di viscosità µ in funzione della densità ! del gas, del libero cammino medio l e della velocità media vM : µ = 1/3 ! l vM. Poiché l è inversamente proporzionale a !, Maxwell conclude che la viscosità è indipendente dalla pressione. La ragione di questo fatto - come egli scrive in una lettera a Stokes del 1859 - è che nei gas rarefatti il libero cammino medio è più grande e quindi l'azione di frizione [cioè il trasferimento di momento] si propaga a distanze maggiori", mentre, al contrario l'aumento di pressione implica una diminuzione della distanza media lungo la quale ogni molecola può propagare il momento. Il risultato, plausibile sul piano teorico, è apparentemente contraddetto dai dati sperimentali disponibili, come nota Maxwell nell'articolo del 1860. In ogni caso Maxwell, sostituendo nell’espressione trovata i valori di µ e ! ricavati da alcuni esperimenti condotti da Stokes e il valore di vM ricavato dall'espressione PV = (1/3) Nm vM2 ottenuta da Clausius, è in grado di dare una prima stima del valore di l. Il valore da lui trovato - 5,6 x 10-6 cm per l'aria a pressione atmosferica e a temperatura ambiente - è diverso dall’attuale a meno di un fattore due (il valore è oggi circa 10-5 cm). Maxwell, con lo stesso metodo impiegato per ricavare il coefficiente di viscosità, affronta quindi i calcoli relativi alla diffusione dei gas e alla conduzione del calore determinando, rispettivamente, il numero di molecole e la quantità di energia trasportate nel gas. Applicando le formule di diffusione ricavate dagli esperimenti condotti in questo ambito da Thomas Graham negli anni Quaranta, Maxwell riesce ad ottenere una seconda stima indipendente del valore di l in aria, pari a 6.3 x 10-6 cm. L'accordo con la stima di l ottenuta dal coefficiente di viscosità è una conferma della sostanziale plausibilità della teoria. Tuttavia la trattazione di Maxwell del 1860 viene criticata da Clausius in un articolo del 1862. Clausius rileva che Maxwell, utilizzando una funzione di distribuzione delle velocità isotropa - cioè uguale in tutte le direzioni - anche in presenza di variazioni di pressione e temperatura (nel caso, rispettivamente, della diffusione e della propagazione del calore), ha commesso una serie di errori di calcolo. Clausius fornisce una teoria essenzialmente corretta formalmente ma insoddisfacente fisicamente in quanto continua a far uso dell'assunzione che la velocità molecolare sia costante. NOTA (CONTRO IL FALSIFICAZIONISMO INGENUO) La teoria di Maxwell era in contraddizione con i dati dell’epoca. Questo avrebbe dovuto falsificare la teoria. Al contrario, il nuovo quadro interpretativo da lui proposto, nel quale per la prima volta i fenomeni di trasporto venivano ricondotti al trasferimento a livello molecolare del momento e dell'energia, offriva una nuova chiave di lettura dei dati acquisiti e uno stimolo a rivedere le condizioni sperimentali tramite le quali erano stati acquisiti. Questa revisione avrebbe finito per confermare la teoria maxwelliana. Questo non implica l’indifferenza della teoria rispetto alla sua verifica sperimentale, ma comporta una più attenta considerazione del nesso che lega la teoria all'esperimento. Maxwell di questo è ben consapevole. Ed infatti, proprio a partire dalle critiche teoriche mossegli da Clausius e dall'incertezza dei dati sperimentali che Stokes gli aveva comunicato, Maxwell inizia, tra il 1863 e il 1865, una serie di accurate verifiche sperimentali delle sue conclusioni teoriche relative all'andamento della viscosità. Il metodo della fertilizzazione incrociata tra settori diversi della fisica, che Maxwell aveva già applicato agli altri filoni delle sue ricerche, trova qui un nuovo importante momento di verifica. Lo strumento ideato da Maxwell per le misure della viscosità nei gas a diverse pressioni e temperature trae spunto da alcuni dispositivi usati per la determinazione dell'unità campione di resistenza elettrica. L'esperimento consiste nell'osservare le oscillazioni indotte da un campo magnetico variabile su una pila di dischi paralleli sospesi ad un filo di torsione sigillati in un recipiente contenente aria, e nella misura dei loro smorzamenti al variare della pressione e della temperatura dell'aria nel recipiente. I risultati delle sue ricerche sperimentali vengono pubblicati nel 1866 nell'articolo dal titolo On the viscosity or internal friction of air and other gases. Maxwell verifica, in linea con la sua teoria, che il coefficiente di viscosità rimane costante per un ampio campo di variazioni della pressione, un risultato confermato negli stessi anni dagli esperimenti di Oskar Emil Meyer. Oltre alle critiche di Clausius, un altro risultato ricavato da queste misure costringe tuttavia Maxwell a rivedere il suo approccio iniziale alla teoria cinetica dei gas. Secondo il modello delle sfere elastiche collidenti, alla base del lavoro del 1860, il coefficiente di viscosità doveva essere proporzionale alla radice quadrata della temperatura assoluta (µ % T1/2), mentre i risultati ottenuti indicavano una dipendenza di tipo lineare (µ % T ). Proprio negli stessi anni in cui conduce i suoi esperimenti, Maxwell abbandona il modello semplificato delle sfere elastiche e sviluppa una teoria dinamica generale dei costituenti dei gas, nella quale le molecole sono descritte come centri di forza. I risultati di queste ricerche, che costituiscono un sostanziale passo avanti rispetto al lavoro del 1860, vengono pubblicati da Maxwell nel 1867 nel suo articolo dal titolo On the dynamical theory of gases. La teoria dei processi di trasporto nei gas viene sviluppata sulla base dell’assunzione che le molecole si comportino come centri puntiformi di forza. Il metodo di indagine consiste nel calcolare i valori medi di varie grandezze espresse come funzioni della velocità di tutte le molecole di un dato tipo all’interno di un elemento di volume, e le variazioni di questi valori medi dovute, • prima di tutto, agli urti delle molecole con altre dello stesso o di diverso tipo; • in secondo luogo, all’azione di forze esterne come la gravità; • e, in terzo luogo, al passaggio delle molecole attraverso la superficie che racchiude l’elemento di volume. Gli urti sono analizzati nel modello nel quale le molecole si respingono tra loro con una forza che va come 1/r n. In generale la variazione dei valori medi delle funzioni delle velocità dovuta agli urti dipende dalla velocità relativa delle due molecole collidenti e, a meno che il gas si trovi all'equilibrio termico, la distribuzione di velocità non è nota e quindi non è possibile calcolare direttamente queste variazioni. Tuttavia, nel caso di forze che vadano come 1/r 5 la velocità relativa sparisce e i calcoli possono essere eseguiti. In questo caso speciale si trova che il coefficiente di viscosità è proporzionale alla temperatura assoluta, in accordo con i risultati sperimentali ottenuti dall'autore. Viene anche derivata l'espressione del coefficiente di diffusione e paragonato con i risultati sperimentali pubblicati da Graham. [in Brush, riassunto anteposto all'articolo di Maxwell del 1867] In una teoria di questo genere la nozione di libero cammino medio tra due urti successivi non ha più significato: le molecole infatti non si muovono in linea retta ma lungo orbite complicate, in cui le deflessioni hanno luogo a distanze che dipendono dalle velocità e dalle posizioni iniziali delle molecole. Per questo Maxwell, sviluppando alcuni risultati mutuati dalle teorie dell'elasticità, sostituisce alla nozione di cammino libero medio quella di "modulo del tempo di rilassamento" delle tensioni in un gas. L'espressione del coefficiente di viscosità viene ora ricavata utilizzando il "modulo del tempo di rilassamento", e, con un andamento delle forze di repulsione del tipo 1/r5, Maxwell ricava µ % T in accordo con i suoi risultati sperimentali. Inoltre l'utilizzo della legge di distribuzione delle velocità, che, come già notato, viene derivata in questo articolo in modo più generale, fornisce la chiave di volta per calcolare le varie proprietà dei gas. [cit. Brush, p. 5] Il fenomeno della viscosità - scrive Maxwell nell’articolo del ‘67 - può essere descritto per tutti i corpi indipendentemente da ipotesi come segue: Una distorsione (tensione) S è prodotta nel corpo da uno spostamento, questo eccita uno sforzo (forza elastica) F. La relazione tra F e S può essere scritta come F = ES, dove E è il coefficiente di elasticità per un particolare tipo di distorsione. Nel caso di un solido senza viscosità, F rimane uguale a ES e quindi: dF/dt = E dS/dt. Se invece il corpo è viscoso, F non rimane costante ma tende a sparire con una velocità che dipende dal valore di F e dalla natura del corpo. Se supponiamo che questa velocità sia proporzionale a F, allora l'equazione può essere scritta nella forma: dF/dt = E dS/dt - F/! che esprime il fenomeno in forma empirica (! è il tempo di rilassamento). Se S è costante allora F = ES e–t/!, cioè F si annulla gradualmente, e il corpo perde gradualmente ogni sforzo interno e le pressioni si ridistribuiscono come in un fluido a riposo. Se dS/dt è costante allora F = E ! dS/dt + C e–t/! e F tende a un valore costante che dipende dalla velocità di distorsione e il fattore E! è il coefficiente di viscosità. Siccome E è direttamente proporzionale alla densità e alla temperatura assoluta e il tempo ! è inversamente proporzionale alla densità (e indipendente dalla temperatura), allora il coefficiente di viscosità è proporzionale alla temperatura assoluta. L’interpretazione del secondo principio della termodinamica Dalla fine degli anni 1860, anche alla luce dei risultati ottenuti dalla teoria cinetica dei gas, cresce l’attenzione sui mutamenti concettuali che la termodinamica sembra imporre nella descrizione fisica dei fenomeni, specialmente in rapporto al dibattito sull’interpretazione del secondo principio della termodinamica. • Quali conseguenze derivano dall’uso di metodi statistici nell’elaborazione delle leggi fisiche? • È possibile su base statistica spiegare l’irreversibilità dei processi termici espressa dal secondo principio della termodinamica? • E come spiegare questa irreversibilità in rapporto alla reversibilità delle leggi che governano i fenomeni meccanici? Il “diavoletto” di Maxwell (Teoria del calore, 1871) Uno dei fatti meglio stabiliti della termodinamica è l’impossibilità di produrre senza compiere lavoro una differenza di temperatura o di pressione in un sistema racchiuso in un contenitore che non permette cambiamenti di volume né passaggi di calore, e nel quale sia la temperatura sia la pressione siano ovunque le stesse. Questa è la seconda legge della termodinamica, ed è senza dubbio vera finché si può trattare i corpi solo nel loro insieme, senza aver modo di percepire e maneggiare le singole molecole di cui essi sono composti. Ma se noi concepiamo un essere le cui facoltà siano così acuite da permettergli di seguire ogni molecola nel suo cammino, un tale essere, i cui attributi sono tuttavia essenzialmente finiti come i nostri, sarebbe capace di fare ciò che per noi è attualmente impossibile. Infatti abbiamo visto che le molecole in un recipiente pieno d’aria a temperatura uniforme si muovono con velocità nient’affatto uniformi, anche se la velocità media di un qualunque insieme sufficientemente numeroso di esse, arbitrariamente scelto, è quasi esattamente uniforme. Supponiamo adesso che tale recipiente sia diviso in due parti, A e B, da un setto in cui vi sia un piccolo foro, e che un essere, che può vedere le singole molecole, apra e chiuda questo foro in modo da permettere solo alle molecole più veloci di passare da A a B, e solo a quelle più lente di passare da B ad A. In questo modo, senza compiere lavoro, egli innalzerà la temperatura di B e abbasserà quella di A, in contraddizione con la seconda legge della termodinamica. Questo è solo uno degli esempi in cui le conclusioni da noi tratte dalla nostra esperienza concernente i corpi composti da un immenso numero di molecole possono risultare non applicabili a osservazioni e ad esperimenti più raffinati, che possiamo supporre effettuati da qualcuno capace di percepire e maneggiare le singole molecole che noi invece trattiamo soltanto per grandi insiemi. Dovendo trattare di corpi materiali nel loro insieme, senza percepire le singole molecole, siamo costretti ad adottare quello che ho descritto come il metodo statistico di calcolo, e ad abbandonare il metodo strettamente dinamico, nel quale seguiamo con il calcolo ogni movimento. Sarebbe interessante chiedersi fino a che punto quelle idee concernenti la natura e i metodi della scienza che sono state derivate dagli esempi di indagine scientifica in cui si segue il metodo dinamico siano applicabili alla nostra reale conoscenza delle cose concrete, che, come abbiamo visto, è di natura essenzialmente statistica, poiché nessuno ha ancora scoperto un qualche metodo pratico per tracciare il cammino di una molecola, o per identificare la singola molecola ad istanti successivi. L’esperimento mentale di Maxwell contiene vari spunti di riflessione. • La distribuzione statistica delle velocità causa sempre fluttuazioni spontanee a livello delle singole molecole, che possono provocare il trasferimento del calore dal corpo a temperatura minore a quello a temperatura maggiore: queste però sono “rare” e quindi non influiscono sulla nostra percezione macroscopica dell’irreversibilità. Solo l’azione del diavoletto, che opera a livello delle singole molecole, può produrre un flusso macroscopico di calore da un corpo a temperatura minore a uno a temperatura maggiore. Il secondo principio della termodinamica è perciò, a differenza delle leggi della meccanica classica, una legge di tipo statistico: le fluttuazioni indicano che può essere violato anche se con bassa probabilità. • Maxwell inoltre, assimilando il flusso di calore al mescolamento molecolare, implicitamente asserisce che l’irreversibilità sancita dal secondo principio della termodinamica è equivalente alla transizione da un sistema parzialmente ordinato a uno meno ordinato. In altri termini l’ordine e il disordine molecolare vengono associati alle transizioni da uno stato di non equilibrio (bassa entropia) a uno stato di equilibrio (massima entropia) del sistema. Dai lavori di Maxwell prende le mosse Boltzmann che tra il 1868 e il 1872 arrivava alla formulazione del "teorema H". Ludwig Eduard Boltzmann era nato Vienna nel 1844. Nel 1863 si iscrive all'Università di Vienna, dove nel 1866 ottiene il dottorato e, nell'anno successivo, l'incarico di assistente. Nel 1869 ottiene la cattedra di fisica matematica all'Università di Graz e inizia un'intensa attività scientifica. Nel 1873 si sposta a Vienna sulla cattedra di matematica. Nel 1876 si sposa con Henriette von Aigentler e torna a Graz come professore di fisica dove rimane per 14 anni (lì nasceranno i suoi due figli e le tre figlie). Nel 1888 perde il figlio maggiore. Nel 1890 accetta la cattedra di fisica teorica a Monaco. Nel 1895 torna all'istituto di Fisica di Vienna. Nel 1899 compie un primo viaggio in America. Nel 1900 accetta la cattedra di fisica teorica a Lipsia. Torna a Vienna nel 1902 dove, dal 1903, insegna anche filosofia della scienza sulla cattedra lasciata da Mach. Nel 1906 muore suicida a Duino. Ludwig Boltzmann (1844-1906) PRIMI CONTRIBUTI (1866-1871) 1866 - pubblica un lavoro che, sulla falsa riga di alcune ricerche di Clausius, cerca di stabilire una relazione tra secondo principio della termodinamica e principio di minimo dell’azione. 1868 - generalizza la teoria di Maxwell al caso di forze esterne (come la gravità). Boltzmann dimostra che è ancora possibile avere equilibrio termico con temperatura costante in una colonna verticale isolata di gas: la densità e la pressione variano esponenzialmente con l’altezza (in funzione cioè del potenziale gravitazionale). In notazione moderna quello che Boltzmann ricava è che la probabilità di trovare una molecola in un punto di potenziale V è e–V/kT, oggi noto come fattore di Boltzmann. Siccome V può essere l’energia potenziale di tutte le forze che agiscono sulla molecola, comprese eventuali forze intermolecolari, il fattore di Boltzmann combinato con la distribuzione di Maxwell permette di esprimere la probabilità di uno stato molecolare non solo nei gas, ma anche nei liquidi e nei solidi. Ecco perché la legge di distribuzione di MaxwellBoltzmann ha avuto in seguito applicazioni così vaste diventando uno dei principi basilari della meccanica statistica classica. Ma in realtà trova applicazioni anche in campi diversi da quelli della meccanica statistica classica. Tra il 1868 e il 1871, Boltzmann riconsidera criticamente il programma di riduzione del secondo principio alla meccanica (via il principio di minimo dell'azione). In una serie di pubblicazioni del periodo si evidenzia da un lato il dispiegarsi di argomentazioni matematiche relative al calcolo delle probabilità, e dall'altro una progressiva presa di distanza dalle tesi della totale riducibilità della termodinamica alla meccanica. Una volta ridefinite in un nuovo apparato teorico ricco di determinazioni formali le nozioni base della teoria cinetica dei gas la temperatura, le traiettorie molecolari, gli intervalli di tempo, gli urti e i valori medi delle grandezze, prima fra tutte l'energia - Boltzmann avvia una profonda disamina dei fondamenti della teoria che lo porterà alla conclusione che essa ha una natura sostanzialmente probabilistica, sulla falsa riga di Maxwell. Proprio l'introduzione della probabilità, non come strumento ma come fondamento delle leggi fisiche, è forse il suo merito più alto e impone una radicale modifica del tradizionale approccio meccanicista. Il teorema H [in realtà originariamente teorema E] La revisione boltzmanniana delle basi della fisica teorica dei gas sfocia nella memoria del 1872 dal titolo "Ulteriori studi sull'equilibrio termico delle molecole del gas" (sequela di un articolo breve mai pubblicato sui Poggendorff’s Annalen). Idea base - Un gas è formato da particelle che compiono moti irregolari, ma a livello macroscopico la materia allo stato gassoso obbedisce a leggi perfettamente definite. Una spiegazione di queste leggi deve quindi poggiare sulla teoria delle probabilità e su un'attenta analisi delle distribuzioni molecolari. È quindi necessario: ! individuare alcune asserti generali sul numero di collisioni e di particelle presenti in elementi generici di volume del gas; ! ricavare nella forma più generale l'equazione che regola l'andamento temporale della funzione di distribuzione f ; ! riflettere criticamente sull'interpretazione da dare ai rapporti tra leggi fisiche macroscopiche e asserzioni di carattere probabilistico. I passi fondamentali erano quindi quelli: 1. di trovare l'equazione differenziale che esprimesse l'andamento temporale di f nel tempo; 2. di definire una grandezza funzione di f che garantisse effettivamente che i sistemi molecolari tendono a una distribuzione maxwelliana; 3. di collegare questa grandezza a una grandezza macroscopica nota. Supponiamo che in un istante t0 siano note la posizione e la velocità di una molecola qualsiasi, quali saranno la sua posizione e la sua velocità in un successivo istante t? Il problema - scrive Boltzmann - è completamente determinato ma non è risolubile a questo livello di generalità. È quindi necessario imporre alcune condizioni/ipotesi particolari: 1. Dopo un tempo sufficientemente grande (da permettere grandi numeri di collissioni che coinvolgono grandi numeri di molecole) le direzioni delle velocità molecolari sono equiprobabili [distribuzione uniforme]. 2. La distribuzione delle velocità è uniforme fin dall’inizio. Qual è il significato delle condizioni di Boltzmann? Usando l'energia cinetica invece della velocità, Boltzmann in pratica afferma che dato un volume R occupato dal gas, se in R si sceglie un generico elemento di volume r - che contiene un numero elevato di molecole - allora r contiene un certo numero di molecole con energia cinetica x nell'intervallo x e x + dx al tempo t. Se f(x,t)dx è questo numero, si può pensare che esso varii a seconda della scelta di r in R. La condizione asserisce che la variazione è nulla, cioè che molecole con x diversa sono uniformemente mescolate in R. Le due condizioni allora, secondo Boltzmann, permettono di determinare lo stato del gas una volta fissato il valore di f allo stato iniziale, f(x,0) Boltzmann determina quindi f(x,t) studiandone la variazione in un tempuscolo & a causa delle collisioni, in altri termini stabilisce l'equazione (integro-differenziale) per ! f / ! t . La relazione da cui prende le mosse è la seguente: f(x, t + &) dx = f(x,t) dx - " dn + " d' dove dn indica il numero di collisioni nel tempo &, nell’unità di volume, per le quali il numero f(x,t) dx di particelle con energia compresa tra x e x + dx diminuisce e d' il numero di collisioni nel tempo &, nell’unità di volume, per le quali il numero f(x,t) dx di particelle con energia compresa tra x e x + dx aumenta. L’analisi di Boltzmann sulle collisioni riproponeva alcuni degli elementi cruciali di quella di Maxwell: considerava infatti solo collisioni binarie in intervalli di tempo e di volume infinitesimi. Ma queste erano davvero ipotesi lecite? No per l’epoca (Truesdell, cit. in Bellone p. 238) I movimenti di un insieme di masse puntiformi soggette a specifiche interazioni sono determinati unicamente dalle condizioni iniziali e dalle equazioni della dinamica. Non siamo quindi liberi di fare assunzioni a proposito di tali movimenti. Che tutti gli urti di un insieme di masse puntiformi siano o non siano binari è una questione di analisi e di prova matematiche, non di tentativi a lume di naso […]. In generale, quindi, le assunzioni di Maxwell sul movimento molecolare contraddicono le leggi della meccanica analitica. (Truesdell & Muncaster, 1980) … sì oggi (Cercignani, p. 63). L’evoluzione nel tempo dello stato iniziale, individuato da un punto zo dello spazio delle fasi, lo porterà all’istante t in un altro stato associato al punto zt, che è allora definito univocamente, purché l’insieme "o dei punti dello spazio delle fasi che portano a urti tripli e di ordine superiore e quelli che portano a infiniti urti in un tempo finito siano trascurabili. Al giorno d’oggi siamo ben equipaggiati dal punto di vista matematico per discutere queste ipotesi, che possono apparire sospette; infatti, la probabilità di avere uno stato iniziale del suddetto insieme "o è rigorosamente nulla (nel senso che è nullo il volume di "o nello spazio delle fasi). (Cercignani, 1997) In una decina di pagine di sviluppi formali, Boltzmann ricava l’espressione di dn e d' in funzione di f e scrive l’equazione generale per ! f / ! t (oggi nota come equazione di Boltzmann). Dimostra quindi che, se f è una maxwelliana, allora necessariamente: ! f/ ! t = 0 Quindi una volta raggiunta la distribuzione di Maxwell il sistema vi rimane. Come scrive Boltzmann: questa è una conferma di quello che Maxwell ha dimostrato nel 1867. Ma si può ora, disponendo dell’equazione per ! f / ! t , affrontare un questione più generale (la congettura di Maxwell). Si può eliminare la seconda condizione imposta all’inizio [f(x,0) è uniforme] e ipotizzare che il sistema parta inizialmente da una distribuzione arbitraria dell’energia cinetica arrivando solo dopo un tempo sufficientemente lungo all’equiprobabilità delle direzioni delle velocità. Allora è possibile introdurre una quantità: H e dimostrare che E non può mai aumentare per le funzioni f che soddisfano l’equazione generale per ! f / ! t . [teorema E] La dimostrazione di Boltzmann procedeva attraverso lo studio dell’espressione di dE/dt. Utilizzando l’equazione per ! f/! t si arrivava (con qualche “semplice passaggio”) a dimostrare la diseguaglianza: dE/dt # 0 L’uguaglianza a zero vale solo nel caso che f sia una distribuzione di Maxwell. Se f non è una maxwelliana la derivata è negativa cioè “al passare del tempo - afferma Boltzmann - E deve decrescere [a causa del moto molecolare] tendendo al valore minimo che corrisponde alla distribuzione di Maxwell”. “Si può anche dimostrare che per il moto atomico di un sistema di molti punti materiali esiste sempre una certa quantità che, a causa del moto atomico, non può aumentare, e questa quantità è in accordo con il valore trovato per l’entropia (cambiata di segno). […] si è in tal modo aperta la strada per una dimostrazione analitica del secondo principio seguendo un itinerario del tutto diverso da quello percorso fino ad oggi”. Boltzmann e i quanti di energia La dimostrazione del teorema E (oggi H) era stata ottenuta utilizzando integrali (ivi compresa l’equazione integro-differenziale per ! f/ ! t). Ma, come osserva Boltzmann nella seconda parte della monografia, è possibile sostituire gli integrali con somme trasformando l’equazione integro-differenziale in un sistema di equazioni differenziali ordinarie (cita a tal proposito applicazioni già fatte in questo senso da Lagrange, 1759 analogia tra corda vibrante e sfere vibranti di massa infinitesima e di numero tendente all’infinito - Stefan, 1862-65 - applicazioni alla diffusione e alla conduzione Riemann, 1859 - studio delle soluzioni di particolari equazioni differenziali). L’energia cinetica x (variabile continua) deve in questo caso essere sostituita da una serie di valori discreti: 0(, 1(, 2(, 3(, 4(, …, p( Ogni molecola può quindi assumere solo valori dell’energia cinetica multipli interi del quanto elementare (. Per riportare la trattazione discreta al continuo basta passare al limite per ( tendente a zero e p all’infinito. Ovviamente, anche nel caso discreto, doveva continuare a valere nelle collisioni la conservazione dell’energia. Se le energie cinetiche di due molecole collidenti erano k( e l( prima della collisione, e )( e *( dopo la collisione, allora doveva essere rispettata l’equazione: k+l=)+* Il problema delle collisioni si riduceva in questo caso a determinare i numeri Nkl)* che esprimevano i numeri relativi a eventi in cui collisioni tra molecole con con energie iniziali kl avevano energie finali )*. Se w1 indicava il numero di molecole per unità di volume con energia ( al tempo t, w2 indicava il numero di molecole per unità di volume con energia 2( al tempo t, ecc. allora il numero di molecole w ’1 che al tempo t + & avevano energia ( dipendeva dal numero di collisioni che facevano diminuire o aumentare il numero di molecole con energia (: w ’1 = w1 - N1322 - N1423 - N1432 - N1524 - … + N2213 + N2314 + N3214 + … Si poteva così esprimere la quantità E nel discreto e riottenere il risultato del teorema E (H) discusso nella prima parte. Il passaggio al discreto, come scrive Boltzmann, è solo un’astrazione, che tuttavia permette di ottenere il risultato cercato in modo più semplice e più chiaro. La sezione si conclude con le parole: “da quanto detto sopra segue che ci sono infinite soluzioni di ! f/ ! t = 0, che però non sono utili perché f(x) risulta negativa o immaginaria per qualche valore di x. Quindi segue chiaramente che il tentativo di Maxwell di dimostrare apriori che questa soluzione è unica deve fallire: essa non è l’unica, ma piuttosto l’unica che dà probabilità positive, e quindi è l’unica utilizzabile”. Trent’anni dopo un altro grande fisico (Planck) avrebbe trovato nella proposta di passaggio al discreto di Boltzmann l’ispirazione per la soluzione di un fondamentale problema, quello del corpo nero. Boltzmann continuerà anche dopo il 1872 a sviluppare l’approccio con energie discrete. È proprio dall’applicazione di tecniche matematiche combinatoriali che Boltzmann ricava (1877) il suo metodo statistico per calcolare le proprietà di equilibrio basate sulla relazione tra entropia e probabilità: S = k log W. Il contenuto di quello che talvolta viene chiamato “paradosso di Loschmidt” (o della “reversibilità”) è in sintesi il seguente: • si immagini il microstato di un gas che ha raggiunto l’equilibrio a partire da uno stato generico di non equilibrio, e si supponga che il gas sia isolato dall’ambiente nel corso del processo; • le leggi della meccanica ci dicono che il microstato del gas all’equilibrio, ottenuto invertendo tutte le velocità delle molecole che lo costituiscono, seguirà un cammino lungo i microstati che sono, a ritroso, quelli attraversati dal primo gas nella sua evoluzione verso l’equilibrio; • siccome la funzione H non dipende dalla direzione del moto delle molecole, ma solo dalla distribuzione delle loro velocità, questo significa che il secondo gas evolverà, in modo monotono, lontano dallo stato di equilibrio; • quindi il teorema H è incompatibile con le leggi meccaniche che dovrebbero regolare i moti delle molecole. La risposta a questa obiezione si trova compiutamente espressa in una fondamentale memoria di Boltzmann del 1877 dal titolo “Fondamenti probabilistici della teoria del calore”, che sancisce la nascita della meccanica statistica. Abbandonando la descrizione dettagliata dei moti e delle collisioni tra atomi in un gas, Boltzmann si concentra sulla probabilità e la statistica. Gli N atomi contenuti in un certo volume di gas si muovono e urtano in modo irregolare. Supponiamo che l’energia (cinetica) totale del sistema abbia un certo valore E e dividiamo questo valore in parti discrete che sono multipli di un certo valore (, cioè 0, (, 2 (, 3 (, 4 ( ecc. Ognuna di queste parti può essere pensata come una cella che racchiude gli atomi del gas che hanno quell’energia. Definire lo stato del gas significa quindi calcolare i possibili modi in cui gli N atomi si distribuiscono nelle celle. Gli urti tra atomi portano a continui salti da una cella all’altra. Tuttavia se in una certa distribuzione degli atomi nelle celle si prendono due atomi qualunque e li si scambia di posto (come avviene negli urti) i due stati (microscopici) del gas sono diversi, ma siccome il numero di atomi in ciascuna cella rimane invariato lo stato complessivo (macroscopico) del gas non cambia. Per calcolare quindi la probabilità W di un macrostato del gas basterà contare i microstati che lo realizzano. Il lavoro del 1877 conteneva quello che Einstein chiamerà in seguito principio di Boltzmann. È in questo lavoro che viene estesa l’interpretazione dell’entropia come misura (ben definita matematicamente) del disordine degli atomi, un’idea già presente nel lavoro del 1872 ma non del tutto sviluppata. “Lo stato iniziale di un sistema sarà, nella maggior parte dei casi, poco probabile e il sistema tenderà sempre verso stati più probabili, fino ad arrivare allo stato più probabile (cioè all’equilibrio termodinamico). Se applichiamo questa idea al secondo principio della termodinamica, possiamo identificare la grandezza chiamata entropia con la probabilità dello stato corrispondente. Se si considera allora un sistema isolato di corpi (il cui stato cioè può cambiare solo per interazione tra i suoi costituenti), in virtù del secondo principio della termodinamica, l’entropia totale deve aumentare continuamente: il sistema non può che passare da uno stato dato a uno più probabile.” L’entropia S è proporzionale al volume nello spazio delle fasi occupato da microstati che corrispondono allo stesso macrostato: analisi di un caso particolare (gas ideale + S = k log W). …e la risposta di Boltzmann a Loschmidt Il fatto che la distribuzione degli stati divenga uniforme al passare del tempo dipende soltanto dalla circostanza per cui esistono più distribuzioni uniformi che distribuzioni non uniformi. Se è impossibile dimostrare che data una distribuzione iniziale la distribuzione deve diventare uniforme dopo un lungo intervallo di tempo, quello che invece si può dimostrare è che il numero di stati iniziali che evolvono in una distribuzione uniforme in un tempo finito è infinitamente maggiore di quelli che portano a uno stato non uniforme. Il teorema di Loschmidt dice solo che esistono stati iniziali che evolvono in distribuzioni non uniformi, ma non dimostra affatto che non esista un numero infinitamente maggiore di stati iniziali che portino nello stesso tempo a distribuzioni uniformi. [Boltzmann, 1877] Una seconda fondamentale obiezione alla pretesa dimostrazione di Boltzmann della irreversibilità viene da Zermelo. Questi si basava su un importante risultato ottenuto da Poincaré nel 1889 (noto come teorema di ricorrenza) sulla stabilità del moto di sistemi newtoniani (confinati e con conservazione dell’energia, caratteri applicabili al caso del gas isolato e racchiuso in un contenitore). Il teorema di Poincaré asserisce che un sistema che all’istante iniziale si trovi in un generico stato meccanico, eccetto che per un insieme di misura nulla delle condizioni iniziali, evolve in modo tale da ritrovarsi dopo un certo tempo in stati prossimi quanto si vuole allo stato iniziale. Zermelo, nel 1896, riprende il teorema di Poincaré e lo applica al teorema H. Il teorema H afferma che un sistema inizialmente in uno stato di non equilibrio evolve in modo monotono verso uno stato di equilibrio. Ma, applicando il teorema di Poincaré, un tale sistema dopo essere evoluto verso lo stato di equilibrio deve tornare indietro verso uno stato meccanico vicino quanto si vuole al suo stato iniziale di non equilibrio, il che vuole dire che la funzione H dovrebbe anch’essa tornare a valori vicini a piacere a quelli che aveva all’inizio, e quindi la dimostrazione di Boltzmann dell’evoluzione all’equilibrio è incompatibile con le fondamentali leggi della meccanica del moto molecolare. La risposta a Zermelo e la freccia cosmologica del tempo • L’intervallo temporale per la “ricorrenza” in sistemi con un numero sufficientemente alto di molecole (un centimetro cubo di molecole d’aria in condizioni ordinarie di pressione e temperatura) era incredibilmente alto, mentre il tempo necessario a che lo stato iniziale fosse prossimo alla distribuzione maxwelliana era di un centomilionesimo di secondo. Ma l’obiezione di Zermelo era anche un’altra: Il concetto di probabilità non ha nulla che vedere con il tempo e quindi non può essere impiegato per dedurre conclusioni d’alcun genere sulla direzione dei processi irreversibili. […] Non solo è impossibile spiegare il principio generale dell’irreversibilità, ma è anche impossibile spiegare i singoli processi irreversibili senza introdurre nuove assunzioni fisiche, perlomeno quando è coinvolta la direzione temporale. Questa obiezione offre a Boltzmann l’occasione per suffragare la necessità della freccia termodinamica basandola su argomenti relativi alla freccia cosmologica. L’universo (o comunque gran parte di ciò che ci circonda) visto come sistema meccanico è partito da uno stato altamente improbabile e si trova ancora in uno stato poco probabile. Se si prende allora in esame un sistema di corpi più piccolo, così come lo si trova nella realtà, e lo si isola istantaneamente dal resto del mondo, questo sistema verrà inizialmente a trovarsi in uno stato improbabile e, per tutto il tempo in cui resterà isolato, procederà verso stati più probabili. (1897) [cit. da Bellone, I nomi del Tempo, p. 206, fig. tratta da Penrose, The Emperor’s new mind, p. 343.] Sistemi collocati nello stato attuale dell’universo hanno di fatto stati iniziali che precedono gli stati finali. E questo dipende dalle “condizioni iniziali di ciò che ci circonda”. L’universo nella sua interezza, tuttavia, può essere considerato come in equilibrio (e quindi morto). In esso sono collocate isole (o mondi) di dimensioni paragonabili alla nostra galassia. Questi mondi sono interpretabili, secondo Boltzmann, come fluttuazioni nell’equilibrio termico globale, che durano tempi lunghi rispetto ai tempi delle nostre osservazioni. L’universo globalmente è in equilibrio, in esso non c’è freccia temporale: non vi si distingue il “prima” dal “dopo” come nello spazio non si distingue il “sopra” dal “sotto”. Diversa è la “sensazione” di un osservatore solidale con uno di questi mondi. Proprio come in un dato luogo sulla superficie della Terra possiamo usare l’espressione “verso il basso” per indicare la direzione verso il centro del pianeta, così, in quanto creature viventi che si trovano in un mondo del genere in uno specifico periodo di tempo, possiamo definire la direzione del tempo come se essa andasse dagli stati meno probabili verso quelli più probabili (in modo che i primi diventeranno il “passato” e i secondi il “futuro”), e in virtù di questa definizione troveremo che questa piccola regione, isolata dal resto dell’universo, è sempre “inizialmente” in uno stato improbabile. [Boltzmann, Risposta a Zermelo, 1897; tr. Inglese in Brush, Kinetic Theory, vol. 2, Pergamon Press, 1966; cfr. per ripresa di suggestioni boltzmanniane in chiave moderna, M. Gasperini, L’universo prima del Big Bang, Franco Muzio Editore, Roma 2002] I fenomeni che oggi manifestano una qualche forma di irreversibilità e che quindi sembrano poter essere connessi con l’argomento della “freccia del tempo” sono essenzialmente cinque: 1. l’asimmetria entropica in termodinamica; 2. l’emissione di radiazione nell’elettromagnetismo; 3. l’espansione dell’universo in ambito cosmologico; 4. la misurazione quantistica; 5. la violazione di CP nel decadimento di alcune particelle. Questi cinque fenomeni hanno qualcosa in comune? L’asimmetria entropica è l’asimmetria fondamentale? Sono queste alcune questioni che hanno una loro rilevanza nell’ambito dei fondamenti e della filosofia della fisica, e sono ancora un attivo campo di ricerca della fisica. L’articolo di Boltzmann del 1877, pone le basi dell’autonomia della meccanica statistica dai modelli particolari della struttura degli atomi o molecole e delle loro interazioni, e dal tipo di meccanica che esprime le leggi fondamentali del moto. Il pieno dispiegamento della nuova teoria avrebbe richiesto ulteriori raffinamenti matematici e concettuali che saranno prima di tutto opera di Gibbs e Einstein. E già nei primi decenni del XX secolo, la meccanica statistica consoliderà la sua struttura formale (con il contributo, tra gli altri, di P. e T. Ehrenfest, J. Von Neumann, A.N. Kolmogorov, A.Y. Khinchin, N.N. Bogoliubov, L. Landau) e si svilupperà in applicazioni che coinvolgono la nascente teoria dei quanti. Nonostante l’introduzione delle nuove statistiche quantistiche l’impianto ottocentesco della teoria rimarrà sostanzialmente intatto, rivelandosi particolarmente fruttuoso nella teoria dei sistemi complessi, sia classici sia quantistici, e nel trasferimento di conoscenze tra fisica, chimica e biologia. Accanto alla chiarificazione delle ipotesi e della struttura formale della teoria, importanti progressi sono stati fatti nella descrizione della materia e dell’energia e in particolare nella trattazione dell’insorgenza nei sistemi complessi di comportamenti collettivi ordinati o, come si dice, coerenti. La superconduttività, la superfluidità, la luce laser sono diventati paradigmatici di questa nuova affascinante fenomenologia, nella quale si dispiegano nozioni fondamentali della meccanica statistica, come le fluttuazioni (classiche o quantistiche), la coerenza, le transizioni tra fasi ordinate e disordinate. Proprio nell’ambito delle transizioni di fase, a partire dal lavoro di Onsager del 1944 e di Lee e Yang del 1952, torna l’interesse per i modelli tramite i quali definire i parametri più significativi (i cosiddetti parametri d’ordine) insieme alle possibili scelte dei valori di questi parametri che individuano la transizione di fase. Queste ricerche hanno visto una continua fertilizazzione incrociata tra meccanica statistica e teoria quantistica dei campi.