Lezione 3 - L`Ottocento: le teorie del calore

Corso di Storia della Fisica
A.A. 2006-2007
Lezione 3 - L’Ottocento: le teorie del calore
Copyright, 2006-2007 © Giulio Peruzzi
Le ragioni del sopravvento dei modelli fluidistici negli ultimi vent’anni
del Settecento sono molteplici:
– la scoperta dei gas diversi dall’aria,
– il sorgere della calorimetria con l’invenzione di nuovi strumenti di
misura (il calorimetro a ghiaccio),
– le ricerche sulle transizioni di fase,
– la comprensione graduale del significato del calore latente e dei
calori specifici (legato al tipo di sostanza e non solo a V e !),
– l’analisi dei fenomeni nei quali l’assorbimento di calore non
produce solo un innalzamento di temperatura o una transizioni di
fase ma anche una dilatazione,
– i primi tentativi di distinguere il calore specifico a volume costante
da quello a pressione costante,
– l’intreccio tra la fisica del calorico e la rivoluzione chimica di
Lavoisier,
– nonché lo stimolo proveniente dai successi ottenuti nelle ricerche
sui fluidi elettrici e magnetici.
Ciononostante varie indagini nell’ambito dei fenomeni
termici (e in particolare nel calore prodotto per attrito e nella
radiazione termica) produssero modelli non sempre in linea
con il dominante modello fluidista, basti pensare
- alle concezioni cinetiche di D. Bernoulli (Hydrodynamica,
1738), nelle quali la descrizione di Newton di un fluido
elastico come aggregato di masse puntiformi in interazione
repulsiva viene sostituita dalle collisioni tra sfere elastiche
di dimensioni finite (equazione di stato dei gas e primi
embrioni della dipendenza di T dalla velocità molecolare al
quadrato);
- alle concezioni ondulatorie di Benjamin Thompson, conte
di Rumford (1753-1814) contrastate dalle diverse (e
influenti) idee di Pierre Prévost basate su un’interpretazione
“emissiva” del calore.
Il fatto che la teoria fluidistica del calorico dovesse essere abbandonata
dopo il 1850 con l’affermarsi della termodinamica ha generato l’errata
opinione (di cui fu sostenitore Tyndall) secondo la quale la fisica fluidistica
costituì comunque un ostacolo al progresso della fisica dei fenomeni termici.
In realtà la fisica del calorico rappresentò il quadro concettuale che permise
alla scienza dei fenomeni termici di svilupparsi per diversi decenni sia sul
fronte delle tecniche di misura sia sul fronte della matematizzazione.
Quella fisica non crollò di fronte a esperimenti cruciali per far nascere le
ipotesi corpuscolari. Essa, al contrario, fu il luogo ideale degli esperimenti e
delle teorizzazioni che misero un primo ordine nella complessa
fenomenologia chimica e fisica dei processi termici, affrontarono il problema
centrale della riducibilità della scienza del calore ai principi della teoria del
moto, introdussero il calcolo delle probabilità nelle teorie dei gas, e
permisero la scoperta di quel carattere universale dei processi termici che
riguarda la loro direzionalità nel tempo.
La fisica del calorico non cadde a causa di esperimenti che avrebbero
potuto essere eseguiti in epoche anteriori se si fossero accettate le ipotesi
corpuscolari, ma cadde poiché seppe progredire a tal punto da far emergere
problemi che essa stessa non era in grado di risolvere.
[cit. Bellone, Caos e Armonia, p. 105]
Calore e temperatura prima dell’introduzione
della conservazione dell’energia
L’identificazione del calore come fluido igneo,
chiamato calorico da Lavoisier nel 1787, rimase
centrale a partire dagli anni 1770 fino quasi alla metà
del 1800.
Al calorico vennero assegnate proprietà simili a
quelle del fluido elettrico: le particelle del fluido
calorico si dovevano respingere tra loro ed erano
attratte dai corpuscoli costituenti la materia ordinaria.
Su questa linea si muove la teoria di Laplace del
calore (Traité de Mécanique Céleste, vol. V, 1825):
ogni molecola (una massa elementare) è circondata
da un’atmosfera costituita da particelle di calorico,
emesse e assorbite sotto l’azione di forze a corto
raggio d’azione.
Le particelle legate alle atmosfere rappresentavano il
calorico latente (non osservabile con termometri),
mentre quelle libere di muoversi ad alte velocità nello
spazio il calorico libero.
Siccome il termometro era sensibile solo al calorico
libero, si imponeva una analisi del significato fisico del
termine “temperatura”.
Immaginava allora una cavità vuota delimitata da
pareti a temperatura costante; questa si riempiva di
calorico libero di muoversi in ogni direzione, e la
densità del fluido calorico era funzione della
temperatura delle pareti: era la densità di fluido
calorico a costituire il referente del termine
temperatura.
Se un corpo era in equilibrio di temperatura in una
certa regione di spazio e veniva trasportato in un’altra
dove la densità di calorico libero era diversa, allora la
temperatura del corpo variava fino a che l’emissione e
assorbimento di calorico libero da parte del corpo non
diventavano uguali fra loro: La temperatura di un corpo
è la densità di calorico dello spazio dove si realizza
questa uguaglianza.
Incrinature nell’approccio caloricistico
Di Benjamin Thompson, Conte Rumford (1753-1814)
abbiamo già parlato.
Humphry Davy (1778-1829) afferma nel 1799 che il
calorico viene creato per frizione (al contrario di ciò che
sostenevano i caloricisti) e che “è sperimentalmente
assodato che il calorico non esiste”.
Luce e calore vengono analizzati nei primi decenni
dell’Ottocento in stretta analogia: William Herschel,
Macedonio Melloni, James Forbes mettono in evidenza
che anche il calore sembra avere proprietà di riflessione,
rifrazione, interferenza, ecc. simili a quelle della luce.
L’introduzione dell’interpretazione ondulatoria della luce
porta alla sua generalizzazione analogica al calore,
aprendo la strada alla possibilità di concepirlo come forma
di energia.
ENERGIA E LEGGE DI CONSERVAZIONE
Dall’Antichità a oggi, un principio guida nelle scienze fisiche è
stato la ricerca di elementi di costanza e regolarità in un mondo
caratterizzato dal mutamento, nel tentativo di mettere in luce un
ordine in un caos apparente.
La scienza moderna porta all’individuazione successiva di principi
di conservazione:
1. La conservazione della quantità di moto (nel Seicento,
seguita molto tempo dopo dalla legge di conservazione del
momento angolare a essa associata).
2. La conservazione della carica elettrica (a metà del
Settecento).
3. La conservazione della materia (tra la fine del Settecento e
gli inizi dell’Ottocento).
La formulazione di queste leggi (o principi) di conservazione
differisce da quella della conservazione dell’energia che non a
caso richiese un periodo di gestazione più lungo.
La Naturphilosophie o Scienza
Romantica
Nella scoperta della conservazione
dell’energia giocarono un ruolo
importante alcune idee che si stavano
diffondendo nei primi decenni
dell’Ottocento in diversi ambienti della
comunità scientifica e che avevano
nella Naturphilosophie il loro punto di
riferimento.
La concezione di un’unità delle forze
della natura propugnata dai
Naturphilosophen veniva associata
sia all’idea che le diverse specifiche
manifestazioni di queste forze
potessero essere ricondotte al
conflitto tra forze primordiali tra loro
opposte, sia all’idea che tutte le forze
potessero essere convertibili le une
nelle altre.
Bologna, Il Mulino 2000, pp. 1-736
La profonda convinzione dell’unità della natura si
concretizzava, sotto l’influenza prima di tutto di Schelling,
nella concezione di una unità dinamica della natura vista
come processo di continuo mutamento in cui i fenomeni
qualitativamente diversi che ne emergevano avevano come
sostrato comune le azioni reciproche delle medesime forze
primordiali. Non è un caso che il movimento di idee della
“scienza romantica” portò a rileggere e interpretare in una
nuova luce alcune parti del pensiero di Leibniz e di Kant in particolare il Kant dei Metaphysische Anfangsgründe der
Naturwissenschaft (Primi principi metafisici della scienza
della natura).
In forme e modi diversi l’influenza di questo vasto
movimento di idee, nonostante gli elementi irrazionalistici e
misticheggianti che lo permeavano, si ritrova nella
formazione di molti scienziati dell’Ottocento (tra i quali
Mayer, Joule, Ørsted, Faraday e Maxwell).
D’altra parte, la Naturphilosophie aveva rappresentato, nei primi
decenni dell’Ottocento, anche la ribellione contro l’ingenua
interpretazione meccanicistica dei fenomeni organici complessi
propria dei newtoniani dell’epoca. Come aveva sostenuto
Goethe (1749-1832) in molte delle sue opere, e soprattutto in
Per la teoria dei colori (1810), ridurre tutti i fenomeni e i
processi del mondo organico a movimenti e forze era
inaccettabile.
Ma i progressi nel campo della fisica, della chimica e delle
scienze biologiche avrebbero poi permesso, nel corso
dell’Ottocento, di acquisire elementi tali da dare nuovo vigore a
coloro che ritenevano che le cosiddette scienze della vita
ponessero problemi solo quantitativamente diversi da quelli
delle scienze fisiche e chimiche. Ludwig, von Helmholtz, Du
Bois-Reymond e von Brücke furono tra quelli che, in aperta
polemica con i movimenti romantici, sostennero con più forza e
autorevolezza che i fenomeni della vita potessero essere
interpretati come manifestazioni di leggi fisiche e chimiche.
Mayer e Joule, la sintesi di Helmholtz
! Julius Robert Mayer (1814-1878): articolo del 1842 contenente
le Considerazioni sulle forze della natura inorganica
! James Prescott Joule (1818-1889): 1841-1845 vari articoli che
iniziano con l’indagine del calore dissipato in circuiti elettrici e
approdano all’equivalente meccanico del calore
! Hermann L. F. von Helmholtz (1821-1894): 1847 Sulla
Conservazione della forza. Enunciazione del principio
generale di conservazione dell’energia: a. impossibilità del
moto perpetuo; b. polemica con la Naturphilosophie; c. uso
dell’argomentazione matematica applicata ai fenomeni del
movimento (spiegare i fenomeni naturali a partire dai
movimenti di particelle interagenti). [cit. p. 113, Helmholtz, UTET]
La nascita della termodinamica
! Sadi Carnot (1796-1832) - Riflessioni sulla potenza
motrice del fuoco e sulle macchine atte a sviluppare
quella potenza (1824)
! Benoit-Paul-Èmile Clapeyron (1799-1864) - Sulla
potenza motrice del calore (1834)
! Rudolf Clausius (1822-1888) - saggio del 1850
! William Thomson (futuro Lord Kelvin) - saggi a partire
dal 1851 sulla teoria dinamica del calore. [cit. 1852 sulla
tendenza universale in natura a dissipare energia
meccanica, Bellone, p. 201]
Possiamo dire - scrive Calusius nel 1865 - che S indica il
contenuto di trasformazione del corpo, così come diciamo
che U è il contenuto di calore e di lavoro del corpo stesso.
Tuttavia, poiché sono dell’opinione che i nomi di quantità di
questo tipo - che sono così importanti per la scienza debbano essere ricavati dai linguaggi antichi al fine di
introdurli senza modificazioni nei linguaggi moderni,
propongo di chiamare la grandezza S con il nome di entropia
del corpo, partendo dalla parola greca “tropé” che significa
trasformazione.
Intenzionalmente ho formato il termine entropia in modo tale
da renderlo il più possibile simile al termine energia: infatti
entrambe queste quantità … sono così strettamente
connesse l’una all’altra dal punto di vista del significato
fisico, che mi pare utile una certa analogia [assonanza] tra i
loro nomi.
BIBLIOGRAFIA
• S. Carnot, La potenza del fuoco, Bollati Boringhieri, Torino 1992.
• C. Truesdell, The Tragicomical History of Thermodynamics 1822-1854,
Springer-Verlag, New York 1980.
• G. Peruzzi, Maxwell. Dai campi elettromagnetici ai costituenti ultimi della
materia, “i grandi della scienza”, Le Scienze, n. 5, 1998.
• S. G. Brush, Selected Readings in Physics: Kinetic theory, Vol. 2
(Irreversible Processes), Pergamon Press 1966; Statistical Phsics and
Atomic Theory of Matter From Boyle and Newton to Landau and
Onsanger, Princeton University Press, Princeton 1983.
• E. Bellone, I nomi del tempo, Bollati Boringhieri, Torino 1989.
• C. Cercignani, Ludwig Boltzmann e la meccanica statistica, La
Goliardica Pavese, Pavia 1997
• H. Reichenbach, The Direction of Time, University of California Press,
Berkeley 1956.
• R. Penrose, The emperor’s new mind, Oxford University Press, Oxford
1989 (trad. it. La nuova mente dell’imperatore, Bompiani)
La teoria cinetica dei gas: Clausius
e Maxwell
Il primo lavoro di Clausius, uscito nel
1857 col titolo Über die Art der
Bewegung, welche wir Wärme
nennen (Sulla specie di movimento
che chiamiamo calore), costituisce
un notevole passo avanti rispetto ai
risultati di Herapath, Joule e Krönig*
nella derivazione della formula che
esprime il legame tra la pressione di
un gas (una grandezza fisica
macroscopica) e la velocità dei moti
molecolari (una grandezza
appartenente al livello microfisico).
* August Karl Krönig era scienziato autorevole: docente presso la Realschule di Berlino e
editore della rivista “Fortschritte der Physik”
Modello di Joule-Krönig
Per ricavare l’espressione che lega la pressione di un gas ai moti
molecolari (Joule) Krönig partiva sì dall’ipotesi probabilistica che i
moti irregolari delle molecole finissero in media per assumere un
andamento regolare, ma da questa traeva una drastica, quanto
ingiustificata, semplificazione del modello.
Se si hanno N particelle sferiche di massa m in un recipiente a
forma di parallelepipedo, si può ottenere l’espressione della
pressione in funzione delle energie cinetiche delle particelle
ipotizzando che le N particelle si dividano in tre fasci che si
muovono lungo le direzioni individuate da una terna di assi
cartesiani solidale con gli spigoli del recipiente.
Clausius obietta a Krönig che la riduzione del movimento
molecolare a puro movimento traslatorio richiede una
giustificazione, in quanto negli urti si possono determinare
anche moti oscillatori e vibrazionali delle molecole.
Modello di Clausius
Pur non fornendo un calcolo esplicito dell’energia
contenuta nelle rotazioni e vibrazioni molecolari,
Clausius ritiene che quando si stabilisce, a causa degli
urti molecolari, uno stato di equilibrio nel gas (pressione
costante in tutto il volume occupato dal gas) la parte di
energia totale del sistema relativa alle rotazioni e
vibrazioni è fissata:
non conosciamo l’energia complessiva rotazionale e
vibrazionale delle molecole ma sappiamo che
all’equilibrio è una costante.
Ipotesi di Clausius relative alla costituzione del gas e agli
urti molecolari:
1. Gas ideale (lo spazio occupato dalle molecole deve
essere infinitesimo rispetto al volume complessivo del
gas).
2. Collisioni istantanee (tempi di collisione molto più
piccoli degli intervalli di tempo che separano due
collisioni successive).
3. Solo collisioni (l’influenza delle forze tra le molecole
deve essere trascurabile).
Si può allora pensare che nell’intervallo di tempo che
intercorre tra due collisioni successive le particelle si
muovano su traiettorie rettilinee con una velocità che
Clausius, per semplicità, suppone uguale in modulo per
tutte le molecole. Sulla base di queste ipotesi, Clausius
arriva alla seguente espressione del legame tra
pressione, volume e moti molecolari:
.
dove P è la pressione del gas, V è il volume occupato
dal gas, N è il numero totale di molecole del gas, m la
massa e v la velocità di traslazione media di ogni
molecola.
Se si conosce la densità del gas – che nelle notazioni
precedenti è espressa da Nm/V – a una data
pressione P, la formula trovata permette di ricavare la
velocità media delle molecole.
I valori trovati da Clausius nel caso dell’ossigeno,
dell’azoto e dell’idrogeno sono, rispettivamente, 461,
492 e 1844 metri al secondo.
Il risultato di Clausius viene criticato pochi mesi dopo
dal meteorologo olandese Christoph Hendrik Diederik
Buys-Ballot (1817-1890). Una velocità molecolare così
elevata sembra in evidente contraddizione con la
relativa lentezza del processo di diffusione di un gas
in un altro.
Clausius risponde a questa obiezione in un articolo del 1858
(letto da Maxwell in traduzione nel 1859):
•
abbandona l’ipotesi delle dimensioni infinitesime delle
molecole (il cui diametro è ora d);
•
introduce un parametro, chiamato cammino libero medio
e indicato con l, per designare la distanza media che una
molecola percorre prima di urtarne un’altra.
l deve essere abbastanza grande rispetto a d, per non
compromettere l’applicazione dei concetti base della teoria
cinetica usati per derivare la legge del gas ideale, ma deve
essere sufficientemente piccolo da far sì che una molecola
debba cambiare la sua direzione frequentemente, e
impiegare quindi un tempo relativamente lungo per uscire da
una certa regione dello spazio di dimensioni macroscopiche.
Il cammino libero medio è, come dice Clausius, inversamente
proporzionale alla probabilità che una molecola che si muove nel
gas collida con un’altra molecola.
Siccome una collisione tra due molecole di raggio r avviene
quando i loro centri si trovano a una distanza minore o uguale a
d=2r, il risultato è equivalente a quello che si ottiene pensando
alla collisione di una particella puntiforme su un oggetto circolare
di raggio d.
La probabilità di collisione è allora proporzionale alla superficie
" d 2 e quindi l deve essere inversamente proporzionale a " d 2.
Ricorrendo ad argomenti statistici Clausius stabilisce che la
probabilità W che una molecola percorra una distanza x senza
collidere è data da: W = e # x / l, per cui solo una piccola frazione
delle molecole percorre una distanza maggiore a qualche l prima
di collidere, e questo risponde all’obiezione di Buys-Ballot.
Da Clausius a Maxwell
I fondamentali motivi che spingono
Maxwell ad avviare i suoi studi sulla
teoria cinetica dei gas scrivendo
l’Illustration of the dynamical theory
of gases nel 1860:
• tentare di risolvere il problema di
una trattazione dei moti di un sistema
costituito da molte particelle, studiare
le proprietà fisiche di tale sistema
(come la viscosità)
• sondare le possibilità della
applicazione di metodi statistici
all’analisi dei problemi fisici (Quetelet
e John Herschel).
L’interesse di Maxwell per la teoria della probabilità risaliva agli
anni tra il 1848 e il 1850, gli anni in cui leggeva con attenzione i
contributi forniti in questo campo da vari autori, tra cui Laplace
e Boole.
Al 1850 risale la lettera a Campbell dove scrive:
[...] la vera logica di questo mondo è il Calcolo delle
Probabilità [...] Questa branca della Matematica, che di
solito viene ritenuta favorire il gioco d’azzardo, quello dei
dadi e le scommesse, e quindi estremamente immorale, è la
sola “Matematica per uomini pratici”, quali noi dovremmo
essere. Ebbene, come la conoscenza umana deriva dai
sensi in modo tale che l’esistenza delle cose esterne è
inferita solo dall’armoniosa (ma non uguale) testimonianza
dei diversi sensi, la comprensione, che agisce per mezzo
delle leggi del corretto ragionamento, assegnerà a diverse
verità (o fatti, o testimonianze, o comunque li si voglia
chiamare) diversi gradi di probabilità.
MAXWELL E LA TEORIA CINETICA DEI GAS (1859-1879)
1. On the stability of the motion of Saturn’s Rings
(1855-59)
2. Illustration of the dynamical theory of gases (1860)
3. On the viscosity or internal friction of air and other
gases (1865-66)
4. On the dynamical theory of gases (1867)
5. On stresses in rarified gases arising from
inequalities of temperature (1878)
6. On Boltzmann’s theorem on the average
distribution of energy in a system of material point
(1879)
Marzo 1855 - Viene bandito il
concorso per il premio Adams con
il tema “i moti degli anelli di
Saturno”.
Maxwell partecipa con una
memoria dal titolo “Sulla stabilità
del moto degli anelli di Saturno” e
vince il premio.
On the stability of the
motion of Saturn’s Rings
(1855-59)
La distribuzione delle velocità (1860)
Il punto di partenza di Maxwell è l’“analogia fisica” tra le
molecole in un gas e un insieme di sfere di piccole
dimensioni, dure e perfettamente elastiche.
L’analisi degli urti elastici tra coppie di sfere permette a
Maxwell di ricavare l’ipotesi fondamentale che trasforma la
teoria cinetica in una teoria compiutamente statistica:
le numerose collisioni tra le molecole di un gas non
determinano l’uguaglianza delle velocità delle varie
molecole, ma hanno l’effetto di produrre una distribuzione
statistica delle velocità, nella quale tutti i valori delle
velocità, da zero all’infinito, sono presenti con probabilità
diverse.
Le ipotesi da cui parte Maxwell per formulare la distribuzione
statistica delle velocità sono due:
1. nell’urto elastico tra due sfere il rimbalzo può avvenire con
uguale probabilità in tutte le direzioni;
2. scomposta la velocità lungo tre direzioni mutuamente
ortogonali, la distribuzione di probabilità per ogni
componente della velocità è indipendente dai valori delle
altre componenti (un’ipotesi che nel 1867 riuscirà a
derivare); il che equivale al fatto che le distribuzioni di
probabilità per le componenti ortogonali della velocità sono
tra loro uguali nella forma.
Su questa base Maxwell ricava che, in un gas composto da N
particelle, il numero dN(vx) di particelle che ha velocità lungo x
compresa tra vx e vx + d vx è:
Distribuzione
gaussiana
Analoghe espressioni valgono per il numero di particelle dN(vy)
e dN(vz) che hanno velocità lungo y e lungo z compresa tra vy e
vy + d vy e vz e vz + d vz.
Maxwell può così ottenere che il numero di particelle dN(v) che
hanno velocità v = (vx2 + vy2 + vz2)1/2 compresa tra v e v + d v è
.
.
È questa la celebre espressione
della distribuzione maxwelliana
delle velocità, dalla quale
Maxwell ricava l’espressione
della velocità media vM = 2$/" 1/2.
La conclusione di Maxwell è che “le velocità sono distribuite tra
le particelle secondo la stessa legge con la quale gli errori sono
distribuiti tra le osservazioni nella teoria del metodo dei minimi
quadrati ”.
La descrizione dei processi fisici tramite una funzione statistica
segna una svolta importante nella fisica ottocentesca. Come
sottolinea Gibbs nel necrologio scritto nel 1889 per Clausius
“Nello studiare Clausius ci sembra di studiare la meccanica;
nello studiare Maxwell, come pure succede per la gran parte del
lavoro di Boltzmann, ci sembra invece di studiare la teoria delle
probabilità”.
Dall’interpretazione causale deterministica, fondata sulle leggi
della meccanica, si comincia a passare a un’interpretazione di
tipo probabilistico, che troverà fondamento nella moderna
meccanica statistica.
I nuovi problemi interpretativi emergono già nella seconda
metà degli anni ‘60 dell’Ottocento, quando si cerca di dare
una giustificazione soddisfacente della funzione statistica
trovata da Maxwell.
La legge di distribuzione delle velocità ottenuta manifesta vari
caratteri che la rendono intuitivamente plausibile:
1. dN(v) tende a zero quando v tende a zero;
2. dN(v) tende a zero quando le velocità sono molto grandi;
3. la funzione di distribuzione ha un massimo per v = $.
Tutto ciò è in accordo con quanto ci si aspetta fisicamente
che avvenga, cioè che solo un numero relativamente piccolo
di molecole abbiano velocità molto basse o molto alte.
COME GIUSTIFICARE LA FUNZIONE STATISTICA?
Numerosi tentativi saranno fatti, a partire dagli anni Sessanta
dell’Ottocento, per dare una dimostrazione rigorosa della
distribuzione maxwelliana delle velocità in un gas all’equilibrio, che
esperimenti successivi dimostreranno essere verificata con grande
precisione.
È lo stesso Maxwell a tentare per primo un approccio diverso nel
fondamentale articolo del 1867 dal titolo On the dynamical theory
of gases. Supponendo che le velocità molecolari si trovino già
distribuite secondo la funzione maxwelliana, le collisioni elastiche
tra le molecole lasciano questa distribuzione invariata nel tempo,
cioè la distribuzione maxwelliana è stabile. Su questa base
Maxwell congettura che la distribuzione trovata sia quella a cui
converge qualunque distribuzione iniziale delle velocità.
Proprio da qui parte Boltzmann negli anni Settanta con l’obiettivo
di fornire una spiegazione del secondo principio della
termodinamica, fondata sulla teoria cinetica dei gas.
Sulla verifica sperimentale della distribuzione di
Maxwell delle velocità si rimanda alla lettura
dell’articolo: I. Estermann, O.C. Simpson, O.
Stern, “The Free Fall of Atoms and the
Measurement of the Velocity Distribution in a
Molecular Beam of Cesium Atoms”, Physical
Review, vol. 71 (1947), pp. 238-249
Torniamo al lavoro di Maxwell del 1860.
Una volta introdotta la funzione di distribuzione, Maxwell affronta il
problema d’una sua indiretta verifica sperimentale, applicandola alla
descrizione dei fenomeni di trasporto (viscosità, diffusione e
conducibilità termica).
Egli interpreta la viscosità come trasferimento di impulso tra strati di
particelle che, allo stesso modo che negli anelli di Saturno, si
muovono strato per strato con velocità tangenziali diverse, e ottiene
la seguente espressione del coefficiente di viscosità µ in funzione
della densità ! del gas, del libero cammino medio l e della velocità
media vM : µ = 1/3 ! l vM.
Poiché l è inversamente proporzionale a !, Maxwell conclude che la
viscosità è indipendente dalla pressione.
La ragione di questo fatto - come egli scrive in una lettera a Stokes del 1859 - è che
nei gas rarefatti il libero cammino medio è più grande e quindi l'azione di frizione
[cioè il trasferimento di momento] si propaga a distanze maggiori", mentre, al
contrario l'aumento di pressione implica una diminuzione della distanza media lungo
la quale ogni molecola può propagare il momento.
Il risultato, plausibile sul piano teorico, è apparentemente
contraddetto dai dati sperimentali disponibili, come nota Maxwell
nell'articolo del 1860. In ogni caso Maxwell, sostituendo
nell’espressione trovata i valori di µ e ! ricavati da alcuni esperimenti
condotti da Stokes e il valore di vM ricavato dall'espressione PV =
(1/3) Nm vM2 ottenuta da Clausius, è in grado di dare una prima
stima del valore di l. Il valore da lui trovato - 5,6 x 10-6 cm per l'aria a
pressione atmosferica e a temperatura ambiente - è diverso
dall’attuale a meno di un fattore due (il valore è oggi circa 10-5 cm).
Maxwell, con lo stesso metodo impiegato per ricavare il coefficiente
di viscosità, affronta quindi i calcoli relativi alla diffusione dei gas e
alla conduzione del calore determinando, rispettivamente, il numero
di molecole e la quantità di energia trasportate nel gas. Applicando le
formule di diffusione ricavate dagli esperimenti condotti in questo
ambito da Thomas Graham negli anni Quaranta, Maxwell riesce ad
ottenere una seconda stima indipendente del valore di l in aria, pari a
6.3 x 10-6 cm. L'accordo con la stima di l ottenuta dal coefficiente di
viscosità è una conferma della sostanziale plausibilità della teoria.
Tuttavia la trattazione di Maxwell del 1860 viene
criticata da Clausius in un articolo del 1862.
Clausius rileva che Maxwell, utilizzando una funzione
di distribuzione delle velocità isotropa - cioè uguale in
tutte le direzioni - anche in presenza di variazioni di
pressione e temperatura (nel caso, rispettivamente,
della diffusione e della propagazione del calore), ha
commesso una serie di errori di calcolo.
Clausius fornisce una teoria essenzialmente corretta
formalmente ma insoddisfacente fisicamente in quanto
continua a far uso dell'assunzione che la velocità
molecolare sia costante.
NOTA (CONTRO IL FALSIFICAZIONISMO INGENUO)
La teoria di Maxwell era in contraddizione con i dati
dell’epoca.
Questo avrebbe dovuto falsificare la teoria. Al contrario, il
nuovo quadro interpretativo da lui proposto, nel quale per
la prima volta i fenomeni di trasporto venivano ricondotti al
trasferimento a livello molecolare del momento e
dell'energia, offriva una nuova chiave di lettura dei dati
acquisiti e uno stimolo a rivedere le condizioni
sperimentali tramite le quali erano stati acquisiti.
Questa revisione avrebbe finito per confermare la teoria
maxwelliana.
Questo non implica l’indifferenza della teoria rispetto
alla sua verifica sperimentale, ma comporta una più
attenta considerazione del nesso che lega la teoria
all'esperimento. Maxwell di questo è ben consapevole.
Ed infatti, proprio a partire dalle critiche teoriche
mossegli da Clausius e dall'incertezza dei dati
sperimentali che Stokes gli aveva comunicato, Maxwell
inizia, tra il 1863 e il 1865, una serie di accurate
verifiche sperimentali delle sue conclusioni teoriche
relative all'andamento della viscosità.
Il metodo della fertilizzazione incrociata tra settori
diversi della fisica, che Maxwell aveva già applicato agli
altri filoni delle sue ricerche, trova qui un nuovo
importante momento di verifica.
Lo strumento ideato da
Maxwell per le misure della
viscosità nei gas a diverse
pressioni e temperature trae
spunto da alcuni dispositivi
usati per la determinazione
dell'unità campione di
resistenza elettrica.
L'esperimento consiste
nell'osservare le oscillazioni
indotte da un campo
magnetico variabile su una pila
di dischi paralleli sospesi ad un
filo di torsione sigillati in un
recipiente contenente aria, e
nella misura dei loro
smorzamenti al variare della
pressione e della temperatura
dell'aria nel recipiente.
I risultati delle sue ricerche sperimentali vengono pubblicati nel
1866 nell'articolo dal titolo On the viscosity or internal friction of
air and other gases.
Maxwell verifica, in linea con la sua teoria, che il coefficiente di
viscosità rimane costante per un ampio campo di variazioni
della pressione, un risultato confermato negli stessi anni dagli
esperimenti di Oskar Emil Meyer.
Oltre alle critiche di Clausius, un altro risultato ricavato da
queste misure costringe tuttavia Maxwell a rivedere il suo
approccio iniziale alla teoria cinetica dei gas. Secondo il
modello delle sfere elastiche collidenti, alla base del lavoro del
1860, il coefficiente di viscosità doveva essere proporzionale
alla radice quadrata della temperatura assoluta (µ % T1/2),
mentre i risultati ottenuti indicavano una dipendenza di tipo
lineare (µ % T ).
Proprio negli stessi anni in cui conduce i suoi
esperimenti, Maxwell abbandona il modello
semplificato delle sfere elastiche e sviluppa una
teoria dinamica generale dei costituenti dei gas,
nella quale le molecole sono descritte come centri di
forza.
I risultati di queste ricerche, che costituiscono un
sostanziale passo avanti rispetto al lavoro del 1860,
vengono pubblicati da Maxwell nel 1867 nel suo
articolo dal titolo On the dynamical theory of gases.
La teoria dei processi di trasporto nei gas viene sviluppata
sulla base dell’assunzione che le molecole si comportino
come centri puntiformi di forza.
Il metodo di indagine consiste nel calcolare i valori medi di
varie grandezze espresse come funzioni della velocità di tutte
le molecole di un dato tipo all’interno di un elemento di
volume, e le variazioni di questi valori medi dovute,
• prima di tutto, agli urti delle molecole con altre dello
stesso o di diverso tipo;
• in secondo luogo, all’azione di forze esterne come la
gravità;
• e, in terzo luogo, al passaggio delle molecole attraverso
la superficie che racchiude l’elemento di volume.
Gli urti sono analizzati nel modello nel quale le molecole si
respingono tra loro con una forza che va come 1/r n.
In generale la variazione dei valori medi delle funzioni delle
velocità dovuta agli urti dipende dalla velocità relativa delle due
molecole collidenti e, a meno che il gas si trovi all'equilibrio
termico, la distribuzione di velocità non è nota e quindi non è
possibile calcolare direttamente queste variazioni.
Tuttavia, nel caso di forze che vadano come 1/r 5 la velocità
relativa sparisce e i calcoli possono essere eseguiti.
In questo caso speciale si trova che il coefficiente di viscosità è
proporzionale alla temperatura assoluta, in accordo con i
risultati sperimentali ottenuti dall'autore. Viene anche derivata
l'espressione del coefficiente di diffusione e paragonato con i
risultati sperimentali pubblicati da Graham.
[in Brush, riassunto anteposto all'articolo di Maxwell del 1867]
In una teoria di questo genere la nozione di libero cammino medio
tra due urti successivi non ha più significato: le molecole infatti
non si muovono in linea retta ma lungo orbite complicate, in cui le
deflessioni hanno luogo a distanze che dipendono dalle velocità e
dalle posizioni iniziali delle molecole.
Per questo Maxwell, sviluppando alcuni risultati mutuati dalle
teorie dell'elasticità, sostituisce alla nozione di cammino libero
medio quella di "modulo del tempo di rilassamento" delle tensioni
in un gas.
L'espressione del coefficiente di viscosità viene ora ricavata
utilizzando il "modulo del tempo di rilassamento", e, con un
andamento delle forze di repulsione del tipo 1/r5, Maxwell ricava µ
% T in accordo con i suoi risultati sperimentali. Inoltre l'utilizzo
della legge di distribuzione delle velocità, che, come già notato,
viene derivata in questo articolo in modo più generale, fornisce la
chiave di volta per calcolare le varie proprietà dei gas. [cit. Brush, p. 5]
Il fenomeno della viscosità - scrive Maxwell nell’articolo del ‘67 - può essere
descritto per tutti i corpi indipendentemente da ipotesi come segue:
Una distorsione (tensione) S è prodotta nel corpo da uno spostamento, questo
eccita uno sforzo (forza elastica) F. La relazione tra F e S può essere scritta
come F = ES, dove E è il coefficiente di elasticità per un particolare tipo di
distorsione. Nel caso di un solido senza viscosità, F rimane uguale a ES e
quindi: dF/dt = E dS/dt.
Se invece il corpo è viscoso, F non rimane costante ma tende a sparire con una
velocità che dipende dal valore di F e dalla natura del corpo. Se supponiamo
che questa velocità sia proporzionale a F, allora l'equazione può essere scritta
nella forma: dF/dt = E dS/dt - F/! che esprime il fenomeno in forma empirica (! è
il tempo di rilassamento).
Se S è costante allora F = ES e–t/!, cioè F si annulla gradualmente, e il corpo
perde gradualmente ogni sforzo interno e le pressioni si ridistribuiscono come in
un fluido a riposo.
Se dS/dt è costante allora F = E ! dS/dt + C e–t/! e F tende a un valore costante
che dipende dalla velocità di distorsione e il fattore E! è il coefficiente di
viscosità. Siccome E è direttamente proporzionale alla densità e alla
temperatura assoluta e il tempo ! è inversamente proporzionale alla densità (e
indipendente dalla temperatura), allora il coefficiente di viscosità è proporzionale
alla temperatura assoluta.
L’interpretazione del secondo principio della termodinamica
Dalla fine degli anni 1860, anche alla luce dei risultati ottenuti
dalla teoria cinetica dei gas, cresce l’attenzione sui mutamenti
concettuali che la termodinamica sembra imporre nella
descrizione fisica dei fenomeni, specialmente in rapporto al
dibattito sull’interpretazione del secondo principio della
termodinamica.
• Quali conseguenze derivano dall’uso di metodi statistici
nell’elaborazione delle leggi fisiche?
• È possibile su base statistica spiegare l’irreversibilità dei
processi termici espressa dal secondo principio della
termodinamica?
• E come spiegare questa irreversibilità in rapporto alla
reversibilità delle leggi che governano i fenomeni
meccanici?
Il “diavoletto” di Maxwell (Teoria del calore, 1871)
Uno dei fatti meglio stabiliti della termodinamica è
l’impossibilità di produrre senza compiere lavoro una
differenza di temperatura o di pressione in un sistema
racchiuso in un contenitore che non permette cambiamenti
di volume né passaggi di calore, e nel quale sia la
temperatura sia la pressione siano ovunque le stesse.
Questa è la seconda legge della termodinamica, ed è senza
dubbio vera finché si può trattare i corpi solo nel loro
insieme, senza aver modo di percepire e maneggiare le
singole molecole di cui essi sono composti.
Ma se noi concepiamo un essere le cui facoltà siano così acuite da
permettergli di seguire ogni molecola nel suo cammino, un tale
essere, i cui attributi sono tuttavia essenzialmente finiti come i nostri,
sarebbe capace di fare ciò che per noi è attualmente impossibile.
Infatti abbiamo visto che le molecole in un recipiente pieno d’aria a
temperatura uniforme si muovono con velocità nient’affatto uniformi,
anche se la velocità media di un qualunque insieme sufficientemente
numeroso di esse, arbitrariamente scelto, è quasi esattamente
uniforme.
Supponiamo adesso che tale recipiente sia diviso in due parti, A e B,
da un setto in cui vi sia un piccolo foro, e che un essere, che può
vedere le singole molecole, apra e chiuda questo foro in modo da
permettere solo alle molecole più veloci di passare da A a B, e solo a
quelle più lente di passare da B ad A.
In questo modo, senza compiere lavoro, egli innalzerà la temperatura
di B e abbasserà quella di A, in contraddizione con la seconda legge
della termodinamica.
Questo è solo uno degli esempi in cui le conclusioni da noi tratte dalla
nostra esperienza concernente i corpi composti da un immenso
numero di molecole possono risultare non applicabili a osservazioni e
ad esperimenti più raffinati, che possiamo supporre effettuati da
qualcuno capace di percepire e maneggiare le singole molecole che
noi invece trattiamo soltanto per grandi insiemi.
Dovendo trattare di corpi materiali nel loro insieme, senza percepire le
singole molecole, siamo costretti ad adottare quello che ho descritto
come il metodo statistico di calcolo, e ad abbandonare il metodo
strettamente dinamico, nel quale seguiamo con il calcolo ogni
movimento.
Sarebbe interessante chiedersi fino a che punto quelle idee
concernenti la natura e i metodi della scienza che sono state derivate
dagli esempi di indagine scientifica in cui si segue il metodo dinamico
siano applicabili alla nostra reale conoscenza delle cose concrete, che,
come abbiamo visto, è di natura essenzialmente statistica, poiché
nessuno ha ancora scoperto un qualche metodo pratico per tracciare il
cammino di una molecola, o per identificare la singola molecola ad
istanti successivi.
L’esperimento mentale di Maxwell contiene vari spunti di
riflessione.
• La distribuzione statistica delle velocità causa sempre
fluttuazioni spontanee a livello delle singole molecole, che
possono provocare il trasferimento del calore dal corpo a
temperatura minore a quello a temperatura maggiore: queste
però sono “rare” e quindi non influiscono sulla nostra
percezione macroscopica dell’irreversibilità. Solo l’azione del
diavoletto, che opera a livello delle singole molecole, può
produrre un flusso macroscopico di calore da un corpo a
temperatura minore a uno a temperatura maggiore.
Il secondo principio della termodinamica è perciò, a
differenza delle leggi della meccanica classica, una legge di
tipo statistico: le fluttuazioni indicano che può essere violato
anche se con bassa probabilità.
• Maxwell inoltre, assimilando il flusso di calore al
mescolamento molecolare, implicitamente asserisce
che l’irreversibilità sancita dal secondo principio della
termodinamica è equivalente alla transizione da un
sistema parzialmente ordinato a uno meno ordinato.
In altri termini l’ordine e il disordine molecolare
vengono associati alle transizioni da uno stato di non
equilibrio (bassa entropia) a uno stato di equilibrio
(massima entropia) del sistema.
Dai lavori di Maxwell prende le mosse Boltzmann che tra il 1868 e il
1872 arrivava alla formulazione del "teorema H".
Ludwig Eduard Boltzmann era nato Vienna nel
1844. Nel 1863 si iscrive all'Università di Vienna,
dove nel 1866 ottiene il dottorato e, nell'anno
successivo, l'incarico di assistente. Nel 1869 ottiene
la cattedra di fisica matematica all'Università di Graz
e inizia un'intensa attività scientifica. Nel 1873 si
sposta a Vienna sulla cattedra di matematica. Nel
1876 si sposa con Henriette von Aigentler e torna a
Graz come professore di fisica dove rimane per 14
anni (lì nasceranno i suoi due figli e le tre figlie).
Nel 1888 perde il figlio maggiore. Nel 1890 accetta
la cattedra di fisica teorica a Monaco. Nel 1895
torna all'istituto di Fisica di Vienna. Nel 1899 compie
un primo viaggio in America. Nel 1900 accetta la
cattedra di fisica teorica a Lipsia.
Torna a Vienna nel 1902 dove, dal 1903, insegna
anche filosofia della scienza sulla cattedra lasciata
da Mach. Nel 1906 muore suicida a Duino.
Ludwig Boltzmann
(1844-1906)
PRIMI CONTRIBUTI (1866-1871)
1866 - pubblica un lavoro che, sulla falsa riga di alcune
ricerche di Clausius, cerca di stabilire una relazione tra
secondo principio della termodinamica e principio di minimo
dell’azione.
1868 - generalizza la teoria di Maxwell al caso di forze
esterne (come la gravità). Boltzmann dimostra che è ancora
possibile avere equilibrio termico con temperatura costante
in una colonna verticale isolata di gas: la densità e la
pressione variano esponenzialmente con l’altezza (in
funzione cioè del potenziale gravitazionale). In notazione
moderna quello che Boltzmann ricava è che la probabilità di
trovare una molecola in un punto di potenziale V è e–V/kT,
oggi noto come fattore di Boltzmann.
Siccome V può essere l’energia potenziale di tutte le
forze che agiscono sulla molecola, comprese eventuali
forze intermolecolari, il fattore di Boltzmann combinato
con la distribuzione di Maxwell permette di esprimere la
probabilità di uno stato molecolare non solo nei gas, ma
anche nei liquidi e nei solidi.
Ecco perché la legge di distribuzione di MaxwellBoltzmann ha avuto in seguito applicazioni così vaste
diventando uno dei principi basilari della meccanica
statistica classica.
Ma in realtà trova applicazioni anche in campi diversi da
quelli della meccanica statistica classica.
Tra il 1868 e il 1871, Boltzmann riconsidera criticamente il
programma di riduzione del secondo principio alla meccanica (via il
principio di minimo dell'azione).
In una serie di pubblicazioni del periodo si evidenzia da un lato il
dispiegarsi di argomentazioni matematiche relative al calcolo delle
probabilità, e dall'altro una progressiva presa di distanza dalle tesi
della totale riducibilità della termodinamica alla meccanica.
Una volta ridefinite in un nuovo apparato teorico ricco di
determinazioni formali le nozioni base della teoria cinetica dei gas la temperatura, le traiettorie molecolari, gli intervalli di tempo, gli urti
e i valori medi delle grandezze, prima fra tutte l'energia - Boltzmann
avvia una profonda disamina dei fondamenti della teoria che lo
porterà alla conclusione che essa ha una natura sostanzialmente
probabilistica, sulla falsa riga di Maxwell.
Proprio l'introduzione della probabilità, non come strumento ma
come fondamento delle leggi fisiche, è forse il suo merito più alto e
impone una radicale modifica del tradizionale approccio
meccanicista.
Il teorema H [in realtà originariamente teorema E]
La revisione boltzmanniana delle basi della fisica
teorica dei gas sfocia nella memoria del 1872 dal titolo
"Ulteriori studi sull'equilibrio termico delle molecole del
gas" (sequela di un articolo breve mai pubblicato sui
Poggendorff’s Annalen).
Idea base - Un gas è formato da particelle che
compiono moti irregolari, ma a livello macroscopico la
materia allo stato gassoso obbedisce a leggi
perfettamente definite. Una spiegazione di queste
leggi deve quindi poggiare sulla teoria delle probabilità
e su un'attenta analisi delle distribuzioni molecolari.
È quindi necessario:
! individuare alcune asserti generali sul numero di collisioni e di
particelle presenti in elementi generici di volume del gas;
! ricavare nella forma più generale l'equazione che regola
l'andamento temporale della funzione di distribuzione f ;
! riflettere criticamente sull'interpretazione da dare ai rapporti
tra leggi fisiche macroscopiche e asserzioni di carattere
probabilistico.
I passi fondamentali erano quindi quelli:
1. di trovare l'equazione differenziale che esprimesse
l'andamento temporale di f nel tempo;
2. di definire una grandezza funzione di f che garantisse
effettivamente che i sistemi molecolari tendono a una
distribuzione maxwelliana;
3. di collegare questa grandezza a una grandezza macroscopica
nota.
Supponiamo che in un istante t0 siano note la posizione e
la velocità di una molecola qualsiasi, quali saranno la sua
posizione e la sua velocità in un successivo istante t?
Il problema - scrive Boltzmann - è completamente
determinato ma non è risolubile a questo livello di
generalità.
È quindi necessario imporre alcune condizioni/ipotesi
particolari:
1. Dopo un tempo sufficientemente grande (da permettere
grandi numeri di collissioni che coinvolgono grandi numeri
di molecole) le direzioni delle velocità molecolari sono
equiprobabili [distribuzione uniforme].
2. La distribuzione delle velocità è uniforme fin dall’inizio.
Qual è il significato delle condizioni di Boltzmann?
Usando l'energia cinetica invece della
velocità, Boltzmann in pratica afferma che
dato un volume R occupato dal gas, se in R
si sceglie un generico elemento di volume r
- che contiene un numero elevato di
molecole - allora r contiene un certo
numero di molecole con energia cinetica x
nell'intervallo x e x + dx al tempo t. Se
f(x,t)dx è questo numero, si può pensare
che esso varii a seconda della scelta di r in
R.
La condizione asserisce che la variazione è
nulla, cioè che molecole con x diversa sono
uniformemente mescolate in R.
Le due condizioni allora, secondo
Boltzmann, permettono di determinare lo
stato del gas una volta fissato il valore di f
allo stato iniziale, f(x,0)
Boltzmann determina quindi f(x,t) studiandone la variazione
in un tempuscolo & a causa delle collisioni, in altri termini
stabilisce l'equazione (integro-differenziale) per ! f / ! t . La
relazione da cui prende le mosse è la seguente:
f(x, t + &) dx = f(x,t) dx - " dn + " d'
dove dn indica il numero di collisioni nel tempo &, nell’unità
di volume, per le quali il numero f(x,t) dx di particelle con
energia compresa tra x e x + dx diminuisce e d' il numero di
collisioni nel tempo &, nell’unità di volume, per le quali il
numero f(x,t) dx di particelle con energia compresa tra x e x
+ dx aumenta.
L’analisi di Boltzmann sulle collisioni riproponeva alcuni
degli elementi cruciali di quella di Maxwell: considerava
infatti solo collisioni binarie in intervalli di tempo e di volume
infinitesimi.
Ma queste erano davvero ipotesi lecite?
No per l’epoca (Truesdell, cit. in Bellone p. 238)
I movimenti di un insieme di masse puntiformi soggette
a specifiche interazioni sono determinati unicamente
dalle condizioni iniziali e dalle equazioni della dinamica.
Non siamo quindi liberi di fare assunzioni a proposito di
tali movimenti.
Che tutti gli urti di un insieme di masse puntiformi siano
o non siano binari è una questione di analisi e di prova
matematiche, non di tentativi a lume di naso […]. In
generale, quindi, le assunzioni di Maxwell sul
movimento molecolare contraddicono le leggi della
meccanica analitica. (Truesdell & Muncaster, 1980)
… sì oggi (Cercignani, p. 63).
L’evoluzione nel tempo dello stato iniziale,
individuato da un punto zo dello spazio delle fasi, lo
porterà all’istante t in un altro stato associato al
punto zt, che è allora definito univocamente, purché
l’insieme "o dei punti dello spazio delle fasi che
portano a urti tripli e di ordine superiore e quelli che
portano a infiniti urti in un tempo finito siano
trascurabili.
Al giorno d’oggi siamo ben equipaggiati dal punto di
vista matematico per discutere queste ipotesi, che
possono apparire sospette; infatti, la probabilità di
avere uno stato iniziale del suddetto insieme "o è
rigorosamente nulla (nel senso che è nullo il volume
di "o nello spazio delle fasi). (Cercignani, 1997)
In una decina di pagine di sviluppi formali, Boltzmann
ricava l’espressione di dn e d' in funzione di f e scrive
l’equazione generale per ! f / ! t (oggi nota come
equazione di Boltzmann).
Dimostra quindi che, se f è una maxwelliana, allora
necessariamente:
! f/ ! t = 0
Quindi una volta raggiunta la distribuzione di Maxwell il
sistema vi rimane. Come scrive Boltzmann: questa è una
conferma di quello che Maxwell ha dimostrato nel 1867.
Ma si può ora, disponendo dell’equazione per ! f / ! t ,
affrontare un questione più generale (la congettura di
Maxwell).
Si può eliminare la seconda condizione imposta all’inizio
[f(x,0) è uniforme] e ipotizzare che il sistema parta
inizialmente da una distribuzione arbitraria dell’energia
cinetica arrivando solo dopo un tempo sufficientemente
lungo all’equiprobabilità delle direzioni delle velocità.
Allora è possibile introdurre una quantità:
H
e dimostrare che E non può mai aumentare per le funzioni
f che soddisfano l’equazione generale per ! f / ! t .
[teorema E]
La dimostrazione di Boltzmann procedeva attraverso lo studio
dell’espressione di dE/dt. Utilizzando l’equazione per ! f/! t si
arrivava (con qualche “semplice passaggio”) a dimostrare la
diseguaglianza:
dE/dt # 0
L’uguaglianza a zero vale solo nel caso che f sia una distribuzione
di Maxwell. Se f non è una maxwelliana la derivata è negativa cioè
“al passare del tempo - afferma Boltzmann - E deve decrescere [a
causa del moto molecolare] tendendo al valore minimo che
corrisponde alla distribuzione di Maxwell”.
“Si può anche dimostrare che per il moto atomico di un sistema di
molti punti materiali esiste sempre una certa quantità che, a causa
del moto atomico, non può aumentare, e questa quantità è in
accordo con il valore trovato per l’entropia (cambiata di segno). […]
si è in tal modo aperta la strada per una dimostrazione analitica del
secondo principio seguendo un itinerario del tutto diverso da quello
percorso fino ad oggi”.
Boltzmann e i quanti di energia
La dimostrazione del teorema E (oggi H) era stata ottenuta
utilizzando integrali (ivi compresa l’equazione integro-differenziale per
! f/ ! t).
Ma, come osserva Boltzmann nella seconda parte della monografia, è
possibile sostituire gli integrali con somme trasformando l’equazione
integro-differenziale in un sistema di equazioni differenziali ordinarie
(cita a tal proposito applicazioni già fatte in questo senso da Lagrange, 1759 analogia tra corda vibrante e sfere vibranti di massa infinitesima e di numero
tendente all’infinito - Stefan, 1862-65 - applicazioni alla diffusione e alla conduzione Riemann, 1859 - studio delle soluzioni di particolari equazioni differenziali).
L’energia cinetica x (variabile continua) deve in questo caso essere
sostituita da una serie di valori discreti:
0(, 1(, 2(, 3(, 4(, …, p(
Ogni molecola può quindi assumere solo valori dell’energia cinetica
multipli interi del quanto elementare (. Per riportare la trattazione
discreta al continuo basta passare al limite per ( tendente a zero e p
all’infinito.
Ovviamente, anche nel caso discreto, doveva continuare a valere
nelle collisioni la conservazione dell’energia. Se le energie cinetiche
di due molecole collidenti erano k( e l( prima della collisione, e )( e
*( dopo la collisione, allora doveva essere rispettata l’equazione:
k+l=)+*
Il problema delle collisioni si riduceva in questo caso a determinare i
numeri Nkl)* che esprimevano i numeri relativi a eventi in cui
collisioni tra molecole con con energie iniziali kl avevano energie
finali )*.
Se w1 indicava il numero di molecole per unità di volume con
energia ( al tempo t, w2 indicava il numero di molecole per unità di
volume con energia 2( al tempo t, ecc. allora il numero di molecole
w ’1 che al tempo t + & avevano energia ( dipendeva dal numero di
collisioni che facevano diminuire o aumentare il numero di molecole
con energia (:
w ’1 = w1 - N1322 - N1423 - N1432 - N1524 - … + N2213 + N2314 + N3214 + …
Si poteva così esprimere la quantità E nel discreto e riottenere il
risultato del teorema E (H) discusso nella prima parte.
Il passaggio al discreto, come scrive Boltzmann, è solo un’astrazione,
che tuttavia permette di ottenere il risultato cercato in modo più
semplice e più chiaro.
La sezione si conclude con le parole: “da quanto detto sopra segue
che ci sono infinite soluzioni di ! f/ ! t = 0, che però non sono utili
perché f(x) risulta negativa o immaginaria per qualche valore di x.
Quindi segue chiaramente che il tentativo di Maxwell di dimostrare apriori che questa soluzione è unica deve fallire: essa non è l’unica, ma
piuttosto l’unica che dà probabilità positive, e quindi è l’unica
utilizzabile”.
Trent’anni dopo un altro grande fisico (Planck) avrebbe trovato nella
proposta di passaggio al discreto di Boltzmann l’ispirazione per la
soluzione di un fondamentale problema, quello del corpo nero.
Boltzmann continuerà anche dopo il 1872 a sviluppare l’approccio con
energie discrete. È proprio dall’applicazione di tecniche matematiche
combinatoriali che Boltzmann ricava (1877) il suo metodo statistico
per calcolare le proprietà di equilibrio basate sulla relazione tra
entropia e probabilità: S = k log W.
Il contenuto di quello che talvolta viene chiamato “paradosso di
Loschmidt” (o della “reversibilità”) è in sintesi il seguente:
• si immagini il microstato di un gas che ha raggiunto l’equilibrio a
partire da uno stato generico di non equilibrio, e si supponga che il
gas sia isolato dall’ambiente nel corso del processo;
• le leggi della meccanica ci dicono che il microstato del gas
all’equilibrio, ottenuto invertendo tutte le velocità delle molecole che
lo costituiscono, seguirà un cammino lungo i microstati che sono, a
ritroso, quelli attraversati dal primo gas nella sua evoluzione verso
l’equilibrio;
• siccome la funzione H non dipende dalla direzione del moto delle
molecole, ma solo dalla distribuzione delle loro velocità, questo
significa che il secondo gas evolverà, in modo monotono, lontano
dallo stato di equilibrio;
• quindi il teorema H è incompatibile con le leggi meccaniche che
dovrebbero regolare i moti delle molecole.
La risposta a questa obiezione si trova compiutamente espressa in
una fondamentale memoria di Boltzmann del 1877 dal titolo
“Fondamenti probabilistici della teoria del calore”, che sancisce la
nascita della meccanica statistica.
Abbandonando la descrizione dettagliata dei moti e delle collisioni
tra atomi in un gas, Boltzmann si concentra sulla probabilità e la
statistica.
Gli N atomi contenuti in un certo volume di gas si muovono e
urtano in modo irregolare. Supponiamo che l’energia (cinetica)
totale del sistema abbia un certo valore E e dividiamo questo
valore in parti discrete che sono multipli di un certo valore (, cioè
0, (, 2 (, 3 (, 4 ( ecc. Ognuna di queste parti può essere pensata
come una cella che racchiude gli atomi del gas che hanno
quell’energia.
Definire lo stato del gas significa quindi calcolare i possibili
modi in cui gli N atomi si distribuiscono nelle celle.
Gli urti tra atomi portano a continui salti da una cella all’altra.
Tuttavia se in una certa distribuzione degli atomi nelle celle si
prendono due atomi qualunque e li si scambia di posto (come
avviene negli urti) i due stati (microscopici) del gas sono
diversi, ma siccome il numero di atomi in ciascuna cella
rimane invariato lo stato complessivo (macroscopico) del gas
non cambia.
Per calcolare quindi la probabilità W di un macrostato del gas
basterà contare i microstati che lo realizzano.
Il lavoro del 1877 conteneva quello che Einstein chiamerà in seguito principio
di Boltzmann.
È in questo lavoro che viene estesa l’interpretazione dell’entropia come
misura (ben definita matematicamente) del disordine degli atomi, un’idea già
presente nel lavoro del 1872 ma non del tutto sviluppata.
“Lo stato iniziale di un sistema sarà, nella maggior parte dei casi, poco
probabile e il sistema tenderà sempre verso stati più probabili, fino ad
arrivare allo stato più probabile (cioè all’equilibrio termodinamico). Se
applichiamo questa idea al secondo principio della termodinamica,
possiamo identificare la grandezza chiamata entropia con la
probabilità dello stato corrispondente. Se si considera allora un
sistema isolato di corpi (il cui stato cioè può cambiare solo per
interazione tra i suoi costituenti), in virtù del secondo principio della
termodinamica, l’entropia totale deve aumentare continuamente: il
sistema non può che passare da uno stato dato a uno più probabile.”
L’entropia S è proporzionale al volume nello spazio delle fasi occupato
da microstati che corrispondono allo stesso macrostato: analisi di un
caso particolare (gas ideale + S = k log W).
…e la risposta di Boltzmann a Loschmidt
Il fatto che la distribuzione degli stati divenga uniforme al
passare del tempo dipende soltanto dalla circostanza per cui
esistono più distribuzioni uniformi che distribuzioni non
uniformi. Se è impossibile dimostrare che data una
distribuzione iniziale la distribuzione deve diventare uniforme
dopo un lungo intervallo di tempo, quello che invece si può
dimostrare è che il numero di stati iniziali che evolvono in una
distribuzione uniforme in un tempo finito è infinitamente
maggiore di quelli che portano a uno stato non uniforme. Il
teorema di Loschmidt dice solo che esistono stati iniziali che
evolvono in distribuzioni non uniformi, ma non dimostra affatto
che non esista un numero infinitamente maggiore di stati iniziali
che portino nello stesso tempo a distribuzioni uniformi.
[Boltzmann, 1877]
Una seconda fondamentale obiezione alla pretesa
dimostrazione di Boltzmann della irreversibilità viene da
Zermelo.
Questi si basava su un importante risultato ottenuto da
Poincaré nel 1889 (noto come teorema di ricorrenza)
sulla stabilità del moto di sistemi newtoniani (confinati e
con conservazione dell’energia, caratteri applicabili al
caso del gas isolato e racchiuso in un contenitore).
Il teorema di Poincaré asserisce che un sistema che
all’istante iniziale si trovi in un generico stato
meccanico, eccetto che per un insieme di misura nulla
delle condizioni iniziali, evolve in modo tale da ritrovarsi
dopo un certo tempo in stati prossimi quanto si vuole
allo stato iniziale.
Zermelo, nel 1896, riprende il teorema di Poincaré e lo
applica al teorema H.
Il teorema H afferma che un sistema inizialmente in uno
stato di non equilibrio evolve in modo monotono verso uno
stato di equilibrio.
Ma, applicando il teorema di Poincaré, un tale sistema
dopo essere evoluto verso lo stato di equilibrio deve
tornare indietro verso uno stato meccanico vicino quanto si
vuole al suo stato iniziale di non equilibrio, il che vuole dire
che la funzione H dovrebbe anch’essa tornare a valori
vicini a piacere a quelli che aveva all’inizio, e quindi la
dimostrazione di Boltzmann dell’evoluzione all’equilibrio è
incompatibile con le fondamentali leggi della meccanica del
moto molecolare.
La risposta a Zermelo e la freccia cosmologica del tempo
• L’intervallo temporale per la “ricorrenza” in sistemi con un numero
sufficientemente alto di molecole (un centimetro cubo di molecole
d’aria in condizioni ordinarie di pressione e temperatura) era
incredibilmente alto, mentre il tempo necessario a che lo stato
iniziale fosse prossimo alla distribuzione maxwelliana era di un
centomilionesimo di secondo.
Ma l’obiezione di Zermelo era anche un’altra:
Il concetto di probabilità non ha nulla che vedere con il
tempo e quindi non può essere impiegato per dedurre
conclusioni d’alcun genere sulla direzione dei processi
irreversibili. […] Non solo è impossibile spiegare il
principio generale dell’irreversibilità, ma è anche
impossibile spiegare i singoli processi irreversibili senza
introdurre nuove assunzioni fisiche, perlomeno quando è
coinvolta la direzione temporale.
Questa obiezione offre a Boltzmann l’occasione per
suffragare la necessità della freccia termodinamica
basandola su argomenti relativi alla freccia cosmologica.
L’universo (o comunque gran parte di ciò che ci circonda) visto come
sistema meccanico è partito da uno stato altamente improbabile e si
trova ancora in uno stato poco probabile. Se si prende allora in esame
un sistema di corpi più piccolo, così come lo si trova nella realtà, e lo
si isola istantaneamente dal resto del mondo, questo sistema verrà
inizialmente a trovarsi in uno stato improbabile e, per tutto il tempo in
cui resterà isolato, procederà verso stati più probabili. (1897)
[cit. da Bellone,
I nomi del
Tempo, p. 206,
fig. tratta da
Penrose, The
Emperor’s new
mind, p. 343.]
Sistemi collocati nello stato attuale dell’universo hanno di fatto
stati iniziali che precedono gli stati finali. E questo dipende
dalle “condizioni iniziali di ciò che ci circonda”.
L’universo nella sua interezza, tuttavia, può essere considerato
come in equilibrio (e quindi morto). In esso sono collocate isole
(o mondi) di dimensioni paragonabili alla nostra galassia.
Questi mondi sono interpretabili, secondo Boltzmann, come
fluttuazioni nell’equilibrio termico globale, che durano tempi
lunghi rispetto ai tempi delle nostre osservazioni.
L’universo globalmente è in equilibrio, in esso non c’è freccia
temporale: non vi si distingue il “prima” dal “dopo” come nello
spazio non si distingue il “sopra” dal “sotto”.
Diversa è la “sensazione” di un osservatore solidale con uno di
questi mondi.
Proprio come in un dato luogo sulla superficie della Terra
possiamo usare l’espressione “verso il basso” per indicare la
direzione verso il centro del pianeta, così, in quanto creature
viventi che si trovano in un mondo del genere in uno specifico
periodo di tempo, possiamo definire la direzione del tempo come
se essa andasse dagli stati meno probabili verso quelli più
probabili (in modo che i primi diventeranno il “passato” e i
secondi il “futuro”), e in virtù di questa definizione troveremo che
questa piccola regione, isolata dal resto dell’universo, è sempre
“inizialmente” in uno stato improbabile.
[Boltzmann, Risposta a Zermelo, 1897; tr. Inglese in Brush, Kinetic Theory, vol. 2,
Pergamon Press, 1966; cfr. per ripresa di suggestioni boltzmanniane in chiave moderna,
M. Gasperini, L’universo prima del Big Bang, Franco Muzio Editore, Roma 2002]
I fenomeni che oggi manifestano una qualche forma di
irreversibilità e che quindi sembrano poter essere connessi con
l’argomento della “freccia del tempo” sono essenzialmente
cinque:
1. l’asimmetria entropica in termodinamica;
2. l’emissione di radiazione nell’elettromagnetismo;
3. l’espansione dell’universo in ambito cosmologico;
4. la misurazione quantistica;
5. la violazione di CP nel decadimento di alcune particelle.
Questi cinque fenomeni hanno qualcosa in comune?
L’asimmetria entropica è l’asimmetria fondamentale?
Sono queste alcune questioni che hanno una loro rilevanza
nell’ambito dei fondamenti e della filosofia della fisica, e sono
ancora un attivo campo di ricerca della fisica.
L’articolo di Boltzmann del 1877, pone le basi dell’autonomia
della meccanica statistica dai modelli particolari della struttura
degli atomi o molecole e delle loro interazioni, e dal tipo di
meccanica che esprime le leggi fondamentali del moto. Il pieno
dispiegamento della nuova teoria avrebbe richiesto ulteriori
raffinamenti matematici e concettuali che saranno prima di tutto
opera di Gibbs e Einstein.
E già nei primi decenni del XX secolo, la meccanica statistica
consoliderà la sua struttura formale (con il contributo, tra gli altri, di P.
e T. Ehrenfest, J. Von Neumann, A.N. Kolmogorov, A.Y. Khinchin, N.N.
Bogoliubov, L. Landau) e si svilupperà in applicazioni che
coinvolgono la nascente teoria dei quanti.
Nonostante l’introduzione delle nuove statistiche quantistiche
l’impianto ottocentesco della teoria rimarrà sostanzialmente
intatto, rivelandosi particolarmente fruttuoso nella teoria dei
sistemi complessi, sia classici sia quantistici, e nel trasferimento
di conoscenze tra fisica, chimica e biologia.
Accanto alla chiarificazione delle ipotesi e della struttura formale
della teoria, importanti progressi sono stati fatti nella descrizione
della materia e dell’energia e in particolare nella trattazione
dell’insorgenza nei sistemi complessi di comportamenti collettivi
ordinati o, come si dice, coerenti.
La superconduttività, la superfluidità, la luce laser sono diventati
paradigmatici di questa nuova affascinante fenomenologia, nella
quale si dispiegano nozioni fondamentali della meccanica statistica,
come le fluttuazioni (classiche o quantistiche), la coerenza, le
transizioni tra fasi ordinate e disordinate.
Proprio nell’ambito delle transizioni di fase, a partire dal lavoro di
Onsager del 1944 e di Lee e Yang del 1952, torna l’interesse per i
modelli tramite i quali definire i parametri più significativi (i cosiddetti
parametri d’ordine) insieme alle possibili scelte dei valori di questi
parametri che individuano la transizione di fase.
Queste ricerche hanno visto una continua fertilizazzione incrociata
tra meccanica statistica e teoria quantistica dei campi.