1.
Il Numero di Avogadro
I problemi che si erano accumulati, nel corso di tutto l’800, nel tentativo
di costruire una teoria atomica della materia hanno richiesto e dato origine,
tra il 1900 e la fine degli anni ’20, a una revisione profonda dei concetti
fondamentali della Meccanica.
La costituzione atomica della materia era stata suggerita, fino dai primi
dell’800, dalla sistemazione delle leggi fondamentali della chimica, in particolare dalla legge delle proporzioni multiple di Dalton, per la quale, nella
formazione di diversi composti a partire dalle stesse sostanze, le quantità di
ciascuna sostanza che entrano nella formazione dei diversi composti stanno
fra loro come numeri interi e piccoli.
I componenti fondamentali della materia che spiegano la legge di Dalton
sono chiamati atomi; ogni elemento chimico è pensato come formato da atomi
identici, ed è essenziale che tali atomi passino invariati in tutti i processi
chimici. D’altra parte, corrispondendo agli elementi della chimica, gli atomi
devono rendere conto di una serie piuttosto articolata di proprietà, associate
in particolare ai legami che possono formare tra loro e che sono la base della
formazione delle molecole e di tutta la chimica.
Qualsiasi modello meccanico degli atomi deve soddisfare questi requisiti
di complessità e di stabilità; requisiti che incontrano, nel corso dell’800, difficoltà di realizzazione che aumentano al crescere delle conoscenze sui possibili
costituenti degli atomi e delle loro interazioni.
La prima domanda che nasce in vista di una descrizione meccanica degli
atomi è quella sulle loro dimensioni. La legge di Dalton è compatibile con
qualsiasi dimensione degli atomi e richiede solo la loro identità e stabilità.
La stessa indifferenza alle dimensioni atomiche è comune a tutti gli effetti
ed i fenomeni che non dipendano dalle quantità di materia che coinvolgono,
cioè, nel linguaggio della Meccanica Statistica, a tutti gli effetti intensivi,
per esempio i calori specifici, per definizione indipendenti dalla grandezza
del campione in esame.
Per stimare le possibili dimensioni degli atomi occorre perciò studiare
fenomeni che fissino una scala, macroscopica ma dipendente dal carattere
discreto e dalle dimensioni dei costituenti della materia. Uno dei più semplici fenomeni con queste caratteristiche è la formazione delle gocce da un
rubinetto; le loro dimensioni sono infatti sostanzialmente sempre le stesse e
possono perciò dipendere solo dalla costituzione interna dell’acqua.
Vediamo come si possono stimare le dimensioni atomiche a partire
dal bilancio energetico del distacco di una goccia d’acqua. Supponiamo
1
che l’acqua sia formata da costituenti elementari identici (molecole), che lo
stato liquido sia il risultato di forze di coesione tra le molecole e che queste
forze agiscano solo tra molecole vicine.
Per semplicità, in vista di una stima di un ordine di grandezza, trattiamo
una goccia in formazione come se avesse una forma geometrica costante, per
esempio una semisfera, di raggio R; la forza di gravità sulla goccia è data
dalla sua massa per l’accelerazione di gravità e la sua energia potenziale
gravitazionale vale
U (R) = ρ (2π/3 R3 ) g (−3/8 R) ,
−3/8 R essendo l’altezza del baricentro rispetto al piano di formazione della
goccia.
Se l’energia della goccia non avesse altri contributi, non ci potrebbe essere
equilibrio per nessun R positivo. Ma la goccia è costituita di molecole, che
supponiamo interagire con quelle più vicine; ad ogni coppia di molecole vicine
sarà associata una energia potenziale di interazione negativa (altrimenti le
molecole si staccherebbero e formerebbero un gas e non un liquido), che
indichiamo con −ε.
Al variare delle dimensioni della goccia, il numero delle coppie di molecole
di acqua interagenti (nella goccia e nel rubinetto) cambia leggermente come
risultato del cambiamento dell’area della superficie della goccia: le molecole
del primo stato superficiale hanno infatti come prossime vicine un numero
minore di molecole rispetto a quelle interne; supponendo per semplicità che
le interazioni avvengano tra molecole vicine situate su un reticolo cubico,
alle molecole superficiali mancherà una delle 6 molecole vicine. All’energia
interna dell’acqua, per il resto indipendente da forma e dimensioni della goccia, mancherà perciò un contributo E(R) proporzionale al numero di goccie
nel primo strato superficiale.
Se in un centimetro cubo d’acqua si trovano N molecole, il loro volume è
1/N centimetri cubi, le loro dimensioni (stimate come il lato di un cubetto)
1/N 1/3 centimetri. Il primo strato consiste perciò di 2πR2 N −1/3 N molecole
e l’energia di legame mancante associata alla superficie è
E(R) = 2πR2 N 2/3 ε/2 ,
l’ultimo fattore 1/2 essendo richiesto dal conteggio delle coppie mancanti. Il
rapporto tra questa energia (positiva, perchè “mancante” rispetto a quella
negativa di legame tra molecole in assenza di effetti superficiali) e la superficie
si chiama tensione superficiale e chiaramente dipende da N , cioè dalle
dimensioni delle molecole.
2
L’energia totale delle goccia è Etotale = U (R) + E(R) ed è crescente per
piccoli R e poi decrescente. Per piccoli R la goccia mantiene una coesione,
anzi tenderebbe a contrarsi, e si accresce infatti solo per la pressione dell’acqua che si aggiunge dal rubinetto; la goccia si stacca nel momento in cui
la forza di gravità prevale su quella di coesione, cioè quando Etotale diventa
decrescente; derivando, si ottiene che il massimo di Etotale è raggiunto per
4ρ 2π/3 R3 3/8 g = 4πR N 2/3 ε/2 .
(1)
L’energia di interazione ε può essere stimata sulla base dell’energia richiesta per la vaporizzazione dell’acqua, che è precisamente il processo che separa
le molecole, e che richiede un’energia Evap uguale a quella di legame. Questa
è data da ε per il numero di coppie di molecole vicine; per un centimetro
cubo di acqua:
Evap = 6 N ε/2 ,
dove il fattore 6 conta le molecole interagenti con una data, il fattore 1/2 il
numero di coppie in interazione.
L’eq. (1) diventa perciò
ρ R2 g = 4 N −1/3 Evap /6 ,
cioè
N 1/3 = 2/3 Evap /(ρ R2 g) .
(2)
Usando grammi, centimetri e secondi come unità di misura, ρ = 1,
g = 103 ; l’energia di vaporizzazione si misura facilmente (basta far evaporare l’acqua su un fornello elettrico di potenza nota) e vale circa 700 calorie/grammo, cioè 700 ∗ 4 = 2.8 103 Joule = 2.8 1010 erg. Il raggio delle gocce
al momento del distacco è dell’ordine di 0.3 cm e il risultato per N è perciò
N 1/3 = 2/3 ∗ 2.8 1010 /(9 10−2 ∗ 103 ) ∼ 2 108 , N = 8 1024 ,
corrispondente a dimensioni molecolari N −1/3 dell’ordine di una frazione di
10−8 centimetri.
In realtà, il numero di molecole presenti in una mole, cioè in una quantità
in grammi pari al peso molecolare della sostanza data, è il numero di Avogadro, che vale circa 6 1023 . Perciò in un grammo di acqua, che consiste di circa
1/18 di mole (il peso atomico dell’ossigeno è circa 16, quello dell’idrogeno 1),
sono in realtà presenti 1/18 ∗ 6 1023 = 1/3 1023 molecole.
La nostra stima per N 1/3 è dunque sbagliata per circa un fattore 6, e
le dimensioni atomiche sono in realtà dell’ordine di 10−8 centimetri, unità
3
che si denota anche come un Ängstrom. Simili stime hanno tuttavia un
grande interesse di principio, dato che mettono in relazione una grandezza
apparentemente lontana e inaccessibile come la dimensione degli atomi con
fenomeni ben noti e facilmente quantificabili.
Inoltre, si potrebbe vedere che l’errore è dell’ordine di grandezza di quello
associato all’estrema semplificazione della descrizione delle gocce, il cui distacco avviene in realtà con un cambiamento radicale di forma, come anche
si osserva facilmente.
Imponendo il bilancio energetico su una forma geometrica costante abbiamo sostanzialmente vincolato le gocce a seguire un percorso speciale e
non realistico; in tali condizioni, il distacco avverrebbe più tardi, cioè con
un raggio maggiore di quello reale, e in effetti avremmo ottenuto il numero
di Avogadro corretto inserendo nella formula finale un raggio poco più che
doppio.
2.
I gradi di libertà atomici
Data una stima delle possibili dimensioni degli atomi, occorre capire quali variabili si rendano necessarie per la costruzione di un modello atomico,
incominciando dal numero dei possibili gradi di libertà.
Per far questo bisogna individuare dei fenomeni che dipendano da tale
numero e possibilmente quantificarne la dipendenza. Assumendo la costituzione atomica della materia, e interpretando i fenomeni termici in termini di
scambi di energia con i gradi di libertà dei costituenti, l’energia meccanica
degli atomi si può identificare con l’Energia interna che il primo principio
della Termodinamica attribuisce agli stati di equilibrio termico dei sistemi
macroscopici.
I calori specifici (per semplicità a volume costante in modo da escludere
il lavoro delle forze di pressione) divisi per il numero di atomi o molecole,
che abbiamo stimato, misurano allora la variazione di energia dei singoli
costituenti al variare della temperatura del sistema. Se fossimo in grado di
stimare l’energia da fornire a ciascun grado di libertà atomico per aumentare
la temperatura di un grado, i calori specifici, confrontati con il numero di
Avogadro, darebbero un’informazione diretta sul numero dei gradi di libertà
atomici.
4
Temperatura ed energia cinetica
La stima di tali energie è piuttosto semplice nel caso di un gas perfetto, cioè
un gas per cui valga la relazione
pV = nRT ,
(3)
V il volume, n il numero di moli di gas, T la temperatura assoluta (definita
proprio da questa relazione), R una costante, che vale circa 8 Joule per mole
e grado. L’eq.(3) si può infatti derivare da un modello che descrive gli atomi
come punti materiali, con i soli gradi di libertà di posizione, con interazioni
trascurabili, identificando, a meno di una costante di scala, temperatura assoluta e energia cinetica media degli atomi. L’analisi che segue viene attribuita
a Clausius, ma risale a Waterstone, una decina di anni prima di Clausius (la
storia, molto istruttiva, è ricostruita da Brush, nel libro “The kind of motion
we call heath”)
Consideriamo una scatola contenente un gas, descritto come un insieme
di punti materiali (o “particelle”) di massa m, che rimbalzano elasticamente
sulle pareti. Fissiamo una porzione di parete di area unitaria, ortogonale
all’asse x. Indicando con vx la componente lungo l’asse x dellla velocità di
una particella, diretta verso la parete, la quantità di moto ceduta alla parete
con un rimbalzo è diretta come l’asse x e vale 2mvx . Il numero di particelle
che urtano la parete per unità di tempo e intervallo di velocità è ρ(vx ) vx dvx ,
con ρ(vx ) il numero di particelle per unità di volume e di intervallo di velocità,
che supponiamo uniforme nella scatola; ne segue che la forza che occorre
esercitare sulla parte per tenerla ferma, uguale alla variazione di quantità di
moto nell’unità di tempo, è
F = 2m
Z ∞
0
dvx vx2 ρ(vx ) ,
dove si integra solo sulle velocità dirette verso la parete. Assumendo che la
densità non dipenda dal segno della velocità, si ottiene
F = mρ < vx2 > ,
dove ρ indica la densità (uniforme) del gas (numero di particelle per unità di
volume) e < vx2 > la loro velocità (lungo l’asse x) quadratica media. La forza
che abbiamo calcolato non è altro che la pressione p del gas, che soddisfa
l’eq.(3).
Considerando una mole di gas, contenente cioè N particelle, N il numero
di Avogadro, la densità è ρ = N/V . Si ottiene perciò, confrontando le due
5
espressioni per la pressione,
m N/V < vx2 >= R T /V ,
cioè
m < vx2 >= R/N T .
R/N si chiama costante di Boltzmann e si indicacon k; il risultato è che
l’energia cinetica media delle particelle vale 3/2 k T , o anche che l’energia
cinetica media per grado di libertà è 1/2 k T .
In particolare, il calore specifico per mole, a volume costante, di tutti i
gas descrivibili come punti materiali con interazioni trascurabili, è previsto
valere 3/2 k, a ogni temperatura. Questa relazione è ben verificata sperimentalmente per i gas monoatomici, le cui molecole sono cioè costituite da
singoli atomi. In questo caso, il modello descrive perciò completamente l’energia trasferita ai gradi di libertà atomici; per quanto riguarda le legi dei
gas, questo rappresenta un successo del modello, ma dal punto di vista della
identificazione dei gradi di libertà interni degli atomi, necessari per spiegarne
le proprietà, il risultato è del tutto negativo: nessun grado di libertà interno
contribuisce al bilancio energetico descritto dal primo principio della Termodinamica. Inoltre, nel caso dei gas poliatomici, costituiti cioè da molecole
formate da più atomi, i calori specifici osservati sono maggiori e dipendono
dalla temperatura.
Si pongono perciò le domande seguenti: è possibile che, trasferendo energia a un sistema meccanico, ci siano gradi di libertà che restano esclusi da
tale trasferimento? Si può prevedere in generale il contributo dei diversi gradi
di libertà ai calori specifici? Si possono almeno spiegare i calori specifici dei
gas poliatomici con modelli che sostituiscano ai punti materiali un qualche
modello delle molecole?
Per rispondere è necessario introdurre i principi della Meccanica Statistica, che descrive, per sistemi meccanici con un grande numero di costituenti,
configurazioni interpretabili come stati di equilibrio termico nel senso della
Termodinamica.
I fondamenti della Meccanica Statistica
Consideriamo un sistema formato da un gran numero di costituenti, la cui
energia sia la somma delle energie dei singoli costituenti e di energie di mutua interazione. Nel limite di un numero infinito di costituenti, una
6
grande classe di configurazioni del sistema darà origine a una ben definita
distribuzione statistica per le variabili dei suoi costituenti; per esempio, in un gas, formato da un numero di molecole dell’ordine del numero di
Avogadro, ci si potrà chiedere quante molecole hanno velocità comprese in
un certo intervallo. Tale statistica sembrerebbe dipendere in modo sostanziale dalle configurazioni considerate; in realtà, per la maggior parte delle
configurazioni, in un senso che preciseremo almeno in parte, la statistica risultante dipende da pochi parametri, nel caso più semplice dal solo valore
medio dell’energia.
Verificheremo queste affermazioni nel caso di un sistema la cui energia
sia la somma di termini quadratici, per esempio un insieme di punti materiali, un insieme di oscillatori armonici, o un insieme di corpi rigidi (la
cui energia è quadratica nei momenti coniugati agli angoli che descrivono le
configurazioni). In questa discussione faremo uso di variabili canoniche, in
pratica coordinate qi e momenti coniugati pi , che danno origine a una misura
Q
i dpi dqi invariante sotto la dinamica; le variabili di posizione e velocità sono
tutttavia sufficienti per la maggior parte degli argomenti e delle conclusioni.
Consideriamo perciò un sistema descritto da 2N coordinate (canoniche),
con energia
H=
N
X
ai /2 p2i + bi /2 qi2 .
i=1
Per semplicità consideriamo il caso in cui tutti i coefficienti ai e bi siano
strettamente positivi (le modifiche necessarie nel caso di coefficienti nulli
sono piuttosto semplici). Si può anche scrivere
H=
2N
X
ci /2 x2i .
i=1
Fissiamo l’energia in modo proporzionale al numero di coordinate,
H = NE ,
e costruiamo, per cominciare, la statistica che si ottiene se si distribuiscono le
configurazioni dell’intero sistema in modo uniforme (rispetto all’elemento di
volume dato dalle coordinate canoniche, invariante per evoluzione nel tempo)
su tale superficie a energia data.
Nel caso ci = 2, ∀i, la superficie a energia N E è una sfera di raggio R,
con R2 = N E e la distribuzione per ciascuna delle variabili xi , al variare delle
configurazioni con la misura definita dall’area della sfera, normalizzata a 1, è
ottenuta esplicitando l’integrale che definisce l’area della sfera in termini di
7
una delle coordinate; il risultato è una misura di probabilità p(x) dx, con p(x)
proporzionale all’area S2N −1 (r) della sfera di raggio r, in 2N − 1 dimensioni,
con
r2 = (R2 − x2 ) .
Perciò
p(x) = C2N −1 (N E − x2 )(2N −2)/2 = CN0 (1 − x2 /N E)(2N −2)/2 .
Non è necessario calcolare le costanti C, C 0 , dato che per definizione p(x) ha
integrale 1; l’ultimo termine a destra si riduce alla successione che definisce
il numero e; perciò, nel limite N → ∞,
p(x) = exp −x2 /E
a parte una normalizzazione. La stessa derivazione si applica alla distribuzione di un numero finito qualsiasi n di variabili xi , proporzionale all’area di
una sfera in dimensione 2N − n:
p(x1 . . . xn ) = exp −
n
X
x2i /E ,
i=1
a parte la normalizzazione. La conclusione è che, nel limite N → ∞, la
distribuzione di un numero qualsiasi di variabili xi è gaussiana, di larghezza
E. Il caso di coefficienti ci > 0 qualsiasi si ottiene con un cambio di variabili,
xi = (ci /2)1/2 yi ; a parte una normalizzazione, si ottiene
p(y1 . . . yn ) = exp −
n
X
ci /2 yi2 /E .
(4)
i=1
La media di ciascuna delle variabili yi2 si calcola immediatamente usando
Z
Z
2
x exp(−ax) dx /
exp(−ax) dx = d/da log(a1/2 ) = 1/2a
e si ottiene
ci /2 < yi2 >= E/2 .
(5)
Il risultato sembra dipendere in modo sostanziale dalla statistica definita
dalla distribuzione uniforme, che indicheremo con dµN E (x), sulla superficie
a energia N E dell’intero sistema. Per discutere la dipendenza da questa
ipotesi, supponiamo per semplicità che tutti i coefficienti ci siano uguali,
per esempio ci = 2; l’argomento si applicherà facilmente anche al caso in cui
i ci assumano un numero finito di valori, corrispondenti ai diversi gradi di
8
libertà (di traslazione, rotazione, vibrazione, ecc.) di costituenti atomici o
molecolari tutti identici tra loro.
Supponiamo di definire sulla superficie a energia costante statistiche diverse, ottenute per esempio con la distribuzione uniforme su un sottoinsieme,
di area pari a una frazione di quella dell’intera sfera; più in generale, possiamo considerare distribuzioni di probabilità della forma FN (x) dµN E (x).
Assumeremo solo che le funzioni FN (x) siano limitate da una costante indipendente da N , il che significa che la distribuzione non si concentra, al
variare di N , su insiemi di misura arbitrariamente piccola sulle sfera.
Date le distribuzioni di probabilità FN (x) dµN E (x), consideriamo la statistica che ne deriva per qualsiasi numero finito di variabili xi e facciamone
la media sulle traslazioni degli indici i (più in generale sulle traslazioni dell’indice che elenca atomi o molecole identiche); per esempio, se pF (xi ) sono
le distribuzioni per le variabili xi , consideriamo la distribuzione definita da
p̃F (xj ) = 1/2N
X
pF (i)
∀j
i
e, analogamente,
X
p̃F (xj1 , . . . xjn ) = 1/2N
pF (xj1+i , . . . xjn+i ) .
i
L’operazione di media è importante anche per l’interpretazione del risultato,
che descriverà la statistica che si ottiene al variare dei costituenti, per esempio
la statistica delle velocità sulle diverse molecole, data la distribuzione di
partenza definita da FN .
Supponiamo che, per una data successione FN , il limite, per N → ∞, per
la distribuzione di probabilità in un qualsiasi numero finito di variabili esista
(il limite esiste sempre pur di passare a sottosuccessioni, per la compattezza
dell’insieme delle misure di probabilità nello spazio duale dello spazio delle
funzioni continue). Per la condizione di limitatezza uniforme FN ≤ C, la
misura limite dνF soddisfa, integrando con una qualsiasi funzione positiva f
di un qualsiasi numero finito di variabili xi ,
Z
Z
dνF f ≤ C
dν f
dove dν = dν1 è la misura costruita in precedenza (identificabile con la
presente costruzione per FN = 1 , ∀N , dato che in questo caso la media sulle
traslazioni dell’indice i è irrilevante).
Ne segue (per il teorema di Radon-Nikodym) che la misura dνF si scrive
in termini di una densità rispetto a dν:
dνF = gF (x) dν .
9
Ma per costruzione dνF è invariante, come dν, per traslazione degli indici, e
perciò lo è anche gF . Ora, la misura dν (in infinite variabili) è ergodica per
traslazioni, cioè le sole funzioni dν misurabili e invarianti per traslazioni sono
le costanti; ne segue gF = 1 e
dνF = dν .
L’ergodicità per traslazioni di dν si vede facilmente usando il fatto che
per costruzione dν è definita, come misura in infinite variabili, dalla statistica
sulle funzioni di un numero finito qualsiasi di argomenti; per costruzione,
tali funzioni (che indichiamo per semplicità con f (xi ) anche se si tratta di
funzioni di un numero finito qualsiasi di argomenti) approssimano le funzioni
h misurabili e limitate, h ≤ M , a meno di un errore piccolo come si vuole,
nel senso
Z
dν |h − fε |2 < ε2 ;
se h è invariante per traslazioni degli indici, per l’invarianza di dν, vale anche
Z
dν |h − fε (xi+m )|2 < ε2
∀m ;
ne segue, dalla diseguaglianza di Schwartz,
Z
dν (h − fε (xi ))(h − fε (xi+m )) < ε2
∀m ;
prendendo m abbastanza grande, gli indici degli argomenti delle due f sono
disgiunti e, essendo dν il prodotto delle corrispondenti misure, l’integrale del
loro prodotto è il prodotto degli integrali. Perciò:
Z
Z
dν (h2 − 2hfε ) + (
dν fε )2 < ε2 ∀m ;
inoltre, per Schwartz e per la limitatezza di h,
Z
Z
dν |h − fε | < ε ,
e perciò
Z
dν |h(h − fε )| < M ε
Z
2
dν h − ( dν h)2 < M ε + 2ε2 ,
e h può differire da una costante solo per meno di qualsiasi numero positivo
dato e su un insieme di misura piccola come si vuole.
La conclusione è perciò che la distribuzione di probabilità data dall’eq.(4)
si presenta con grande generalità per un sistema grande, e che i suoi sottosistemi, anche grandi, si possono pensare tutti in equilibrio tra loro, in un
10
senso molto simile a quello dell’equilibrio termico, con il parametro E che
gioca il ruolo della temperatura.
Anzi, intepretando le distribuzioni ottenute come stati di equilibrio termico, se il sistema che stiamo considerando contiene un gas perfetto come
sottosistema (con le coordinate di posizione che non contribuiscono al’energia), confrontando l’eq.(5) con l’energia cinetica media pe i gas perfetti si
ottiene
E = kT
e la distribuzione (4) si scrive anche
p(y1 . . . yn ) = exp −H(y1 . . . yn )/kT ,
(6)
dove H(y1 . . . yn ) è l’energia del sottosistema descritto dalle coordinate (yi ,
i = 1 . . . n.
In generale, l’eq.(6) si indica come distribuzione di Gibbs, associata alla
funzione energia H; la si deriva, generalizzando il procedimento che abbiamo
appena descritto, da distribuzioni di un sistema grande della stessa forma di
quelle che abbiamo considerato sopra, per sistemi di un numero grande di
particelle.
In tale generalità, per l’esistenza del limite N → ∞ è essenziale che
l’energia potenziale di interazione tra le particelle si azzeri abbastanza rapidamente al crescere della distanza e soddisfi una condizioni di stabilità, che
ha la funzione di rendere poco probabili, attribuendo loro energie abbastansa alte, configurazioni con molte particelle in regioni piccole. Le condizioni di stabilità valgono per potenziali fortemente repulsivi vicino all’origine,
mentre sono violate, insieme alle condizioni di decrescenza all’infinito, dalle
interazioni Coulombiane.
Il principio di equipartizione e i calori specifici dei gas e dei solidi
Ritornando a sistemi con energia quadratica nelle variabili, il risultato principale della nostra analisi è l’eq.(5), cioè l’equipartizione dell’energia tra i gradi
di libertà, più precisamente tra le coordinate (canoniche) che vi contibuiscono con coefficienti non nulli. Insieme alla identificazione E = kT , questo
implica che i calori specifici di tali sistemi valgono, per una mole, cioè per
una massa corrispondente a un numero di Avogadro N di costituenti atomici
o moleolari, ciascuno con s coordinate che contribuiscono all’energia
cV = s/2 N k = s/2 R .
11
Descrivendo i gas biatomici e poliatomici rispettivamente come coppie di
punti a distanza fissa e come corpi rigidi, si ottiene nei due casi s = 5 e
s = 6, cioè cV = 5/2 R e cV = 3 R.
Queste relazioni sono verificate solo a temperature “intermedie”, per
esempio, per l’ossigeno e l’azoto, alle temperature ambiente ordinarie, mentre si ottengono calori specifici più bassi a temperature minori e più alti a
temperature maggiori.
Per cercare di spiegare quest’ultimo risultato, si possono descrivere le
molecole dei gas come sistemi di punti che oscillano intorno a posizioni di
equilibrio; ma in questo caso, ogni coppia di posizioni e velocità che si aggiunge alla descrizione (con energia che si può assumere quadratica trattandosi
di piccole oscillazioni) porta un contributo R al calore specifico.
Il calore specifico previsto per i gas poliatomici cresce perciò al crescere
della precisione con cui si descrivono le loro molecole e diventa molto grande
per le molecole composte di molti atomi, in modo del tutto non realistico.
Inoltre, nel caso dei gas monoatomici, i gradi di libertà interni degli atomi,
necessari per spiegare le loro diverse proprietà di legame, dovrebbero contribuire al calore specifico con un termine R/2 per ogni componente di velocità
(essendo l’energia cinetica quadratica nelle velocità) e per un termine non
negativo per le coordinate; infatti i contributi ai calori specifici si ottengono
derivando rispetto a T le energie medie definite dall’eq.(6) e il risultato è
semptre positivo anche per i termini di potenziale.
La spiegazione di Clausius dei calori specifici osservati per i gas monoatomici si rovescia perciò in un disastro non appena ci si chieda quale sia il
contributo di altri gradi di libertà. Resta solo la possibilità di ritenere inadeguata, eccetto che per i gradi di libertà di traslazione e in parte per quelli di
rotazione, la trattazione statistica dei fenomeni termici, una questione sulla
quale infatti si è discusso a lungo nella seconda metà dell’800. Tale possibile inadeguatezza appare associata ai gradi di libertà interni degli atomi e a
quelli più rigidi, cioè che vibrano ad alta frequenza, nel caso delle molecole
poliatomiche,
Questo quadro viene confermato da una discussione dei calori specifici dei
solidi. Considerando un solido come un insieme di particelle che compiono
piccole oscillazioni intorno a posizioni di equilibrio, che formano per
esempio un reticolo cristallino, si ottiene, per il solito numero N di particelle,
un calore specifico
cV = 3 R ,
essendo 6N le coordinate, di posizione e velocità degli atomi, con energia
quadratica. Questo vale qualunque sia l’energia potenziale di oscillazione
12
come forma quadratica sugli spostamenti rispetto alle posizioni di equilibrio;
infatti, qualsiasi forma quadratica, strettamente positiva, si diagonalizza, con
autovalori tutti positivi, con un cambiamento ortogonale di coordinate.
Sperimentalmente, i calori specifici dei solidi assumono un valore vicino a 3 R solo a temperature relativamente alte, dell’ordine di quelle ordinarie; scendendo in temperatura, i calori specifici dei solidi diminuiscono
sensibilmente, e anzi tendono a zero nel limite di temperatura assoluta zero.
Tale comportamento è anzi stato osservato in tutti i sistemi ed è in relazione con il principio di Nerst, che afferma che l’entropia S di qualsiasi
sistema rimane finita nel limite di temperatura zero e implica, poichè per
definizione
dS = cV dT /T
che i calori specifici (positivi per il secondo principio della termodinamica)
tendono a zero nel lmite T → 0.
Considerando che lo spettro di frequenza delle oscillazioni nei solidi è in
sostanza lo spettro di frequenza delle onde di spostamento di materia che
vi si propagano, che va da zero a un certo massimo, anche per i solidi la
situazione è consistente con l’ipotesi che, a temperatura data, solo i gradi di
libertà con frequenza sufficientemente bassa, per esempio
ν < α kT ,
α una qualche costante, contribuiscano agli scambi di energia e perciò ai
calori specifici.
3.
Termodinamica del campo elettromagnetico
Abbiamo visto come la costruzione di modelli per gli atomi e le molecole
sia scontri con il problema della identificazione del numero stesso dei loro
gradi di libertà; i dati sperimentali sui calori specifici non sono infatti consistenti con i risultati più generali della descrizione meccanico-statistica degli
stati termici e sembrano paradossalmente indicare un numero di gradi di libertà dipendente dalla temperatura, o comunque dall’energia dei costituenti
atomici e molecolari.
13
Le implicazioni di questo fatto non sono tuttavia univoche in conseguenza della natura ipotetica della descrizione meccanica dei sistemi atomici, che
avrebbe dovuto essere chiarita proprio dalla discussione degli scambi energetici. Per risalire in modo univoco all’origine delle difficoltà occorrerebbe
a questo punto esaminare gli stati termici e gli scambi energetici in sistemi la cui descrizione meccanica fosse completamente nota e possibilmente
semplice.
Un sistema con queste caratteristiche è il campo elettromagnetico, che
nel vuoto soddisfa equazioni lineari, le equazioni di Maxwell, che si possono
ridurre a equazioni delle onde e riscrivere in termini di una collezione di
oscillatori armonici.
Gli oscillatori del campo elettromagnetico
Le equazioni di Maxwell sono equivalenti alle equazioni d’onda per dei potenziali vettori Ai , che soddisfano ∂i Ai = 0,
∂t2 Ai = c2 ∂k ∂k Ai
con c la velocità della luce. I campi elettrici e magnetici sono dati da Ei =
∂t Ai /c, B = rot A.
Il sistema che vogliamo discutere è il campo elettromagnetico all’interno
di una regione, che per semplicità assumiamo cubica, con lato L. Assumendo
al bordo condizioni di riflessione come da una superficie perfettamente conduttrice, le configurazioni del campo si possono espandere in autofunzioni
del laplaciano in tre dimensioni con condizioni al bordo zero
Ai (x, t) =
X
1/c (2/L)3/2 ελi aλn (t) sin πn1 x1 /L sin πn2 x2 /L sin πn3 x3 /L
n,λ
con ελi , λ = 1, 2 due vettori indipendenti ortogonali al vettore n in modo da
soddisfare la condizione ∂i Ai = 0. Il fattore 1/c serve solo a semplificare la
successiva espressione dell’energia; il secondo fattore normalizza le autofunzioni del laplaciano; le “polarizzazioni” λ non hanno nessun ruolo importante
nel seguito. Omettendole per semplicità, scriviamo, con k = πn/L,
A(x, t) =
X
1/c (2/L)3/2 an (t) sin k1 x1 sin k2 x2 sin k3 x3 .
I coefficienti an (t) soddisfano le equazioni
d2 /dt2 an (t) = −c2 n2 π 2 /L2 an (t) ,
14
(7)
che si possono scrivere in forma Hamiltoniana come
d/dt an = pn
, d/dt pn = −ω 2 (n2 , L) an ,
con Hamiltoniano
Hn = 1/2 (p2n + ω 2 (n2 , L) a2n ) ,
ω 2 (n2 , L) = c2 n2 π 2 /L2 .
(8)
Sommando sui modi dell’espansione e usando ortonormalità e completezza
delle autofunzioni, si riproduce l’energia del campo elettromagnetico.
Se le pareti della scatola contenente campo elettromagnetico si trovano in
uno stato termico, a temperatura T , il campo sarà in equilibrio con le pareti;
il sitema di (infiniti) oscillatori che lo descrive sarà cioè in uno stato termico,
alla stessa temperatura T .
È evidente che, dato che il sistema consiste di infiniti oscillatori, i suoi
stati termici non possono soddisfare il principio di equipartizione dell’energia, che sarebbe infinita, insieme con il calore specifico. Il problema della
distribuzione dell’energia tra gli oscillatori è perciò in questo caso ineludibile
per l’esistenza stessa degli stati termici.
I principi dell’equilibrio termico
È perciò di grande interesse esaminare i vincoli che i principi della termodinamica pongono alla distribuzione dell’energia tra gli oscillatori. La prima
osservazione è che la densità di energia per unità di volume, u, per volumi
grandi, come richiede in generale il limite termodinamico, deve essere indipendente dal volume e dalla forma della scatola, u = u(T ). Inoltre, la
distribuzione dell’energia può dipendere solo dalla frequenza ν e non dalla
direzione dei vettori k e definisce una funzione uT (ν); infatti, se si trovassero
sistemi alla stessa temperatura con distribuzioni diverse, utilizzando i flussi
di energia associati alle diverse frequenze (proporzionali, in generale per le
onde elettromagnetiche, alle densità di energia), si potrebbe trasferire energia
da un sistema all’altro e ottenere lavoro da sorgenti alla stessa temperatura.
La distribuzione dell’energia tra gli oscillatori si riduce perciò allo studio
delle possibili forme della funzione uT (ν). Notiamo che la temperatura assoluta T , che deve esistere per il secondo principio della Termodinamica, è per
il momento sconosciuta nella sua relazione con l’energia del sistema e ha il
solo ruolo di parametrizzare gli stati di equilibrio termico.
Per ottenere la dipendenza di u da T e da ν conviene partire dalle informazioni che si possono ottenere dalla meccanica degli oscillatori discutendo
15
cambiamenti dei parametri del sistema in assenza di scambi di calore. Tali
trasformazioni, che si chiamano adiabatiche in Termodinamica, da una parte,
se eseguite in maniera suficientemente lenta, mantengono il sistema, ad ogni
loro stadio, in stati di equilibrio termico; dall’altra, non coinvolgendo scambi
di calore, possono essere discusse usando relazioni puramente meccaniche.
Le trasformazioni adiabatiche
Supponiamo perciò di cambiare lentamente il volume V della scatola, per
esempio scalando tutti i lati dello stesso fattore. In questo caso, i singoli
oscillatori di cui si compone il sistema si trovano con un Hamiltoniano che
dipende dal tempo attraverso la dipendenza della frequenza dal lato L della
scatola, eq.(8).
Occorre perciò chiedersi come cambia nel tempo l’energia di un oscillatore
sottoposto a un tale cambiaento dei parametri. La risposta è che, nel limite
di variazioni molto lente, il rapporto tra energia e frequenza rimane costante;
scriviamo infatti la derivata di H(t)/ω(t) rispetto al tempo, sulle traiettorie
che risolvono le equazioni definite da H(t):
d(H/ω)/dt = 1/ω (p dp/dt+ω 2 (t)q dq/dt+ q 2 ω dω(t)/dt)−H/ω 2 dω(t)/dt =
= ( q 2 − H/ω 2 )dω(t)/dt = 1/2 dω/dt (ω 2 q 2 − p2 )/ω 2 .
Il coefficiente di dω/dt si annulla se lo si integra su un periodo del sistema a
frequenza costante; ne segue che la variazione su un periodo di H(t)/ω(t) è
infinitesima rispetto a dω/dt e perciò la variazione totale si annulla, nel limite
dω/dt → 0, per una qualsiasi variazione finita di ω (controllare esplicitamente
assumendo ω(t) = f (t/n), t ∈ [0, n]).
Nel corso di una trasformazione adiabatica restano perciò costanti i rapporti tra le energie ε(n, L) dei singoli oscillatori e le loro frequenze ν(n, L) =
c/2 |n|/L; per le considerazioni di isotropia fatte sopra, le energie dipendono
anzi solo dal modulo di n. Possiamo perciò scrivere
ε(|n|, L) = ν ε/ν = ν f (|n|) = ν f (ν L) ,
(9)
dove ν indica la frequenza assunta dall’oscillatore indicizzato da n in corrispondenza di una lunghezza L del lato della scatola.
Al variare di L il sistema passerà per diversi stati di equilibrio, con temperature (per il momento sconosciute) T (L); la distribuzione di energia diventerà, esplicitando un fattore ν 2 di densità degli oscillatori in funzione
16
della frequenza e attribuendo agli oscillatori di frequenza ν l’energia data
dall’eq.(9),
uT (L) (ν) = ν 3 f (ν L) .
(10)
Il primo principio della Termodinamica
L’eq.(10) dà solo informazioni indirette sulla funzione uT (ν), ma fornisce
anche la base per ottenere la funzione T (L) ed essere cosı̀ tradotta in una
relazione tra u, ν e T . L’energia del sistema è infatti data da
Z
U =V
Z
3
−4
u(ν) dν = L L
(Lν)3 d(Lν) f (Lν) = cost L−1 .
Le trasformazioni adiabatiche soddisfano perciò
0 = d(LU ) = L dU + dL U = dU + U dL/L = dU + U/3 dV /V .
(11)
Il secondo termine dell’eq.(11) fornisce il lavoro compiuto dal sistema quando
cambia il volume, che si scrive anche P dV , con P la pressione del campo
sulle pareti della scatola; ne segue in particolare
P = u/3 .
(12)
Il primo principio della Termodinamica si scrive dunque
δQ = dU + u(T )/3 dV = V du + 4/3u dV .
(13)
Il secondo principio della Termodinamica
Scritto il primo principio, la temperatura assoluta è definita, a meno di costanti moltiplicative, come il fattore che trasforma δQ in un differenziale
esatto, δQ/T = dS, dove S sarà l’entropia. Calcolando nelle variabili u e V ,
la condizione di differenziale esatto si scrive
∂/∂V V /T = ∂/∂u 4/3 u/T ;
Usando per semplicità (non sarebbe necessario, data l’unicità del fattore
integrante) il fatto che T non dipende da V , si ottiene
1/T = 4/3 1/T − 4/3 u/T 2 dT /du ,
17
cioè
dT /du = 1/4 T /u , T = cost u1/4
, u = cost T 4 .
La legge di Wien
Conoscendo le equazioni delle adiabatiche e l’espressione della temperatura
assoluta, possiamo ora concludere il ragionamento sulla distribuzione dell’energia tra gli oscillatori: in una trasformazione adiabatica, poiché U L =
uL4 = cost, anche LT = cost e perciò (introducendo, per semplificare la
discussione in termini dimensionali, la costante di Boltzmann) l’eq.(10) si
scrive anche
uT (ν) = ν 3 f (ν/kT ) .
(14)
L’eq.(14) dà la forma più generale della funzione uT (ν) compatibile con i
principi della Termodinanica, che infatti la implicano e che sono soddisfatti
se uT (ν) è integrabile, dato che allora l’eq.(14) implica
u(T ) = cost T 4 .
È interessante vedere le implicazioni dell’eq.(ŕefuT) in termini dimensionali: poichè uT (ν) ha le dimensioni di un’energia divisa per un volume e
per una frequenza, c3 uT (ν)/ν 2 ha le dimensioni di un’energia, proporsionale infatti a quella di ciascuno degli oscillatori con frequenza vicina a ν. Se
dividiamo l’eq.(14) per ν 2 kT , in modo da confontare questa energia con il
principio di equipartizione, troviamo
c3 uT (ν)/ν 2 kT = c3 ν/kT f (ν/kT ) ≡ g(ν/kT ) .
Ora, g assume valori adimensionali e non può essere costante se uT (ν) è
integrabile; ciò permette di costruire una costante universale, indipendente
cioè da qualsiasi parametro variabile a seconda del sistema considerato, con le
dimensioni del rapporto tra un’energia e una frequenza, che si denota anche
con il termine azione. Se g non assume sempre lo stesso valore, tale costante
può per esempio essere costruita risolvendo l’equazione g(x) = c, che avrà
soluzioni non zero per almeno un valore di c. Alla stessa conclusione si arriva
scrivendo l’eq.(14) come
uT (ν) = (kT )3 (ν/kT )3 f (ν/kT ) = (kT )3 h(ν/kT ) ;
ne segue che il massimo della densità di energia in funzione della frequenza,
che si osserva abbastanza facilmente in un forno molto caldo o nella luce
18
solare, è dato dal massimo della funzione h; il punto in cui viene raggiunto
tale massimo definisce una costante con le dimensioni di un’azione.
Le somma di Planck su energie discrete
L’applicazione al campo elettromagnetico dei principi della Termodinamica
richiede dunque l’esistenza di una costante fondamentale, con le dimensioni
di un’azione, cioè una energia per un tempo, o anche una lunghezza per un
impulso, in altri termini un’area in uno spazio delle fasi.
D’altra parte, la funzione f (ν/kT ) resta indeterminata, e il solo argomento che fino a questo punto conosciamo per determinarla, la statistica sulle
configurazioni discussa sopra, porterebbe alla conclusione di equipartizione
dell’energia,
ν f (ν/kT ) = cost kT , g = cost ,
incompatibile con un’energia totale u(T ) finita (si noti anche che solo per
g = cost non si può costruire una costante di azione).
Determinare f richiede perciò una nuova teoria, che sostituisca la statistica sulle configurazioni nella descrizione dell’equilibrio termico. La proposta
di Planck è stata quella di una modifica in un certo senso minima di tale statistica, una modifica però con profonde implicazioni sulla descrizione delle
configurazioni di un sistema meccanico.
L’idea di Planck (o meglio, la sua presentazione più razionale a posteriori)
è di mantenere la conclusione degli argomenti statistici generali, nel senso di
adottare per le configurazioni un peso proporzionale a
exp(−E/kT ) ,
assumendo però che una costante h con le dimensioni di un’azione, che deve
apparire necessariamente in questa teoria, entri nella identificazione stessa
delle configurazioni degli oscillatori.
Invece di integrare il fattore esponenziale con la misura dp dq, Planck
propose di sommarlo su energie discrete,
En = n h ν
cioè di considerare le configurazioni degli oscillatori non come descritte da
variabili continue, di posizione e impulso, ma da una variabile, di energia,
quantizzata, che assuma cioè solo valori discreti.
19
Conviene notare che le aree dello spazio delle fasi tra due traiettorie successive con queste energie discrete sono costanti e valgono precisamente h,
dato che
Z
Z
E/ν = Edt = dp dq
dove gli integrali sono rispettivamente su un periodo e sulla regione racchiusa
dalla traiettoria a energia E e la seconda relazione può essere verificata esplicitamente usando l’equazione delle traiettorie. La modifica nella descrizione
del sistema può perciò essere intepretata come una discretizzione dello spazio
delle fasi che tratta gli stati del sistema in modo discreto e li associa ciascuno
a una unità h di area.
Consideriamo allora la distribuzione di probabilità, per i valori sopra
ipotizzati dell’energia,
p(n h ν) = exp(−n h ν/kT ) /
∞
X
exp(−n h ν/kT ) .
n=0
L’energia media ε per un oscillatore di frequenza ν in equilibrio alla temperatura T si calcola immediatamente. Ponendo β = 1/kT ,
ε=
X
n
p(n) nhν =
X
n h ν e−β n h ν /
n
X
e−β n h ν =
n
= d/dβ(1 − e−βhν )−1 (1 − e−βhν ) = h ν e−βhν /(1 − e−βhν )
Fissati β e ν, per h → 0 si ottiene ancora
h ν/β h ν = kT ,
come doveva essere, dato che la costante h rappresenta la lunghezza degli
intervalli in una somma il cui limite definisce un integrale di Riemann. Ma
per β e h fissi, il limite ν → ∞ è ben diverso: l’energia media e la sua derivata
rispetto a T , che fornisce il contributo del grado di libertà al calore specifico,
si annullano infatti esponenzialmente in questo limite.
Tale andamento esponenziale, che era da tempo osservato sperimentalmente per il campo elettromagnetico e che è stato in realtà la principale
motivazione della proposta di Planck, ha implicazioni risolutive su tutti i
problemi dei calori specifici, dando origine precisamente a una drastica riduzione dei contributi ai calori specifici da parte dei gradi di libertà che
oscillino con frequenze alte rispetto a kT /h. Per il campo elettromagnetico,
l’espressione risultante dalla somma di Planck per uT (ν),
uT (ν) = cost ν 2 h ν e−βhν /(1 − e−βhν )
20
è in perfetto accordo con i dati sperimentali. Anzi la costante h ne è determinata abbastanza precisamente, e vale circa 6.6 10−27 erg sec.
La teoria di Einstein dell’effetto fotoelettrico
La proposta di Planck sulle natura discreta dell’energia dagli oscillatori che
descrivono il campo elettromagnetico risale al 1900. Cinque anni dopo, Einstein mostra che le stesse ipotesi permettono di spiegare aspetti fino a quel
momento misteriosi dell’effetto fotoelettrico e portano in modo quasi obbligato ad associare alle onde elettromagnetiche delle particelle, che vengono
chiamate fotoni.
L’effetto fotoelettrico consiste nella estrazione di elettroni da un metallo
da parte di un fascio di luce incidente. Nella descrizione classica delle onde
elettromagnetiche, in ogni punto i campi, elettrico e magnetico, oscillano con
la frequenza dell’onda e con un’ampiezza il cui quadrato è proporzionale al
flusso di energia associato all’onda.
La dinamica di un elettrone in un metallo dipenderà dalle forze di interazione con gli atomi che lo costituiscono, che possono essere schematizzate con
una funzione di energia potenziale, dipendente dalla posizione dell’elettrone
e da quelle degli atomi. In una approssimazione ragionevole, si può trattare
un elettrone come in moto in un potenziale dato, che lo costringe all’interno
del metallo. In generale, estrarlo dal metallo richiederà un’energia, pari in
questo modello alla differenza ∆U di energia potenziale tra la regione interna
al metallo e lo spazio esterno. Sempre in questa semplice approssimazione,
fornendo a un elettrone un’energia E < ∆U , l’elettrone rimarrà nel metallo,
mentre per E > ∆U , l’elettrone uscirà con energia cinetica E − ∆U .
La corrente prodotta dagli elettroni che escono dal metallo e la loro energia cinetica sono misurabili facilmente osservando la corrente che si produce
tra una seconda superficie metallica che raccoglie gli elettroni e il metallo
stesso, attraverso un filo che li colleghi, e la dipendenza di tale corrente da
una differenza di potenziale contraria applicata tra il metallo e la superficie di raccolta; la corrente si arresta, infatti, quando la differenza di energia
potenziale supera l’energia cinetica degli elettroni.
L’energia ceduta dalla luce a un elettrone può dipendere dalla frequenza dell’onda, ma dipenderá soprattutto dall’ampiezza, e anche dalla durata
dell’illuminazione.
Gli esperimenti, che richiedono un apparato simile a una vecchia valvola di
radio (ma anche la cella di un giocattolo a energia solare genera una corrente
21
per effetto fotoelettrico) mostrano invece caratteristiche diverse e incompatibili con la descrizione classica. Non si osserva infatti alcuna corrente se la
frequenza della luce non supera una certa soglia, indipendentemente dalla
intensità e dalla durata del fascio luminoso; solo per frequenze maggiori di
tale soglia la corrente diventa proporzionale all’intensità della luce.
La spiegazione di Einstein assume che gli scambi di energia tra la luce e
gli elettroni non siano descritti dai campi oscillanti dell’elettromagnetismo
classico, ma avvengano per quanti di energia discreti, esattamente quelli
che proponeva Planck per la statistica delle onde elettromagnetiche in una
scatola.
Ciascuno di tali quanti ha l’energia ipotizzata da Planck, E = hν; ogni
quanto può essere assorbito da un elettrone, che ne acquista allora tutta l’energia. Per hν > ∆U l’assorbimento di un quanto fa perciò uscire l’elettrone
dal metallo, con un’energia cinetica hν−∆U ; se la frequenza è invece inferiore
a ∆U/h, l’uscita dal metallo è impossibile, a meno di un assorbimento di un
secondo quanto, in succssione cosı̀ rapida da prevenire la perdita dell’energia
assorbita con il primo, una possibilità rara se la luce non è estremamente
intensa.
La teoria di Einstein spiega molto bene l’effetto di soglia ed è confermata
dalla misura dell’energia cinetica degli elettroni che escono dal metallo. Se
ne conclude che al campo elettromagnetico devono essere associati quanti
discreti di energia, legata alla frequenza dalla relazione di Planck E = hν. Il
campo elettromagnetico sembra perciò consistere di particelle, che si chiameranno fotoni, in qualche modo associate alle onde elettromagnetiche, e perciò
in movimento alla velocità della luce.
L’impulso del fotone
A questo punto, le relazioni che abbiamo ottenuto per la variazione dell’energia dei singoli oscillatori del campo elettromagnetico possono essere interpretate in termini di impulso di tali particelle. Infatti, la relazione P = u/3,
eq.(12), tra pressione e densità di energia fornisce il bilancio dell’impulso tra
il campo elettromagnetico e le pareti della scatola e vale separatamente, per
la derivazione che ne abbiamo fatto, per ciascuna delle componenti alle diverse frequenze ν. Pensando i campi alla frequenza ν come descritti da particelle
di energia hν, possiamo confrontare tale pressione con quella calcolata alla
maniera di un gas in una scatola.
Consideriamo perciò una scatola contenente particelle che si muovono alla
22
velocità della luce, c, e hanno ciascuna quantità di moto p = pν . L’impulso
trasferito a una parete, per unità di superficie e di tempo, dalle particelle
che la urtano a un angolo θ con la normale è p = 2N c cos2 θ pν , con N la
densità delle particelle. Assumendo velocità distribuite in modo isotropo e
mediando sugli angoli si ottiene (un fattore 1/2 venendo come per i gas dalla
limitazione a velocità positive)
P = pν N c/3 .
Perciò
N c pν = u(ν) = N hν ,
dove la seconda relazione esprime il fatto che l’energia del campo è data dal
numero di particelle per l’energia di Planck hν. Perciò l’impulso di un fotone
di energia hν vale
p = h ν/c = h/λ .
λ la lunghezza d’onda della luce di frequenza ν.
L’associazione di un impulso ai quanti del campo elettromagnetico introdotti da Planck li trasforma a tutti gli effetti in particelle, di cui si possono
discutere per esempio gli urti con gli elettroni (effetto Compton) in termini
di conservazione di energia e impulso. Naturalmente questo rappresenta un
rovesciamento della descrizione ondulatoria della luce, che risale a Newton,
e pone un problema di conciliazione tra la descrizione ondulatoria e quella
corpuscolare (della luce ma non solo, come vedremo) che sarà uno dei temi
centrali della Meccanica Quantistica.
4.
Il principio di indeterminazione
Gli effetti della costante di Planck
L’introduzione della costante di Planck come unità minima di area dello
spazio delle fasi genera una situazione del tutto nuova per la meccanica degli atomi. Anche se la logica che seguiremo non farà uso di questo fatto,
né delle considerazioni e delle prescrizioni che costituiscono la vecchia teoria dei quanti, conviene valutare brevemente l’impatto sulle teorie atomiche
dell’introduzione della costante di Planck.
Una volta che nella meccanica si sostituiscono posizioni e impulsi esattamente definiti con “aree quantizzate” nello spazio delle fasi, i problemi della
stabilità degli atomi, delle loro dimensioni e della loro energia hanno soluzioni
semplici e naturali.
23
Assumendo di sapere (come era stato scoperto da Rutherford nel 1910)
che gli atomi consistono di un nucleo, di dimensioni molto ridotte, carico positivamente, e di elettroni, di massa molto piccola rispetto a quella del nucleo
(di un fattore circa 2000 per l’atomo di idrogeno), in interazione Coulombiana tra loro e con il nucleo, la possibilità di ottenere atomi stabili, cioè con
energia limitata inferiormente, si realizza immediatamente una volta che si
vincolino dei prodotti tra impulsi e coordinate a un valore minimo dell’ordine
di h, o si introducano aree discrete, multiple di h.
Per un atomo di idrogeno, di Hamiltoniana
H = p2 /2m − e2 /r ,
m la massa dell’elettrone, se si assume una relazione p r = h, si ottiene, per
l’energia in funzione di r,
E = h2 /2mr2 − e2 /r ,
che ha minimo per
r = h2 /me2 .
Alternativamente, si possono considerare orbite circolari, di raggio r,
velocità v, momento angolare L = mvr, con la relazione
mv 2 /r = e2 /r2
che si ottiene uguagliando la massa per l’accelerazione dell’elettrone e la forza
Coulombiana.
Se si impone che l’orbita delimiti un’area nh nello spazio descritto dall’angolo e dalla variabile canonica coniugata, il momento angolare L, si ottiene
L = nh/2π. Sostituendo questo vincolo nell’equazione precedente scritta
come
L2 = me2 r
si ottiene
r = n2 h2 /me2 (2π)2 .
Per n = 1 il risultato è un raggio minimo
r = (6.6)2 10−54 2000 6 1023 /(4.8)2 10−20 (2π)2 = 0.5 10−8 cm
Come si vede, la costante di Planck dà origine a raggi atomici precisamente dell’ordine di grandezza richiesto dal Numero di Avogadro.
24
Inoltre, usando le relazioni precedenti, l’energia di legame di un atomo di
idrogeno, nella sua configurazione di energia più bassa, è data da
E1 = mv 2 /2 − e2 /r = −e2 /2r = (4.8)2 10−20 /10−8 = 22 10−12 erg = 13 eV ,
dove l’ultimo passaggio viene dalla definizione del Volt come Joule su Coulomb, dal valore della carica dell’elettrone in Coulomb, circa 1.6 10−19 ,
dal fattore 107 di conversione tra Joule e erg e dalla definizione dell’elettronvolt come la variazione dell’energia elettrostatica di un elettrone all’attraversamento di una differenza di potenziale di un Volt, da cui 1 eV
= 1.6 10−12 erg.
L’espressione in eV è significativa perchè il Volt è l’ordine di grandezza
della differenza di potenziale ai poli di una pila, che riflette le differenze
di energie di legame degli elettroni in diversi metalli e perciò l’ordine di
grandezza delle energie di legame degli elettroni negli atomi.
Inoltre, se i trasferimenti di energia tra la luce e gli atomi avvengono
per quanti discreti, E = hν, le frequenze associate a cambiamenti di energia
dell’ordine dell’energia di legame di un elettrone in un atomo di idrogeno
sono
ν = 22 10−12 /6.6 10−27 = 3 1015 ,
corrispondenti a lunghezze d’onda
λ = c/ν = 3 1010 /3 1015 = 10−5 cm ,
appena sotto l’intervallo della luce visibile.
Riassumendo, l’introduzione della costante di Planck con il ruolo di area
minima che restringe e discretizza le configurazioni possibili, nello spirito
della descrizione di Planck degli oscillatori, rende gli atomi stabili, ne dà le
dimensioni e le energie di legame; insieme alla relazione di Planck per il campo
elettromagnetico fornisce l’ordine di grandezza della lunghezza d’onda della
luce emessa dagli atomi. Le costanti che abbiamo trovato in questo modo
continuano anzi a caratterizzare gli atomi anche in Meccanica Quantistica:
aB ≡ h2 /(2π)2 me2 = 0.53 10−8 cm
viene indicato come il raggio di Bohr,
R ≡ E1 /h = e2 /2hr = 13 eV /h = 3.1 1015 sec−1
la frequenza di Rydberg.
25
Si può aggiungere che le possibili orbite circolari ottenute sopra, di raggio
rn = n2 aB hanno energia
En = e2 /2hrn = E1 /n2 .
Al passaggio dell’elettrone da una all’altra di queste orbite corrisponde perciò
una differenza di energia
∆En,m = E1 (1/n2 − 1/m2 ) ;
se tale energia viene fornita a (o assorbita da) un quanto del campo elettromagnetico, la sua frequenza sarà
νn,m = ∆En,m /h = R (1/n2 − 1/m2 ) .
Questa formula riproduce con buona precisione le frequenze della luce emessa
o assorbita dagli atomi di idrogeno, in parte note (per n = 2 e m > 2) fin
dalla metà dell’800.
Il principio di indeterminazione
Indipendentemente dal suo uso più o meno euristico nella meccanica degli
atomi, quali sono le implicazioni dell’introduzione della costante di Planck
sui concetti fondamentali della Meccanica? La risposta viene da Heisenberg
nel 1925, con un’analisi che rivoluziona le nozioni di variabile e di stato nella
descrizione dei sistemi fisici. La meccanica, e in generale la fisica classica,
descrive infatti i possibili stati dei sistemi fisici in termini di un certo numero
di proprietà, per esempio posizioni e velocità di punti materiali o valori dei
campi elettromagnetici in ciascun punto dello spazio, determinabili, almeno
in linea di principio, con precisione arbitraria.
La tesi di Heisenberg è che questo punto di vista non ha fondamento
una volta introdotta la costante di Planck perchè non è possibile e non ha
significato attribuire dei valori simultaneamente alle diverse variabili, per
esempio alla posizione e insieme all’impulso di una particella. Heisenberg
mostra infatti che ogni misura di posizione richiede uno scambio di impulso,
tanto maggiore quanto maggiore è la precisione della misura: a una precisione
∆x nella misura di una posizione corrisponde un trasferimento di impulso ∆p,
con la relazione
∆x ∆p ≥ h/4π
Conviene ricordare che, nel clima di crisi dei fondamenti della meccanica,
che si aggiungeva alla rivoluzione prodotta dalla relatività sulla concezione
26
di Galileo e Newton dello spazio e del tempo, si era affermato dai primi
del ’900 il punti di vista dell’operazionismo, cioè la tesi che non si debbano
mai introdurre concetti e relazioni che non abbiano un significato diretto in
termini di operazioni fisiche.
Applicando tale criterio, Heisenberg si chiede quale sia il significato operazionale di posizione e impulso e discute perciò in che modo una posizione
possa essere determinata. L’apparato più preciso per questo scopo sembra
essere il microscopio, che si può schematizzare come un sistema di lenti che
raccolgono la luce diffusa da un oggetto, che supporremo di dimensioni trascurabili in modo che la luce possa essere pensata come diffusa da un solo
punto.
In generale, il limite dei microscopi nel distinguere punti diversi di provenienza della luce era molto ben noto e ben compreso come conseguenza del
carattere ondulatorio della luce. Se si tiene conto del carattere ondulatorio
della luce, le immagini che si formano in un sistema di lenti seguono infatti
le leggi dell’ottica geometrica solo approssimativamente; l’immagine su uno
schermo, secondo l’ottica geometrica, di una sorgente puntiforme attraverso
un sistema di lenti non è infatti altro che il punto nel quale le onde emesse da
una sorgente interferiscono costruttivamente, avendo percorso cammini tutti
uguali, a meno di piccole frazioni della lunghezze d’onda della luce impiegata.
Tale immagine ha perciò in realtà una certa larghezza, comprendendo tutti i punti in cui l’interferenza rimane approssimativamente costruttiva, i punti
cioè per ciascuno dei quali i diversi cammini che lo raggiungono attraverso il
sistema di lenti differiscono tra loro solo per una piccola frazione della lunghezza d’onda. Le immagini di due punti diversi possono perciò sovrapporsi
parzialmente, e sono distinguibili se e solo se l’immagine in senso geometrico
di uno dei punti non soddisfa la condizione di interferenza costruttiva per
l’altro.
Dato un sistema di lenti, su un certo asse, che raccolga la luce emessa dalle sorgenti in un cono di ampiezza α e formi le immagini a grande distanza,
necessaria per un grande ingrandimento, consideriamo una prima sorgente
sull’asse del sistema e una seconda a distanza ∆x, su un piano ortogonale
all’asse. Consideriamo il punto immagine della sorgente sull’asse e chiediamoci se anche per la seconda sorgente tale punto soddisfa la condizione di
interferenza costruttiva; mentre i cammini provenienti dalla seconda sorgente e vicini all’asse mantengono, nel limite di grande ingrandimento, la stessa
lunghezza, i cammini sul bordo del cono differiscono per ±∆x sin α. La
condizione di distinguibilità, che associamo per semplicità a una differenza
27
di fase δϕ = 1 tra i cammini ai due bordi del cono è perciò
2 ∆x sin α > λ/2π ,
con λ la lunghezza d’onda della luce.
Fin qui il quadro è classico e ben noto a chi usa microscopi. Quello che
Heisenberg aggiunge nasce dal considerare la luce come composta di particelle, i fotoni, di cui almeno uno deve essere prodotto, o diffuso, dalle sorgenti in
esame (per consistenza del ragionamento occorre pensare che i singoli fotoni,
in quanto descrizione discreta della luce, ne subiscano gli effetti di interferenza); ma un fotone associato alla lunghezza d’onda λ ha un impulso p = h/λ,
h la costante di Planck, e la sua produzione o diffusione cambia l’impulso
della sorgente in esame di un ordine di grandezza ∆p = h/λ; di conseguenza la relazione di distinguibilità di una differenza di posizione ∆x si scrive
in termini dell’impulso trasferito al sistema di cui si vuole determinare la
posizione:
2 ∆x sin α > h / 2π ∆p ,
e perciò almeno (per grandi ampiezze del cono di accettazione della luce)
∆x ∆p > h/4π .
Le regole di commutazione di Heisenberg
Oltre a introdurre un principio di indeterminazione tra i valori attribuibili a
posizione e impulso, l’analisi di Heisenberg conclude che misurare un impulso
dopo aver misurato una posizione dà un risultato diverso rispetto a misure
effettuate nell’ordine inverso. I valori ottenuti per posizione e impulso attraveso misure successive non vanno perciò pensati come preesistenti, ma come
risultato di operazioni che hanno agito sul sistema e dal cui ordine dipendono
i risultati.
Quelle che nella fisica classica sono variabili, i cui valori devono solo essere
registrati dalle misure, diventano per Heisenberg simboli associati a procedure sperimentali il cui ordine non è trascurabile. Mentre somme e prodotti di
variabili classiche sono ancora variabili classiche, i cui valori sono dati dalle
stesse operazioni, l’analisi di Heisenberg conclude che al prodotto di tali simboli può essere associato un significato solo in termini della successione delle
corrispondenti operazioni, e che tale prodotto non è perciò commutativo.
28
A questo punto è decisivo chiedersi “quale sia la differenza” tra i prodotti
px e xp. Perchè tale differenza abbia senso conviene che i simboli che stiamo
usando si possano sommare (e moltiplicare per numeri), oltre che moltiplicare
tra loro, un’ipotesi tutt’altro che evidente se si tiene conto che si sta parlando
di operazioni.
Assumiamo tale ipotesi, assumiamo per semplicità che c ≡ xp − px commuti con x e con p e chiediamoci quali siano le conseguenze di questa semplice
relazione. Vedremo che essa implica sia le relazioni di indeterminazione sia
il carattere discreto, En = nhν degli scambi di energia di un oscillatore armonico di frequenza ν, cioè l’ipotesi alla base della soluzione di Planck per
la meccanica statistica del campo elettomagnetico.
Intanto osserviamo che, con le operazioni di somma e prodotto, i polinomi
in x e p formano un’algebra, non commutativa, sui numeri reali; la “realtà”
di x e p può essere formalizzata introducendo una coniugazione A∗ , che soddisfi, come per l’algebra delle matrici, (AB)∗ = B ∗ A∗ , con x = x∗ , p = p∗ ;
ne segue c∗ = −c, cioè c ha le proprietà di un numero immaginario puro;
conviene allora introdurre i numeri complessi scrivendo c = ig, e assumere
che g sia semplicemente una costante reale; l’algebra dei polinomi in x e p assume allora automaticamente coefficienti complessi, con l’unità immaginaria
identificata con g −1 c
La derivazione del carattere discreto degli scambi di energia di un oscilatore usa solo il commutatore tra x e p, l’interpretazione dei polinomi in x e
p come le possibili operazioni sul sistema e l’ipotesi che l’energia di un oscillatore armonico di frequenza ν = 2πω si scriva, come in meccanica classica
(a meno di un cambio di variabili x0 = λx, p0 = λ−1 p che lascia invariata c)
H = ω/2 (p2 + x2 ) .
In queste ipotesi, si può calcolare la variazione di H sotto qualsiasi operazione, che assumiamo descritta dalla moltiplicazione per un polinomio in x e p.
Consideriamo infatti il risultato del prodotto di x + ip con H; dalla relazione
di commutazione, indicando
[A, B] ≡ AB − BA
e usando la regola [A, BC] = [A, B]C + B[A, C], si ottiene
(x + ip)H = H(x + ip) + ω g (x + ip) .
Allo stesso modo,
(x − ip)H = H(x − ip) − ω g (x − ip) .
29
Usando ripetutamente la regola per il commutatore di un prodotto, si ottiene
anche
(x + ip)n H = (H + n ω g)(x + ip)n ,
(x − ip)k (x + ip)n H = (x − ip)k (H + n ω g)(x + ip)n =
= (H + (n − k) ω g)(x − ip)k (x + ip)n .
Tenendo conto che ogni polinomio in x e p può essere scritto come un polinomio in x + ip e x − ip (anche ordinando i termini come sopra dato che il
commutatore tra x + ip e x − ip è un numero), il risultato è che ogni operazione sull’energia di un oscillatore armonico si può scrivere come una somma
di termini ciascuno dei quali cambia l’energia per un multiplo intero di g ω.
Ponendo g = h/2π, cioè
xp − px = i h/2π ,
l’energia cambia solo per multipli interi di hν.
Le relazioni di indeterminazione, intese come relazioni tra “valori quadratici medi ” delle dispersioni x − < x > e p − < p > si derivano per la
più generale nozione di “media”, indicata con < A >, che si possa dare per
gli elementi A di un’algebra non commutativa: chiameremo infatti media (e
interpreteremo come media dei risultati delle misure in una situazione fisica
data) ogni regola che associ a ogni elemento A dell’algebra dei polinomi in x
e p un numero (complesso) in modo lineare,
< aA + bB >= a < A > + b < B >
∀a, b ∈ C
I
positivo, cioè
< A∗ A > ≥ 0 ,
e normalizzato,
< 1 >= 1 .
Per una qualsiasi di tali “medie”, calcoliamo, con 0 6= λ ∈ IR
0 ≤ < (λx − iλ−1 p)(λx + iλ−1 p) > = λ2 < x2 > + λ−2 < p2 > − h/2π .
Dovendo valere per ogni λ, la disequazione implica che nessuna delle due
medie si può annullare e, per λ2 = (< p2 > / < x2 >)1/2 ,
2 < x2 >1/2 < p2 >1/2 ≥ h/2π .
La stessa derivazione si applica alle variabili x − < x > e p − < p >.
30
Con le nozioni e le ipotesi che abbiamo introdotto, la regola di comutazione di Heisenberg implica perciò sia il carattere discreto delle differenze di
energia realizzabili in un oscillatore armonico sia la regola di indeterminazione
tra posizione e impulso.
Le nozioni fondamentali che abbiamno introdotto in questo modo sono
quella di variabile come elemento di un’algebra non commutativa
e quella di media come funzionale lineare, positivo e normalizzato.
Mostreremo che queste nozioni sono sufficienti per costruire una nuova teoria
delle variabili e degli stati dei sistemi fisici in generale e in particolare una
nuova meccanica dei punti materiali.
Il percorso logico che abbiamo seguito è leggermente diverso da quello
originale: la “Meccanica delle matrici”, cioè la sostituzione delle variabili
classiche con operatori, viene proposta da Heisenberg nel 1925 per spiegare
gli spettri di emissione degli atomi; la discussione dei limiti alle osservazioni
con il miscroscopio viene due anni dopo e risponde all’esigenza di esplicitare
le implicazioni e dare un fondamento di principio alle regole di comutazione,
ed è questo il punto di vista che abbiamo adottato.
31