da “Il libro di Fisica” - Asimov
Misurazione della temperatura
Prima dell'epoca moderna il calore è stato
studiato solo dal punto di vista qualitativo. La
gente si accontentava di dire: «fa caldo», oppure «fa freddo!», o ancora «questo è più caldo di
quest'altro». Per poter fare della temperatura una
grandezza misurabile, occorreva prima trovare
qualche mutamento misurabile che si accompagnasse regolarmente alle variazioni di temperatura: si scoprì che un mutamento di questo genere era dato dal fatto che le sostanze, quando vengono scaldate, si espandono e quando vengono
raffreddate, si contraggono.
Galileo fu il primo a cercare di sfruttare
questo fenomeno per studiare i cambiamenti di
temperatura. Nel 1603, egli collocò un tubo di
vetro capovolto contenente aria calda in una vaschetta piena di acqua: l'aria del tubo, raffreddandosi fino a raggiungere la temperatura
ambiente, si contraeva, causando la salita dell'acqua della vaschetta dentro il tubo. Galileo
aveva così costruito un "termometro" (dalle parole greche che significano «misura del calore»). Al variare della temperatura della stanza,
variava anche il livello raggiunto dall'acqua nel
tubo. Se la stanza veniva riscaldata, l'aria nel tubo
si espandeva, facendo abbassare il livello dell'acqua; se invece diventava più fredda, l'aria si
contraeva e il livello dell'acqua saliva. L'unico
inconveniente veniva dal fatto che l'acqua della
bacinella era esposta all'aria, e anche la pressione
dell'aria mutava di continuo, causando a sua
volta una variazione del livello dell'acqua nel
tubo, indipendentemente dalla temperatura, il
che confondeva i risultati. Il termometro fu il primo importante strumento scientifico fatto di vetro.
Attorno al 1654, il granduca di Toscana, Ferdinando Secondo, aveva realizzato un termometro che era indipendente dalla pressione
dell'aria: esso era costituito da un bulbo attaccato a un tubo rettilineo, nel quale veniva sigillato del liquido. La contrazione e l'espansione del
liquido facevano da indicatori delle variazioni di
temperatura. I liquidi cambiano di volume con
la temperatura molto meno di quanto non facciano i gas; ma se il bulbo era capace e pieno in
modo che il liquido potesse espandersi solamente in un tubicino molto stretto, si potevano
rendere evidenti la salita e la discesa anche nel
caso di un piccolo cambiamento di volume.
Il fisico inglese Robert Boyle fece qualcosa
di molto simile all'incirca nello stesso periodo,
e fu il primo a dimostrare che il corpo umano ha
una temperatura costante, notevolmente superiore alla consueta temperatura ambiente. Altri
dimostrarono che certi fenomeni fisici avvengono
sempre alla stessa temperatura. Prima della fine
del diciassettesimo secolo si sapeva che questo
era il caso della fusione del ghiaccio e dell'ebollizione dell'acqua.
I primi liquidi usati nella termometria furono
l'acqua e l'alcool. Ma l'acqua congelava troppo
presto e l'alcool evaporava troppo facilmente;
così il fisico francese Guillaume Amontons ricorse al mercurio. Nello strumento da lui ideato, come in quello di Galileo, l'espansione e la
contrazione dell'aria facevano salire o scendere il
livello del mercurio.
Poi, nel 1714, il fisico tedesco Gabriel Daniel
Fahrenheit combinò le migliorie del granduca e
quelle di Amontons, mettendo del mercurio in
un tubo chiuso e usando la sua espansione e la
sua contrazione come indicatori della temperatura. Fahrenheit fece di più: segnò sul tubo una
scala graduata, in modo da poter effettuare
una lettura quantitativa della temperatura.
Non si sa con precisione in quale modo Fahrenheit giunse alla scelta della sua scala; secondo una versione dei fatti, egli avrebbe posto lo
zero in corrispondenza della temperatura più
bassa che era riuscito a raggiungere nel suo laboratorio, mescolando sale e ghiaccio fondente; poi
fece corrispondere il 32 e il 212 rispettivamente
al punto di congelamento e al punto di ebollizione dell'acqua pura. Ciò presentava due vantaggi:
primo, l'intervallo delle temperature in cui l'acqua era liquida risultava così pari a 180, un numero legato all'uso dei "gradi"; infatti vi sono
180 gradi in una semicirconferenza; secondo, la
temperatura corporea veniva ad aggirarsi sui
100 gradi, essendo normalmente, per l'esattezza,
di 98,6 gradi Fahrenheit.
Solitamente la temperatura corporea è così
costante che, quando supera di più di un grado
circa la media, si dice che il soggetto ha la febbre,
e si riscontrano chiari sintomi di malattia. Nel
1858, il medico tedesco Karl August Wunderlich introdusse la procedura di controllare frequentemente la temperatura corporea come indicazione del decorso della malattia. Nel decennio successivo il medico inglese Thomas Clifford
Allbutt inventò il "termometro clinico", che ha
una strozzatura nel tubicino contenente il mercurio; il filo di mercurio sale, raggiungendo un
massimo, quando il termometro vien tenuto, per
esempio, nella bocca, ma non ridiscende quando
lo si toglie: esso si spezza in corrispondenza della
strozzatura, e ciò permette di leggere quando si
vuole la temperatura, che è indicata dalla porzione di mercurio rimasta al di sopra della strozzatura stessa. Negli Stati Uniti è tuttora usata
la scala Fahrenheit per le faccende di tutti i giorni, come i bollettini meteorologici e i termometri
clinici.
Nel 1742, l'astronomo svedese Anders Celsius adottò invece un'altra scala, che, nella sua
forma definitiva, pone in corrispondenza del
punto di congelamento dell'acqua lo zero, e in
corrispondenza del suo punto di ebollizione il
100. Siccome la divisione dell'intervallo di temperatura in cui l'acqua è liquida è in cento parti,
questa scala è chiamata "centigrada". Parlando
di questa scala, si usa spesso l'espressione
"gradi centigradi"; ma gli scienziati, in una conferenza internazionale del 1948, l'hanno ribattezzata "scala Celsius", in onore del suo inventore, come si era già fatto per la scala Fahrenheit; pertanto, volendo seguire la nomenclatura
ufficiale, si dovrebbe parlare di gradi Celsius. Il
simbolo "C", comunque, va bene ugualmente. E'
stata la scala Celsius ad affermarsi ovunque nel
mondo civile, e anche gli Stati Uniti stanno
cercando di adeguarsi a quest'uso. Gli scienziati in particolare hanno trovato molto conveniente la scala Celsius.
Due teorie del calore
La temperatura misura l'intensità del calore,
ma non la sua quantità.
Il calore passa sempre da un corpo a temperatura maggiore a uno a temperatura minore,
fino a quando le temperature sono uguali, così
come l'acqua scende da un livello superiore a uno
inferiore finché i livelli sono uguali. Il calore si comporta in tal modo indipendentemente dalle quantità di calore contenute nei
corpi interessati. Nonostante il fatto che una
vasca da bagno di acqua tiepida contenga molto
più calore di un fiammifero acceso, mettendo il
fiammifero vicino all'acqua il calore passerà da
questo all'acqua e non viceversa.
Joseph Black, che aveva svolto importanti ricerche anche sui gas, fu il primo a chiarire la
distinzione tra temperatura e calore. Nel 1760,
egli stabilì che sostanze diverse aumentavano di
temperatura in misura differente quando si forniva loro una data quantità di calore. Per innalzare di un grado Celsius la temperatura di 1
grammo di ferro occorre il triplo di calore che
per riscaldare di 1 grado 1 grammo di piombo. Il
berillio, poi, richiede il triplo del calore richiesto
dal ferro.
Black dimostrò inoltre che era possibile fornire calore a una sostanza senza farne innalzare la
temperatura. Riscaldando del ghiaccio fondente, se ne affretta la fusione, ma la temperatura
del ghiaccio non aumenta: il calore finirà per far
sciogliere tutto il ghiaccio, ma, durante il processo, la temperatura del ghiaccio non supererà
mai lo zero. Analogamente vanno le cose con l'ebollizione dell'acqua a 100 gradi: se si fornisce ulteriore calore, si farà evaporare più acqua, senza
comunque alterare la temperatura del liquido.
Lo sviluppo della macchina a vapore, che
iniziò all'incirca all'epoca degli esperimenti di
Black, accrebbe l'interesse degli scienziati per il
calore e la temperatura, spingendoli a riflettere
sulla natura del calore, come già avevano fatto
per la natura della luce.
Anche nel caso del calore, come in quello della luce, esistevano due teorie: l'una riteneva che
il calore fosse una sostanza materiale, che si poteva versare o far passare da un corpo a un altro,
e che veniva chiamata "calorico". Secondo questa concezione, quando il legno bruciava, il
calorico in esso contenuto passava nella fiamma,
da lì nella pentola posta sul fuoco, e dalla pentola nell'acqua in essa contenuta. Quando l'acqua
era piena di calorico, diventava vapore.
Quanto alla seconda teoria, verso la fine del
diciottesimo secolo due osservazioni famose diedero origine a una ipotesi che considerava il calore come una forma di vibrazione: una di que-
ste osservazioni si deve al fisico e avventuriero
americano Benjamin Thompson, un lealista che
abbandonò il paese durante la rivoluzione, fu insignito del titolo di conte Rumford e poi seguitò a
girare in lungo e in largo per l'Europa. Nel
1798, trovandosi in Baviera a dirigere le operazioni di alesatura dei cannoni, egli notò che venivano prodotte grandi quantità di calore, sufficienti
a portare 18 libbre di acqua al punto di ebollizione in meno di 3 ore. Da dove veniva tutto
questo calorico?
Thompson concluse che il calore doveva essere una vibrazione prodotta e intensificata dall'attrito meccanico dell'utensile contro il metallo.
L'anno successivo il chimico Humphry Davy
effettuò un esperimento ancora più significativo: mantenendo due pezzi di ghiaccio sotto la
temperatura di congelamento, li strofinò l'uno
contro l'altro, non con le mani ma con un congegno meccanico, in modo da evitare qualsiasi
flusso di calorico verso il ghiaccio: riuscì così a
fonderne parte mediante il solo attrito. Anch'egli
giunse alla conclusione che il calore dovesse essere una vibrazione e non una sostanza materiale.
In realtà questo esperimento avrebbe dovuto essere decisivo; ma la teoria del calorico, benché
evidentemente sbagliata, sopravvisse fino alla
metà del diciannovesimo secolo.
Il calore come energia
Anche se la natura del calore era scarsamente
compresa, gli scienziati raggiunsero qualche importante conoscenza in proposito, come già era
successo ai ricercatori che avevano studiato la
luce, i quali erano riusciti a chiarire alcuni
aspetti importanti della riflessione e della rifrazione della luce prima di aver compreso la natura di quest'ultima. I fisici francesi Jean Baptiste Joseph Fourier, nel 1822, e Nicholas Léonard
Sadi Carnot, nel 1824, studiarono il flusso del
calore compiendo notevoli passi in avanti.
Carnot viene anzi solitamente considerato il
fondatore della scienza detta "termodinamica" (dalle parole greche che significano «movimento del calore»); egli diede solide fondamenta
teoriche al funzionamento della macchina a va-
pore.
A partire dal 1840 i fisici incominciarono a
chiedersi in che modo il calore contenuto nel
vapore potesse convertirsi in lavoro meccanico,
mettendo in moto uno stantuffo. Esiste un limite
alla quantità di lavoro che si può ottenere da
una data quantità di calore? Analoghe domande
suscitava il processo inverso: come avviene la
conversione del lavoro in calore?
Joule dedicò trentacinque anni a convertire
varie forme di lavoro in calore, facendo con
estrema precisione quello che Rumford aveva fatto in precedenza, ma in maniera approssimativa.
Joule misurò la quantità di calore prodotta da
una corrente elettrica; riscaldò l'acqua e il mercurio agitandoli con ruote a pale, o forzando l'acqua a passare in tubicini sottili; riscaldò l'aria
comprimendola, e così via. In tutti i casi, calcolò
quanto lavoro meccanico fosse stato compiuto
sul sistema e quanto calore si fosse ottenuto
come risultato, e stabilì che una data quantità di
lavoro, di qualsiasi genere, produce sempre la
stessa quantità di calore. In altre parole, Joule
determinò "l'equivalente meccanico della caloria".
Dato che si poteva convertire il calore in
lavoro, si doveva considerare il calore come una
forma di "energia" (il termine energia, derivato
dal greco, significa proprio «che contiene lavoro»).
Elettricità, magnetismo, luce e moto, possono tutti essere usati per compiere lavoro, e sono
quindi tutti forme di energia. Il lavoro stesso, essendo convertibile in calore, è una forma di energia.
Queste idee mettevano in evidenza qualcosa che più o meno si sospettava fin dai tempi
di Newton: che l'energia si conserva, e non può
essere né creata né distrutta. Così, un corpo in
moto ha "energia cinetica", espressione introdotta nel 1856 da Lord Kelvin. Un corpo che si muove verso l'alto viene rallentato dalla gravità,
quindi la sua energia cinetica scompare gradualmente, ma, mentre esso perde tale energia cinetica, guadagna energia di posizione: infatti, trovandosi in alto rispetto alla superficie della terra,
può prima o poi cadere, riacquistando energia cinetica. Nel 1853, il fisico scozzese William John
Macquorn Rankine diede a questa energia di posizione il nome di "energia potenziale". Sembrava che la somma dell'energia cinetica di un
corpo e della sua energia potenziale (la sua
"energia meccanica") rimanesse costante durante il moto; questa costanza venne chiamata "conservazione dell'energia meccanica". Tuttavia, l'energia meccanica non si conserva "perfettamente": una parte va persa per attrito, resistenza
dell'aria, eccetera.
La cosa più importante dimostrata dagli esperimenti di Joule era il fatto che questa conservazione risultava rigorosamente verificata se si
teneva conto anche del calore; infatti, quando va persa dell'energia meccanica per attrito o
resistenza dell'aria, compare al suo posto del calore. Se si tiene conto anche di tale calore, si può
dimostrare in modo incondizionato che non viene creata energia nuova né distrutta energia esistente. Il primo ad asserire chiaramente questo
fatto era stato un fisico tedesco, Julius Robert
Mayer, nel 1842; tuttavia egli non si appoggiava su un sufficiente lavoro sperimentale, e oltretutto mancava di solide credenziali accademiche.
(Anche Joule, che era un birraio e non aveva quindi credenziali accademiche, incontrò
delle difficoltà per far pubblicare il proprio lavoro, pur così accurato.)
Fu solo nel 1847 che una figura accademica
di sufficiente prestigio espresse questo concetto
in modo esplicito. In quell'anno Heinrich von
Helmholtz enunciò il "principio di conservazione dell'energia": ogniqualvolta una certa
quantità di energia sembra scomparire da
qualche parte, deve apparirne una quantità
equivalente da qualche altra parte. Questo viene
anche chiamato "primo principio della termodinamica" e resta fra i fondamenti della fisica
moderna, non messo in crisi né dalla teoria dei
quanti né dalla teoria della relatività.
Ora, benché qualsiasi forma di lavoro
possa essere convertita interamente in calore,
l'inverso non è vero. Quando si converte il calore in lavoro, parte di esso è inutilizzabile, e va
inevitabilmente sprecato. In una macchina a vapore in funzione il calore del vapore viene convertito in lavoro solo fintantoché la temperatura
del vapore scende fino alla temperatura ambiente; dopo di che, nonostante rimanga ancora molto calore nell'acqua fredda formata dal vapore,
non è più possibile convertirlo in lavoro. Anche
nell'intervallo di temperatura in cui è possibile
ottenere lavoro, parte del calore non si trasforma
in lavoro, ma viene speso per riscaldare il
motore e l'aria circostante, per superare l'attrito
tra il pistone e il cilindro, e così via.
In ogni conversione di energia - per esempio,
di energia elettrica in energia luminosa, o di
energia magnetica in energia di moto - parte dell'energia va sprecata; non va perduta - il che sarebbe contrario al primo principio - ma viene
convertita in calore, che viene dissipato nell'ambiente.
La capacità di un sistema di compiere lavoro è la sua "energia libera". La frazione dell'energia che va inevitabilmente persa come calore
non utilizzabile trova espressione quantitativa
nel concetto di "entropia" - un termine usato per
la prima volta nel 1850 dal fisico tedesco Rudolf
Julius Emmanuel Clausius.
Clausius sottolineò il fatto che, in qualsiasi
processo che implichi un flusso di energia, vi
è sempre una certa perdita; pertanto l'entropia
dell'universo cresce in continuazione. Questo
aumento costante dell'entropia costituisce il contenuto del "secondo principio della termodinamica"; è a questo proposito che talvolta si parla
di «morte termica dell'universo». Fortunatamente la quantità di energia utilizzabile (fornita
quasi interamente dalle stelle, che vanno «consumandosi» a un ritmo vertiginoso) è talmente
grande che ne resta abbastanza per tutti gli usi
ancora per molti miliardi di anni.
Il calore e il moto molecolare
Una chiara comprensione della natura del
calore si ebbe infine allorché si comprese la
struttura atomica della materia e ci si rese conto
che le molecole che costituiscono un gas sono
continuamente in moto, e rimbalzano le une contro le altre nonché contro le pareti del recipiente
che le contiene. Il primo che tentò di spiegare in
questi termini le proprietà dei gas fu il matematico svizzero Daniel Bernoulli, nel 1738; egli
però era troppo in anticipo sui suoi tempi.
A metà del diciannovesimo secolo Maxwell e
Boltzmann elaborarono adeguatamente l'aspetto matematico della questione, gettando le
basi della "teoria cinetica dei gas («cinetica» deriva dalla parola greca che indica il movimento),
che mostrava come il calore fosse equivalente al
moto delle molecole. Così la teoria del calorico
ricevette il colpo di grazia. Si comprese allora
che il calore era un fenomeno vibrazionale, consistente nel movimento delle molecole nei gas e
nei liquidi, o nell'oscillazione incessante delle
molecole nei solidi.
Quando si riscalda un solido in misura tale
che l'oscillazione delle molecole acquista l'energia necessaria per spezzare i legami che tengono unite le molecole contigue, il solido fonde e
diventa un liquido. Più è forte il legame tra
molecole contigue in un solido, maggiore è la
quantità di calore che occorre per farle vibrare
con violenza sufficiente a spezzare tale legame; e
più alta è pertanto la temperatura di fusione della
sostanza.
Nello stato liquido le molecole possono
muoversi liberamente l'una rispetto all'altra. Se
si riscalda un liquido, i moti delle molecole finiscono per avere energia sufficiente a liberarle
completamente, e il liquido bolle. Anche qui, il
punto di ebollizione è più alto quando le forze intermolecolari sono più intense.
Quando si converte un solido in un liquido,
tutta l'energia termica viene usata per spezzare i
legami intermolecolari: è per questo che il calore
assorbito per fondere il ghiaccio non fa salire
la sua temperatura. Lo stesso accade quando si
bolle un liquido.
Ora possiamo distinguere facilmente tra
calore e temperatura. Il calore è l'energia totale
contenuta nei moti molecolari di una data
quantità di materia. La temperatura rappresenta l'energia cinetica media per molecola di una
data sostanza. Così, due litri di acqua a 60° C
contengono il doppio di calore di un litro di
acqua alla stessa temperatura (poiché vi è un
numero doppio di molecole in agitazione), ma la
temperatura è uguale nei due volumi di acqua,
perché l'energia media del moto molecolare è la
stessa in entrambi i casi.
Vi è dell'energia nella struttura stessa di un
composto chimico cioè, nelle forze di legame
che vincolano un atomo o una molecola agli atomi o alle molecole vicini. Se si rompono questi
legami creandone dei nuovi che richiedono mi-
da “Il libro di Fisica” - Asimov
nor energia, l'energia in eccesso farà la sua comparsa sotto forma di calore o di luce, o di entrambi. Talvolta l'energia viene liberata così
velocemente da dar luogo a un'esplosione.
E' possibile calcolare l'energia chimica contenuta in una qualsiasi sostanza e prevedere
quale quantità di calore sarà liberata in qualsiasi reazione; per esempio, la combustione del
carbone implica la rottura dei legami tra gli atomi di carbonio del carbone stesso e dei legami tra
gli atomi delle molecole di ossigeno, con cui si ricombina il carbonio. Ora, l'energia di legame
del nuovo composto (anidride carbonica) è inferiore all'energia dei legami delle sostanze di
partenza: questa differenza, che può essere
misurata, viene liberata sotto forma di calore e di
luce.
Nel 1876, il fisico americano Josiah Willard
Gibbs elaborò la teoria della "termodinamica
chimica", e lo fece così esaurientemente da portare in un sol colpo alla completa maturità questa branca della scienza che praticamente non
esisteva.
La lunga memoria in cui Gibbs esponeva le
proprie idee era molto al di sopra del livello di
comprensione degli altri studiosi americani, e fu
pubblicata solo dopo considerevoli esitazioni
nelle "Transactions of the Connecticut Academy
of Arts and Sciences". Anche in seguito, le sue
serrate argomentazioni matematiche e lo stesso
carattere riservato di Gibbs contribuirono a far
restare pressoché ignorata tutta la materia, fino
a quando, nel 1883, Ostwald ne venne a conoscenza, tradusse la memoria in tedesco e proclamò al mondo intero l'importanza dell'opera di
Gibbs.
Un esempio di tale importanza è dato dalle
equazioni che esprimono le regole semplici, ma
rigorose, che governano l'equilibrio tra sostanze
diverse che si trovano presenti in più di una fase
(per esempio, in soluzione e sotto forma solida,
oppure come due liquidi immiscibili in presenza
di un vapore, e così via). La "regola delle fasi" è di
vitale importanza per la metallurgia e per molti
altri rami della chimica.
?