da “Il libro di Fisica” - Asimov Misurazione della temperatura Prima dell'epoca moderna il calore è stato studiato solo dal punto di vista qualitativo. La gente si accontentava di dire: «fa caldo», oppure «fa freddo!», o ancora «questo è più caldo di quest'altro». Per poter fare della temperatura una grandezza misurabile, occorreva prima trovare qualche mutamento misurabile che si accompagnasse regolarmente alle variazioni di temperatura: si scoprì che un mutamento di questo genere era dato dal fatto che le sostanze, quando vengono scaldate, si espandono e quando vengono raffreddate, si contraggono. Galileo fu il primo a cercare di sfruttare questo fenomeno per studiare i cambiamenti di temperatura. Nel 1603, egli collocò un tubo di vetro capovolto contenente aria calda in una vaschetta piena di acqua: l'aria del tubo, raffreddandosi fino a raggiungere la temperatura ambiente, si contraeva, causando la salita dell'acqua della vaschetta dentro il tubo. Galileo aveva così costruito un "termometro" (dalle parole greche che significano «misura del calore»). Al variare della temperatura della stanza, variava anche il livello raggiunto dall'acqua nel tubo. Se la stanza veniva riscaldata, l'aria nel tubo si espandeva, facendo abbassare il livello dell'acqua; se invece diventava più fredda, l'aria si contraeva e il livello dell'acqua saliva. L'unico inconveniente veniva dal fatto che l'acqua della bacinella era esposta all'aria, e anche la pressione dell'aria mutava di continuo, causando a sua volta una variazione del livello dell'acqua nel tubo, indipendentemente dalla temperatura, il che confondeva i risultati. Il termometro fu il primo importante strumento scientifico fatto di vetro. Attorno al 1654, il granduca di Toscana, Ferdinando Secondo, aveva realizzato un termometro che era indipendente dalla pressione dell'aria: esso era costituito da un bulbo attaccato a un tubo rettilineo, nel quale veniva sigillato del liquido. La contrazione e l'espansione del liquido facevano da indicatori delle variazioni di temperatura. I liquidi cambiano di volume con la temperatura molto meno di quanto non facciano i gas; ma se il bulbo era capace e pieno in modo che il liquido potesse espandersi solamente in un tubicino molto stretto, si potevano rendere evidenti la salita e la discesa anche nel caso di un piccolo cambiamento di volume. Il fisico inglese Robert Boyle fece qualcosa di molto simile all'incirca nello stesso periodo, e fu il primo a dimostrare che il corpo umano ha una temperatura costante, notevolmente superiore alla consueta temperatura ambiente. Altri dimostrarono che certi fenomeni fisici avvengono sempre alla stessa temperatura. Prima della fine del diciassettesimo secolo si sapeva che questo era il caso della fusione del ghiaccio e dell'ebollizione dell'acqua. I primi liquidi usati nella termometria furono l'acqua e l'alcool. Ma l'acqua congelava troppo presto e l'alcool evaporava troppo facilmente; così il fisico francese Guillaume Amontons ricorse al mercurio. Nello strumento da lui ideato, come in quello di Galileo, l'espansione e la contrazione dell'aria facevano salire o scendere il livello del mercurio. Poi, nel 1714, il fisico tedesco Gabriel Daniel Fahrenheit combinò le migliorie del granduca e quelle di Amontons, mettendo del mercurio in un tubo chiuso e usando la sua espansione e la sua contrazione come indicatori della temperatura. Fahrenheit fece di più: segnò sul tubo una scala graduata, in modo da poter effettuare una lettura quantitativa della temperatura. Non si sa con precisione in quale modo Fahrenheit giunse alla scelta della sua scala; secondo una versione dei fatti, egli avrebbe posto lo zero in corrispondenza della temperatura più bassa che era riuscito a raggiungere nel suo laboratorio, mescolando sale e ghiaccio fondente; poi fece corrispondere il 32 e il 212 rispettivamente al punto di congelamento e al punto di ebollizione dell'acqua pura. Ciò presentava due vantaggi: primo, l'intervallo delle temperature in cui l'acqua era liquida risultava così pari a 180, un numero legato all'uso dei "gradi"; infatti vi sono 180 gradi in una semicirconferenza; secondo, la temperatura corporea veniva ad aggirarsi sui 100 gradi, essendo normalmente, per l'esattezza, di 98,6 gradi Fahrenheit. Solitamente la temperatura corporea è così costante che, quando supera di più di un grado circa la media, si dice che il soggetto ha la febbre, e si riscontrano chiari sintomi di malattia. Nel 1858, il medico tedesco Karl August Wunderlich introdusse la procedura di controllare frequentemente la temperatura corporea come indicazione del decorso della malattia. Nel decennio successivo il medico inglese Thomas Clifford Allbutt inventò il "termometro clinico", che ha una strozzatura nel tubicino contenente il mercurio; il filo di mercurio sale, raggiungendo un massimo, quando il termometro vien tenuto, per esempio, nella bocca, ma non ridiscende quando lo si toglie: esso si spezza in corrispondenza della strozzatura, e ciò permette di leggere quando si vuole la temperatura, che è indicata dalla porzione di mercurio rimasta al di sopra della strozzatura stessa. Negli Stati Uniti è tuttora usata la scala Fahrenheit per le faccende di tutti i giorni, come i bollettini meteorologici e i termometri clinici. Nel 1742, l'astronomo svedese Anders Celsius adottò invece un'altra scala, che, nella sua forma definitiva, pone in corrispondenza del punto di congelamento dell'acqua lo zero, e in corrispondenza del suo punto di ebollizione il 100. Siccome la divisione dell'intervallo di temperatura in cui l'acqua è liquida è in cento parti, questa scala è chiamata "centigrada". Parlando di questa scala, si usa spesso l'espressione "gradi centigradi"; ma gli scienziati, in una conferenza internazionale del 1948, l'hanno ribattezzata "scala Celsius", in onore del suo inventore, come si era già fatto per la scala Fahrenheit; pertanto, volendo seguire la nomenclatura ufficiale, si dovrebbe parlare di gradi Celsius. Il simbolo "C", comunque, va bene ugualmente. E' stata la scala Celsius ad affermarsi ovunque nel mondo civile, e anche gli Stati Uniti stanno cercando di adeguarsi a quest'uso. Gli scienziati in particolare hanno trovato molto conveniente la scala Celsius. Due teorie del calore La temperatura misura l'intensità del calore, ma non la sua quantità. Il calore passa sempre da un corpo a temperatura maggiore a uno a temperatura minore, fino a quando le temperature sono uguali, così come l'acqua scende da un livello superiore a uno inferiore finché i livelli sono uguali. Il calore si comporta in tal modo indipendentemente dalle quantità di calore contenute nei corpi interessati. Nonostante il fatto che una vasca da bagno di acqua tiepida contenga molto più calore di un fiammifero acceso, mettendo il fiammifero vicino all'acqua il calore passerà da questo all'acqua e non viceversa. Joseph Black, che aveva svolto importanti ricerche anche sui gas, fu il primo a chiarire la distinzione tra temperatura e calore. Nel 1760, egli stabilì che sostanze diverse aumentavano di temperatura in misura differente quando si forniva loro una data quantità di calore. Per innalzare di un grado Celsius la temperatura di 1 grammo di ferro occorre il triplo di calore che per riscaldare di 1 grado 1 grammo di piombo. Il berillio, poi, richiede il triplo del calore richiesto dal ferro. Black dimostrò inoltre che era possibile fornire calore a una sostanza senza farne innalzare la temperatura. Riscaldando del ghiaccio fondente, se ne affretta la fusione, ma la temperatura del ghiaccio non aumenta: il calore finirà per far sciogliere tutto il ghiaccio, ma, durante il processo, la temperatura del ghiaccio non supererà mai lo zero. Analogamente vanno le cose con l'ebollizione dell'acqua a 100 gradi: se si fornisce ulteriore calore, si farà evaporare più acqua, senza comunque alterare la temperatura del liquido. Lo sviluppo della macchina a vapore, che iniziò all'incirca all'epoca degli esperimenti di Black, accrebbe l'interesse degli scienziati per il calore e la temperatura, spingendoli a riflettere sulla natura del calore, come già avevano fatto per la natura della luce. Anche nel caso del calore, come in quello della luce, esistevano due teorie: l'una riteneva che il calore fosse una sostanza materiale, che si poteva versare o far passare da un corpo a un altro, e che veniva chiamata "calorico". Secondo questa concezione, quando il legno bruciava, il calorico in esso contenuto passava nella fiamma, da lì nella pentola posta sul fuoco, e dalla pentola nell'acqua in essa contenuta. Quando l'acqua era piena di calorico, diventava vapore. Quanto alla seconda teoria, verso la fine del diciottesimo secolo due osservazioni famose diedero origine a una ipotesi che considerava il calore come una forma di vibrazione: una di que- ste osservazioni si deve al fisico e avventuriero americano Benjamin Thompson, un lealista che abbandonò il paese durante la rivoluzione, fu insignito del titolo di conte Rumford e poi seguitò a girare in lungo e in largo per l'Europa. Nel 1798, trovandosi in Baviera a dirigere le operazioni di alesatura dei cannoni, egli notò che venivano prodotte grandi quantità di calore, sufficienti a portare 18 libbre di acqua al punto di ebollizione in meno di 3 ore. Da dove veniva tutto questo calorico? Thompson concluse che il calore doveva essere una vibrazione prodotta e intensificata dall'attrito meccanico dell'utensile contro il metallo. L'anno successivo il chimico Humphry Davy effettuò un esperimento ancora più significativo: mantenendo due pezzi di ghiaccio sotto la temperatura di congelamento, li strofinò l'uno contro l'altro, non con le mani ma con un congegno meccanico, in modo da evitare qualsiasi flusso di calorico verso il ghiaccio: riuscì così a fonderne parte mediante il solo attrito. Anch'egli giunse alla conclusione che il calore dovesse essere una vibrazione e non una sostanza materiale. In realtà questo esperimento avrebbe dovuto essere decisivo; ma la teoria del calorico, benché evidentemente sbagliata, sopravvisse fino alla metà del diciannovesimo secolo. Il calore come energia Anche se la natura del calore era scarsamente compresa, gli scienziati raggiunsero qualche importante conoscenza in proposito, come già era successo ai ricercatori che avevano studiato la luce, i quali erano riusciti a chiarire alcuni aspetti importanti della riflessione e della rifrazione della luce prima di aver compreso la natura di quest'ultima. I fisici francesi Jean Baptiste Joseph Fourier, nel 1822, e Nicholas Léonard Sadi Carnot, nel 1824, studiarono il flusso del calore compiendo notevoli passi in avanti. Carnot viene anzi solitamente considerato il fondatore della scienza detta "termodinamica" (dalle parole greche che significano «movimento del calore»); egli diede solide fondamenta teoriche al funzionamento della macchina a va- pore. A partire dal 1840 i fisici incominciarono a chiedersi in che modo il calore contenuto nel vapore potesse convertirsi in lavoro meccanico, mettendo in moto uno stantuffo. Esiste un limite alla quantità di lavoro che si può ottenere da una data quantità di calore? Analoghe domande suscitava il processo inverso: come avviene la conversione del lavoro in calore? Joule dedicò trentacinque anni a convertire varie forme di lavoro in calore, facendo con estrema precisione quello che Rumford aveva fatto in precedenza, ma in maniera approssimativa. Joule misurò la quantità di calore prodotta da una corrente elettrica; riscaldò l'acqua e il mercurio agitandoli con ruote a pale, o forzando l'acqua a passare in tubicini sottili; riscaldò l'aria comprimendola, e così via. In tutti i casi, calcolò quanto lavoro meccanico fosse stato compiuto sul sistema e quanto calore si fosse ottenuto come risultato, e stabilì che una data quantità di lavoro, di qualsiasi genere, produce sempre la stessa quantità di calore. In altre parole, Joule determinò "l'equivalente meccanico della caloria". Dato che si poteva convertire il calore in lavoro, si doveva considerare il calore come una forma di "energia" (il termine energia, derivato dal greco, significa proprio «che contiene lavoro»). Elettricità, magnetismo, luce e moto, possono tutti essere usati per compiere lavoro, e sono quindi tutti forme di energia. Il lavoro stesso, essendo convertibile in calore, è una forma di energia. Queste idee mettevano in evidenza qualcosa che più o meno si sospettava fin dai tempi di Newton: che l'energia si conserva, e non può essere né creata né distrutta. Così, un corpo in moto ha "energia cinetica", espressione introdotta nel 1856 da Lord Kelvin. Un corpo che si muove verso l'alto viene rallentato dalla gravità, quindi la sua energia cinetica scompare gradualmente, ma, mentre esso perde tale energia cinetica, guadagna energia di posizione: infatti, trovandosi in alto rispetto alla superficie della terra, può prima o poi cadere, riacquistando energia cinetica. Nel 1853, il fisico scozzese William John Macquorn Rankine diede a questa energia di posizione il nome di "energia potenziale". Sembrava che la somma dell'energia cinetica di un corpo e della sua energia potenziale (la sua "energia meccanica") rimanesse costante durante il moto; questa costanza venne chiamata "conservazione dell'energia meccanica". Tuttavia, l'energia meccanica non si conserva "perfettamente": una parte va persa per attrito, resistenza dell'aria, eccetera. La cosa più importante dimostrata dagli esperimenti di Joule era il fatto che questa conservazione risultava rigorosamente verificata se si teneva conto anche del calore; infatti, quando va persa dell'energia meccanica per attrito o resistenza dell'aria, compare al suo posto del calore. Se si tiene conto anche di tale calore, si può dimostrare in modo incondizionato che non viene creata energia nuova né distrutta energia esistente. Il primo ad asserire chiaramente questo fatto era stato un fisico tedesco, Julius Robert Mayer, nel 1842; tuttavia egli non si appoggiava su un sufficiente lavoro sperimentale, e oltretutto mancava di solide credenziali accademiche. (Anche Joule, che era un birraio e non aveva quindi credenziali accademiche, incontrò delle difficoltà per far pubblicare il proprio lavoro, pur così accurato.) Fu solo nel 1847 che una figura accademica di sufficiente prestigio espresse questo concetto in modo esplicito. In quell'anno Heinrich von Helmholtz enunciò il "principio di conservazione dell'energia": ogniqualvolta una certa quantità di energia sembra scomparire da qualche parte, deve apparirne una quantità equivalente da qualche altra parte. Questo viene anche chiamato "primo principio della termodinamica" e resta fra i fondamenti della fisica moderna, non messo in crisi né dalla teoria dei quanti né dalla teoria della relatività. Ora, benché qualsiasi forma di lavoro possa essere convertita interamente in calore, l'inverso non è vero. Quando si converte il calore in lavoro, parte di esso è inutilizzabile, e va inevitabilmente sprecato. In una macchina a vapore in funzione il calore del vapore viene convertito in lavoro solo fintantoché la temperatura del vapore scende fino alla temperatura ambiente; dopo di che, nonostante rimanga ancora molto calore nell'acqua fredda formata dal vapore, non è più possibile convertirlo in lavoro. Anche nell'intervallo di temperatura in cui è possibile ottenere lavoro, parte del calore non si trasforma in lavoro, ma viene speso per riscaldare il motore e l'aria circostante, per superare l'attrito tra il pistone e il cilindro, e così via. In ogni conversione di energia - per esempio, di energia elettrica in energia luminosa, o di energia magnetica in energia di moto - parte dell'energia va sprecata; non va perduta - il che sarebbe contrario al primo principio - ma viene convertita in calore, che viene dissipato nell'ambiente. La capacità di un sistema di compiere lavoro è la sua "energia libera". La frazione dell'energia che va inevitabilmente persa come calore non utilizzabile trova espressione quantitativa nel concetto di "entropia" - un termine usato per la prima volta nel 1850 dal fisico tedesco Rudolf Julius Emmanuel Clausius. Clausius sottolineò il fatto che, in qualsiasi processo che implichi un flusso di energia, vi è sempre una certa perdita; pertanto l'entropia dell'universo cresce in continuazione. Questo aumento costante dell'entropia costituisce il contenuto del "secondo principio della termodinamica"; è a questo proposito che talvolta si parla di «morte termica dell'universo». Fortunatamente la quantità di energia utilizzabile (fornita quasi interamente dalle stelle, che vanno «consumandosi» a un ritmo vertiginoso) è talmente grande che ne resta abbastanza per tutti gli usi ancora per molti miliardi di anni. Il calore e il moto molecolare Una chiara comprensione della natura del calore si ebbe infine allorché si comprese la struttura atomica della materia e ci si rese conto che le molecole che costituiscono un gas sono continuamente in moto, e rimbalzano le une contro le altre nonché contro le pareti del recipiente che le contiene. Il primo che tentò di spiegare in questi termini le proprietà dei gas fu il matematico svizzero Daniel Bernoulli, nel 1738; egli però era troppo in anticipo sui suoi tempi. A metà del diciannovesimo secolo Maxwell e Boltzmann elaborarono adeguatamente l'aspetto matematico della questione, gettando le basi della "teoria cinetica dei gas («cinetica» deriva dalla parola greca che indica il movimento), che mostrava come il calore fosse equivalente al moto delle molecole. Così la teoria del calorico ricevette il colpo di grazia. Si comprese allora che il calore era un fenomeno vibrazionale, consistente nel movimento delle molecole nei gas e nei liquidi, o nell'oscillazione incessante delle molecole nei solidi. Quando si riscalda un solido in misura tale che l'oscillazione delle molecole acquista l'energia necessaria per spezzare i legami che tengono unite le molecole contigue, il solido fonde e diventa un liquido. Più è forte il legame tra molecole contigue in un solido, maggiore è la quantità di calore che occorre per farle vibrare con violenza sufficiente a spezzare tale legame; e più alta è pertanto la temperatura di fusione della sostanza. Nello stato liquido le molecole possono muoversi liberamente l'una rispetto all'altra. Se si riscalda un liquido, i moti delle molecole finiscono per avere energia sufficiente a liberarle completamente, e il liquido bolle. Anche qui, il punto di ebollizione è più alto quando le forze intermolecolari sono più intense. Quando si converte un solido in un liquido, tutta l'energia termica viene usata per spezzare i legami intermolecolari: è per questo che il calore assorbito per fondere il ghiaccio non fa salire la sua temperatura. Lo stesso accade quando si bolle un liquido. Ora possiamo distinguere facilmente tra calore e temperatura. Il calore è l'energia totale contenuta nei moti molecolari di una data quantità di materia. La temperatura rappresenta l'energia cinetica media per molecola di una data sostanza. Così, due litri di acqua a 60° C contengono il doppio di calore di un litro di acqua alla stessa temperatura (poiché vi è un numero doppio di molecole in agitazione), ma la temperatura è uguale nei due volumi di acqua, perché l'energia media del moto molecolare è la stessa in entrambi i casi. Vi è dell'energia nella struttura stessa di un composto chimico cioè, nelle forze di legame che vincolano un atomo o una molecola agli atomi o alle molecole vicini. Se si rompono questi legami creandone dei nuovi che richiedono mi- da “Il libro di Fisica” - Asimov nor energia, l'energia in eccesso farà la sua comparsa sotto forma di calore o di luce, o di entrambi. Talvolta l'energia viene liberata così velocemente da dar luogo a un'esplosione. E' possibile calcolare l'energia chimica contenuta in una qualsiasi sostanza e prevedere quale quantità di calore sarà liberata in qualsiasi reazione; per esempio, la combustione del carbone implica la rottura dei legami tra gli atomi di carbonio del carbone stesso e dei legami tra gli atomi delle molecole di ossigeno, con cui si ricombina il carbonio. Ora, l'energia di legame del nuovo composto (anidride carbonica) è inferiore all'energia dei legami delle sostanze di partenza: questa differenza, che può essere misurata, viene liberata sotto forma di calore e di luce. Nel 1876, il fisico americano Josiah Willard Gibbs elaborò la teoria della "termodinamica chimica", e lo fece così esaurientemente da portare in un sol colpo alla completa maturità questa branca della scienza che praticamente non esisteva. La lunga memoria in cui Gibbs esponeva le proprie idee era molto al di sopra del livello di comprensione degli altri studiosi americani, e fu pubblicata solo dopo considerevoli esitazioni nelle "Transactions of the Connecticut Academy of Arts and Sciences". Anche in seguito, le sue serrate argomentazioni matematiche e lo stesso carattere riservato di Gibbs contribuirono a far restare pressoché ignorata tutta la materia, fino a quando, nel 1883, Ostwald ne venne a conoscenza, tradusse la memoria in tedesco e proclamò al mondo intero l'importanza dell'opera di Gibbs. Un esempio di tale importanza è dato dalle equazioni che esprimono le regole semplici, ma rigorose, che governano l'equilibrio tra sostanze diverse che si trovano presenti in più di una fase (per esempio, in soluzione e sotto forma solida, oppure come due liquidi immiscibili in presenza di un vapore, e così via). La "regola delle fasi" è di vitale importanza per la metallurgia e per molti altri rami della chimica. ?