2 Emiliano Ricci La fisica fuori casa Un fantastico viaggio alla scoperta delle leggi della natura 3 Illustrazioni a cura di Lorenzo Ghignone www.giunti.it © 2013 Giunti Editore S.p.A. Via Bolognese 165 - 50139 Firenze - Italia Via Borgogna 5 - 20122 M ilano - Italia ISBN: 9788809788039 Prima edizione digitale: giugno 2013 4 A Giulia e Leonardo, piccoli cultori di scienza; a Ester, grande cultrice del “pensiero razionale”; ai miei maestri, ovunque essi siano, nel tempo e nello spazio. 5 Introduzione Cinque anni fa pubblicammo La fisica in casa con l’intento di avvicinare i lettori alla fisica in maniera un po’ meno tradizionale. Soddisfatto di quell’esperimento, l’editore ha accolto la proposta di questo sequel, come direbbero i cultori del cinema. Ed eccoci qua. La fisica fuori casa riprende lo stile e la struttura che in certa misura hanno decretato il successo del titolo che l’ha preceduta. Quindi niente ordine tradizionale nella discussione dei vari argomenti di fisica. Si parla di meccanica, fluidodinamica, gravitazione, termodinamica e altro ancora quando occorre parlarne per descrivere il fenomeno fisico incontrato, e sempre in maniera la più possibile leggera (ma non per questo meno rigorosa). Capita quindi di incontrare gli argomenti in una sequenza diversa da quella dei libri di scuola o dei classici trattati sull’argomento e, soprattutto, di vederli trattati più volte perché utili a spiegare fenomeni diversi. Così si ottengono due risultati: da un lato la ripetizione dell’argomento aiuta a comprenderlo meglio (repetita iuvant, dicevano i latini), dall’altro vedere le stesse leggi utilizzate per spiegare due (o più) fenomeni completamente diversi mette in evidenza l’universalità di queste leggi e la vastità del loro campo d’azione. Ma La fisica fuori casa porta con sé anche qualche differenza. Intanto nella scelta degli argomenti. Mentre il libro precedente rimaneva nell’ambito della fisica trattabile all’interno delle quattro mura domestiche, quello che avete in mano racconta la fisica che vi capita di incontrare nelle vostre attività quotidiane all’aperto, quando vi muovete con i mezzi di trasporto, fate sport, consultate le previsioni meteo e altro ancora. Una seconda differenza con l’altro titolo è che qui, volutamente, abbiamo limitato il numero di argomenti affrontati in ogni capitolo, dando anzi loro più spazio, per offrire al lettore un livello soddisfacente – almeno per noi, si intende – di approfondimento. L’idea- guida è stata quella di presentare un quadro sufficientemente completo, nei limiti del possibile, ovviamente, dei temi toccati. Mentre nella Fisica in casa abbiamo affrontato un ventaglio molto ampio di argomenti, alcuni dei quali trattati in maniera piuttosto 6 essenziale, qui si è privilegiata la profondità, a scapito naturalmente dell’estensione (il numero di pagine era fissato dall’editore!). Due impostazioni diverse e in un certo senso complementari: speriamo che vi piacciano entrambe. La terza importante differenza con il precedente titolo è che qui si parla molto meno di tecnologia e di fisica moderna, avendo preferito lo studio e l’osservazione di fenomeni che si spiegano con la fisica classica (pur con qualche eccezione). Immaginiamo la delusione di qualche lettore, ma proviamo a motivare la nostra scelta. Innanzi tutto siamo convinti che per comprendere i temi di fisica avanzata sia opportuno avere una buona infarinatura degli argomenti di fisica classica. Termini come attrito, accelerazione, forza, energia, pressione e molti altri che incontrerete in queste pagine, trovano la loro spiegazione proprio nella fisica classica. È impossibile parlare di energia di una particella se prima non si sa che cosa si intende per energia di un corpo macroscopico, perché quella è l’estensione (a livello microscopico) di questa. Meglio dunque avere chiara questa, piuttosto che avere idee confuse su entrambe. Lo stesso ragionamento vale per innumerevoli altri concetti. Inoltre abbiamo deciso di non illudere i lettori facendo finta di spiegare loro concetti astrusi, come accade in tanti libri che parlano di fisica “di frontiera”, e lasciandoli nell’illusione di averli compresi. Abbiamo preferito, seppure con qualche “divagazione” (in particolare nell’ultimo capitolo), rimanere nel concreto dell’esperienza quotidiana. La quale si spiega in massima parte con poche semplici leggi, molte delle quali risalenti a Newton e poco oltre. Ovviamente ci siamo presi la libertà assoluta di scegliere gli argomenti da affrontare, senza alcuna pretesa di completezza (non ne avremmo avuto la possibilità). I temi trattati in queste pagine riflettono quindi un po’ il gusto personale dell’autore e un po’ il fatto di essere stati scelti perché utili a spiegare una certa legge o un dato principio. Siamo consapevoli che avremmo potuto scrivere altrettante pagine – anzi, molte di più – toccando tanti altri fenomeni fisici che si incontrano nelle nostre attività outdoor. Li teniamo da parte per un’eventuale altra pubblicazione. Speriamo soltanto che quelli che trovate qua siano sufficienti a solleticare la vostra curiosità per la scienza e per la fisica in particolare, e che vi stimolino ad approfondirle con altre e più ampie letture. Se fossimo riusciti nel nostro intento, potremmo ritenerci soddisfatti. Ma ancora più soddisfatti saremmo se i nostri lettori comprendessero la meraviglia della ragione umana, grazie alla quale noi siamo in grado di 7 applicare un metodo, quello scientifico, che ci permette di capire come funziona la Natura, andando anche oltre il senso comune, addirittura superando le illusioni che ci costruiamo per spiegare fenomeni che non conosciamo. Un metodo che, tracciato dal nostro Galileo Galilei, permette agli scienziati di migliorare sempre la conoscenza del mondo che ci circonda, offrendo al contempo le contromisure per evitare errori o, comunque, per riconoscerli e circoscriverli. Un metodo che si applica alla scienza, ma che gioverebbe assai applicare anche in altri ambiti. Perché, come il poeta e commediografo tedesco Bertolt Brecht (1898-1956) fa dire a Galileo nel suo celebre dramma teatrale Vita di Galileo, «scopo della scienza non è tanto quello di aprire una porta all’infinito sapere, quanto quello di porre una barriera all’infinita ignoranza». 8 I La fisica dei trasporti ... ovvero di biciclette, motori, navi L’uomo ha sempre desiderato muoversi, spostarsi dal suo luogo d’origine per scoprirne e conquistarne di nuovi (dall’invasione dell’America allo sbarco sulla Luna) o anche solo visitarli, come facciamo noi da turisti. Uno dei più grandi sforzi dell’ingegno umano è stato da sempre rivolto all’ideazione di mezzi che potessero agevolare e rendere sempre più veloci questi spostamenti. Nell’arco dei millenni sono stati inventati migliaia di mezzi di trasporto, alcuni impossibili da usare – come il progetto di elicottero, o “vite aerea”, disegnato da Leonardo da Vinci (1452-1519) – o caduti rapidamente in disuso, altri ancora oggi diffusissimi e impiegati quotidianamente da milioni di persone. Tutti questi mezzi sottostanno a precise leggi fisiche, anzi sono proprio queste a garantire il loro funzionamento. Ciò che segue è una rassegna di certi princìpi fondamentali della fisica prendendo spunto da alcuni mezzi di trasporto come la bicicletta, l’automobile, l’aereo e la nave. 9 UN GIRO IN BICICLETTA Una versione un po’ più evoluta della celebre frase «facile come bere un bicchier d’acqua» è «facile come andare in bicicletta». Tutti sanno che, una volta che si è imparato ad andare in bicicletta, è quasi impossibile disimparare. Anche se non salite su una bicicletta da anni, provateci alla prossima occasione: vi accorgerete subito che dei graffi sulle ginocchia accumulati in gioventù avete fatto ampiamente tesoro e non sarà un problema restare in equilibrio… a patto di pedalare, ovviamente, perché una bicicletta in piedi da sola non riesce a stare, a meno che non abbia le ruotine (quelle che si mettono alle bici dei bambini) o sia appoggiata al cavalletto! Che cosa rende stabile una bicicletta? Ovvero, come è possibile restare in equilibrio quando siamo in movimento, mentre è praticamente impossibile farlo quando la bicicletta è ferma? Per quanto possa sembrarvi incredibile, ancora oggi la scienza non è in grado di dare risposte definitive a queste domande, benché la fisica che riguarda l’equilibrio e la stabilità della bicicletta sia la cara, vecchia meccanica classica, quella avviata dal britannico Isaac Newton (1643-1727) nella seconda metà del XVII secolo e sviluppata nei due secoli successivi da studiosi come l’italo-francese Joseph-Louis Lagrange (1736-1813), il tedesco Carl Gustav Jacob Jacobi (1804-1851), l’irlandese William Rowan Hamilton (1805-1865) e altri matematici e fisici di varie nazionalità. Insomma, benché il problema della stabilità della bicicletta sia affrontabile con i (relativamente) semplici strumenti della fisica newtoniana, la sfida – raccolta nel corso del XX secolo da molti matematici e fisici, taluni anche celebri, come per esempio il tedesco Arnold Sommerfeld (1868-1951), fra i fondatori della meccanica quantistica – di comprendere il motivo per cui non si cade quando si va in bicicletta non è ancora stata vinta. Sorprendente, vero? Sappiamo descrivere con estrema precisione l’evoluzione dell’Universo e gli urti fra particelle subatomiche e non sappiamo ancora spiegare come si fa ad andare in bicicletta – almeno dal punto di vista della fisica. In pratica, se qualcuno ce lo chiedesse, non saremmo in grado di fornirgli il manuale di istruzioni! Una questione di equilibrio Gli studi sulla stabilità della bicicletta sono innumerevoli, dicevamo, e sono anche incredibilmente densi di formule abbastanza complicate. Alcuni partono 10 anche da ipotesi divertenti, necessarie per semplificare il sistema da studiare, come per esempio considerare il ciclista e la bicicletta come un corpo unico o bloccare lo sterzo con la ruota anteriore perfettamente in asse con la bicicletta – situazione in cui la caduta è certa. Non dovete stupirvi di queste semplificazioni. Sono una pratica che i fisici applicano sin dai tempi dello scienziato pisano Galileo Galilei (1564-1642), il quale, per studiare il moto del pendolo e scoprirne la periodicità in funzione della lunghezza ipotizzò che il pendolo stesso non fosse sottoposto né all’attrito del vincolo (il punto in cui il pendolo si aggancia) né alla resistenza dell’aria, forze capaci di rallentarne e, infine, di fermarne l’oscillazione. Una volta affrontato il problema “semplificato”, lo si può complicare a piacimento, aggiungendo forze, perturbazioni, azioni esterne e quant’altro serva a trasformare il “modello ideale” (non esistente nella realtà) in un modello – perché sempre di modello si tratta – il più vicino possibile al fenomeno reale che vogliamo descrivere. Tornando al nostro problema, i modelli semplificati dicono che se il ciclista mantiene una velocità costante e il sistema bicicletta-ciclista rimane perfettamente verticale, ovvero senza oscillazioni né curve, la bicicletta si “auto-stabilizza” – cioè riesce a stare in equilibrio in posizione verticale – in un intervallo di velocità compreso fra 14 e 20 chilometri orari, mentre per velocità al di fuori di questo intervallo, senza il controllo del ciclista, ovvero senza che il ciclista applichi delle “correzioni” sterzando leggermente e alternativamente a destra e a sinistra, la bicicletta è destinata a cadere a terra sotto l’inesorabile azione della gravità. Resta dunque da capire quali manovre debba praticare il ciclista per non cadere e se sia o meno importante la forma della bicicletta perché questa sia effettivamente stabile, anche perché è stato dimostrato che una bicicletta con la ruota anteriore bloccata è instabile a qualunque velocità, quindi anche nell’intervallo di “auto-stabilizzazione” sopra citato. In questo caso i fisici dicono che la bicicletta si comporta come un “pendolo invertito”, cioè come un pendolo in cui il peso sia posto in alto sulla verticale del punto di aggancio: è ovvio che in queste condizioni un minimo spostamento dall’equilibrio (che per questo si dice “instabile”) porta il peso a cadere. Come la bicicletta, appunto. Alla luce dei vari modelli teorici, fra i matematici e i fisici interessati alla stabilità della bicicletta si sono nel tempo sviluppate due “scuole di pensiero”, più complementari che in contrapposizione. Secondo i seguaci della prima scuola, una bicicletta in movimento è intrinsecamente stabile. In altre parole, con la presenza o meno del ciclista, una bicicletta è in grado di “reggersi in 11 piedi” da sola, almeno per un certo intervallo di tempo. In effetti non è difficile provare la veridicità di questa affermazione. Tutti sappiamo che una bici ferma abbandonata a se stessa in posizione verticale cade, ma è anche vero – se non ci credete, provate voi stessi! – che una bici lanciata in avanti da sola (quindi ancora senza ciclista) a una certa velocità lungo una strada in pianura e sufficientemente liscia è in grado di percorrere una certa quantità di metri senza problemi, restando in equilibrio anche per una ventina di secondi. A rendere possibile questa “magia” è il cosiddetto “effetto giroscopico” (vedi L’effetto giroscopico): in pratica, in maniera del tutto automatica, nell’istante in cui la bicicletta “sente” di essere instabile, la ruota anteriore sterza leggermente – grazie appunto alle forze giroscopiche – per riportare il mezzo in equilibrio. Per i seguaci della seconda scuola questo non è vero, almeno non del tutto. Per loro, infatti, la maggior parte del merito nella stabilità di una bicicletta in movimento è sicuramente da attribuire al ciclista. Sarebbero le sue continue e impercettibili correzioni allo sterzo a tenere in equilibrio il mezzo. In effetti, quando un ciclista, anche principiante, sente che la bicicletta sta cadendo da un lato, inizia a piegare – in maniera del tutto istintiva – la ruota anteriore proprio nella direzione di caduta, producendo così quella forza centrifuga capace di “raddrizzare” la bicicletta e di riportarla in equilibrio. La prova di questa affermazione sta nell’osservazione di chi monta per la prima volta in bicicletta: le rapide e continue sterzate a destra e a sinistra rappresentano il modo in cui il ciclista principiante cerca di mantenersi in equilibrio – e con le ginocchia integre! L’EFFETTO GIROSCOPICO Chiunque abbia afferrato con le mani le estremità del mozzo di una ruota di bicicletta in rapida rotazione ha sperimentato direttamente l’effetto giroscopico, cioè la difficoltà di far variare l’inclinazione all’asse di rotazione della ruota. L’effetto giroscopico nasce infatti ogni volta che una forza esterna sollecita uno spostamento dell’asse di rotazione di un corpo: si definisce giroscopio un qualsiasi corpo con simmetria di rotazione rispetto a un asse, detto asse giroscopico, che può essere messo in rapida rotazione: una ruota di bicicletta è quindi a tutti gli effetti un giroscopio. È facile osservare che, in maniera del tutto controintuitiva, lo spostamento dell’asse – che, per inerzia, non si verificherebbe senza alcuna sollecitazione esterna – non avviene in direzione della forza applicata, ma in una direzione perpendicolare alle direzioni dell’asse e della forza stessa. Così, mentre in condizioni di quiete di un corpo rotante è possibile spostarne l’asse di rotazione con relativa facilità, nel momento in cui questo si trova in rapida rotazione l’operazione diventa molto complicata; anzi, tanto più complicata quanto maggiore è la velocità di rotazione attorno all’asse: l’intensità della forza da applicare è infatti direttamente proporzionale alla velocità di rotazione. Questa proprietà caratteristica dei corpi in rotazione è nota con il nome di “tenacia dell’asse giroscopico”, dove l’asse giroscopico è appunto l’asse attorno al quale si svolge la rotazione. Oltre a manifestare questa “tenacia”, si osserva che l’asse di rotazione di un giroscopio comporta anche un particolare tipo di moto, il “moto di precessione”, caratterizzato dal cambiamento della 12 direzione dell’asse di rotazione durante il suo moto. Anche se non lo sapevate, lo avete sicuramente osservato centinaia di volte, guardando la rotazione di una trottola. Ma cerchiamo di capire di che cosa si tratta. Si definisce moto di precessione quello manifestato da un corpo in rotazione attorno a un asse, detto nella circostanza “asse di figura”, e in cui tale asse ruota a sua volta attorno a un asse diverso, detto “asse di precessione”. Per esempio, nel caso della trottola, l’asse di figura è quello di rotazione del corpo, mentre l’asse di precessione è un asse perpendicolare al suolo, passante per il punto di appoggio della trottola, attorno al quale ruota il baricentro della stessa e quindi il suo asse di figura (il baricentro è il punto di un corpo esteso nel quale si può immaginare concentrato il suo peso). È d’obbligo ricordare che il moto di precessione è sempre causato dall’azione sul corpo in rotazione di una forza esterna. Su scala molto più grande, anche la Terra si comporta esattamente come una trottola. Il suo asse di rotazione è solo apparentemente orientato in maniera fissa nello spazio, ma anch’esso è soggetto a un moto di precessione, causato dall’azione gravitazionale congiunta di Sole, Luna e pianeti. Un intero ciclo di precessione dura per il nostro pianeta circa 26.000 anni. Un moto molto lento e quasi impercettibile, dunque, ma non altrettanto per gli astronomi. Questo fa sì, per esempio, che quella che per noi adesso è la Stella polare, ovvero la stella che indica quasi esattamente la direzione dell’asse di rotazione terrestre, non fosse tale duemila anni fa e non sarà tale fra duemila anni. Avancorsa, chi era costei? Ma, allora, chi ha ragione fra le due “scuole di pensiero”? Entrambe, in una certa misura. A dimostrarlo sono state le simulazioni realizzate. Messi alla prova del computer, i vari modelli semplificati del sistema “bicicletta più ciclista” hanno dimostrato la loro seppure limitata efficacia e gli ambiti in cui sono invece del tutto inefficaci. Evidenziando l’importanza di un aspetto a lungo tenuto in scarsa considerazione: le caratteristiche costruttive della bicicletta, ovvero la sua forma, il suo peso, l’altezza da terra del baricentro del sistema, il diametro e la larghezza delle ruote, la distanza degli assi e così via. Ma, forse sorprendentemente, le simulazioni al calcolatore, per quanto approssimate, hanno permesso di individuare uno dei parametri costruttivi fondamentali nella stabilità del sistema: l’avancorsa (in inglese detta trail), ovvero la distanza tra la proiezione a terra della perpendicolare passante per il centro della ruota anteriore e l’asse di rotazione della forcella, quello a cui è fissato il manubrio. 13 Fig. 1 Schema di bicicletta in cui è evidenziata l’avancorsa. Anche se siete persone distratte, vi sarete certamente accorti che la forcella di una bicicletta non è mai perfettamente dritta, ma, in prossimità del mozzo della ruota anteriore, al quale va naturalmente a fissarsi, forma una curva, che non è un mero abbellimento, ma uno degli elementi più delicati per la stabilità della bicicletta stessa. È sufficiente modificare anche di poco l’avancorsa di una bicicletta per renderla praticamente non manovrabile. Potete sperimentarlo anche voi: se la vostra bicicletta lo permette, ruotate di 180° lo sterzo, in modo che la curva sia diretta indietro invece che in avanti. Bene, ora provate a percorrerci qualche metro e ritenetevi fortunati se non vi fate male cadendo! Gli studi sull’avancorsa dei mezzi a due ruote – non l’abbiamo detto esplicitamente, ma le considerazioni fatte fino qui per le biciclette valgono in generale per i mezzi a due ruote, quindi ovviamente anche per i ciclomotori e i motocicli – hanno dimostrato che un indice di avancorsa elevato determina una minore sensibilità alle imperfezioni del terreno su cui ci muoviamo e, 14 soprattutto, una maggiore stabilità direzionale, perché, come abbiamo detto sopra, facendo inclinare il mezzo da un lato lasciando la forcella libera, il mezzo a due ruote tenderà a ritornare automaticamente dritto. Un indice di avancorsa ridotto porta invece a effetti opposti, ma anche a una migliore maneggevolezza, precisione e scioltezza nell’inserimento in curva, perché garantisce una maggiore velocità nel cambio di direzione. Mentre molti fisici sono occupati a studiare stringhe e buchi neri o indaffarati a cercare bosoni di Higgs o particelle supersimmetriche, alcuni cercano, molto più umilmente, ma con la stessa passione e curiosità per le leggi della natura, di comprendere i meccanismi di funzionamento di fenomeni e oggetti molto più vicini a noi, com’è appunto una bicicletta, che si rivela un sistema davvero complesso e difficile da “modellare”, tanto che la sua forma nasce sostanzialmente dall’esperienza dei costruttori anziché da progetti sviluppati a tavolino. Nel libro considerato la “Bibbia” per la scienza della bicicletta, intitolato Bycicling Science – ora alla sua terza edizione (2004), pubblicato dalla MIT Press, la casa editrice del prestigiosissimo Massachusetts Institute of Technology di Boston negli Stati Uniti – l’autore David Gordon Wilson sostiene che la complessità del sistema uomo-bicicletta risulta cosı̀ elevata che «risolvere il problema dell’interazione uomo-macchina nel caso del volo è di gran lunga più facile che studiare l’equilibrio di una bicicletta, dal momento che nel primo caso il pilota è molto più leggero dell’aereo». Progettisti da un lato e fisici e matematici dall’altro devono ancora pazientare: esiste la “teoria delle stringhe”, ma la “teoria della bicicletta” è ancora lontana dall’essere sviluppata. Momenti angolari e momenti meccanici All’origine di tutti questi fenomeni connessi all’effetto giroscopico c’è una legge fondamentale della natura: il principio di conservazione del momento angolare, una grandezza fisica che dipende in maniera direttamente proporzionale dal raggio del corpo ruotante, dalla sua velocità e dalla quantità e distribuzione della sua massa. In generale, per variare il momento angolare di un corpo in rotazione è necessario applicare un momento meccanico generato da due forze non aventi la stessa retta d’azione. In pratica, il momento meccanico è la capacità di una forza di mettere un corpo in rotazione attorno a un punto o a un asse. Ma perché una forza induca in un corpo una rotazione è necessario che si dia una condizione fondamentale: che essa venga applicata con un “braccio”, ovvero che il punto di applicazione 15 della forza non si trovi sull’asse di rotazione, ma che abbia una certa distanza da questo. Solo così, la forza produce un momento, che è l’azione necessaria per mettere in rotazione il corpo. In altre parole, le rotazioni sono generate da momenti di forze. Giroscopi ovunque, non solo in bicicletta Torniamo alla nostra bicicletta. Se ci muoviamo a velocità ridotte l’asse giroscopico – che, in questo caso, come abbiamo visto, è individuato dal mozzo della ruota – è meno tenace e una piccola inclinazione può far sì che il momento della forza di gravità ci faccia cadere praticamente indisturbato (proprio perché l’asse è meno tenace). A velocità alte, viceversa, il momento angolare è grande e la tenacia dell’asse giroscopico ci permette di restare in sella, resistendo così alle continue sollecitazioni della forza peso. Tutto chiaro, a questo punto: una bicicletta in corsa sta in equilibrio proprio grazie alle ruote che sono a tutti gli effetti dei giroscopi che vogliono mantenere il più possibile fissa la direzione del loro asse di rotazione! Ma la notevole inerzia dell’asse giroscopico e la sua capacità di conservare immutata la direzione di rotazione è sfruttata in tantissime altre applicazioni pratiche e anche in oggetti di uso quotidiano: dalla stabilizzazione di aerei, navi, razzi e satelliti, ai giochi (aeroplani ed elicotteri telecomandati ne fanno largo uso, ma giroscopi sono presenti anche nei controller di console per videogiochi), fino al controllo dell’orientamento orizzontale o verticale di molti smartphone e tablet di ultima generazione, all’interno dei quali si trovano particolari giroscopi elettronici, grazie ai quali è possibile far svolgere a questi dispositivi funzioni impensate, trasformandoli con applicazioni dedicate in livella da muratori, in teodolite o – semplicemente, si fa per dire – in videogiochi a controllo tridimensionale! 16 MOTORI, CHE PASSIONE La bicicletta è certamente un mezzo di trasporto molto efficiente, ma richiede un discreto sforzo muscolare e provoca un certo affaticamento fisico. Fortunatamente, però, c’è chi ha inventato anche metodi per risparmiarci questa fatica, realizzando macchine in grado di muoversi sfruttando altri tipi di energia, diversa da quella immagazzinata nei nostri muscoli. Fra le macchine più utilizzate nei mezzi di trasporto che usiamo quotidianamente (motocicletta, automobile, autobus, anche alcuni treni) ci sono i cosiddetti “motori a combustione interna”, noti anche come “motori a scoppio”. In generale, un motore può essere definito come l’insieme delle parti meccaniche in grado di trasformare una fonte di energia (chimica, elettrica ecc.) in lavoro meccanico. In particolare, un motore è una macchina motrice termica all’interno della quale viene prodotta energia termica bruciando un combustibile gassoso o liquido facilmente nebulizzabile (e infiammabile). È l’energia interna contenuta nei prodotti di combustione che, ceduta direttamente agli organi della macchina, viene trasformata in lavoro meccanico e quindi in energia cinetica, che è l’energia di movimento (vedi Le “forme” dell’energia). In poche parole, un motore serve a sfruttare l’energia immagazzinata da qualche parte e a utilizzarla per mettere alcuni elementi in movimento. In estrema sostanza, quindi, un motore è un “trasformatore di energia”. A seconda della fonte di energia, della modalità di funzionamento e del lavoro meccanico prodotto, si distinguono varie tipologie di motore, ma tutti i motori a combustione interna di cui sono dotati motociclette e automobili sono dotati di un pistone che può scorrere all’interno di un cilindro, nel quale avviene appunto la combustione, grazie all’immissione di un’opportuna quantità di carburante miscelata con l’aria necessaria alla combustione del carburante stesso. Il pistone, in virtù della combustione, viene messo in movimento e trasmette questo movimento ad altri organi di moto ai quali è collegato per mezzo di una leva che si chiama biella. La miscela carburantearia, infatti, giunta a una certa temperatura (detta temperatura di combustione), esplode determinando un ulteriore aumento della temperatura e quindi una notevole espansione dei gas presenti nel cilindro. La conseguente pressione spinge verso la parte opposta del cilindro il pistone e anche la biella, inducendo in questo modo la rotazione di un organo detto albero motore. Una classificazione più raffinata dei motori a scoppio li distingue: a) in base 17 alle modalità di accensione nella camera di combustione (motori ad accensione comandata, come quelli a benzina, o ad accensione spontanea, come i motori Diesel); b) in base al ciclo di lavoro (motori a quattro tempi o a due tempi); c) in base al tipo di combustibile (benzina, gasolio, metano, GPL, alcool metilico o etilico). Dei vari tipi di motori a combustione interna, quelli più diffusi sono i motori a carburazione – sono quelli più propriamente detti a scoppio – e i motori a iniezione, come quelli Diesel. Nei primi, il combustibile liquido nebulizzato viene mescolato con l’aria comburente formando una miscela gassosa che viene introdotta nel cilindro: quando la miscela è compressa, una scintilla generata da un dispositivo chiamato candela ne provoca la combustione. Questi motori sono anche detti ad accensione comandata. Il secondo tipo di motore non sfrutta l’azione di scariche elettriche da parte delle candele d’accensione, ma semplicemente il principio della compressione per ottenere l’accensione del combustibile. In altre parole la miscela aria-gasolio viene fortemente compressa dal movimento del pistone, che così si riscalda ulteriormente e infine si accende. In questo caso, quindi, il combustibile a contatto con l’aria comburente calda si incendia spontaneamente: i motori di questo genere sono detti ad accensione spontanea. LE “FORME” DELL’ENERGIA Sui testi di fisica si legge spesso che l’energia si presenta sotto varie “forme”. Così, accanto alle tradizionali definizioni di energia cinetica (legata al movimento di un corpo) ed energia potenziale (legata alla sua posizione), troviamo anche l’energia elastica, quella eolica, quella chimica, quella nucleare, quella solare, quella termica e via dicendo, senza che poi ci si preoccupi di approfondirne la definizione. In realtà, tutte queste “forme” sono comunque riconducibili all’energia cinetica, che è poi la “forma” fondamentale di energia. Anche quando si parla di energia potenziale, infatti, si parla di energia “immagazzinata”, pronta a convertirsi in energia cinetica. Trattandosi di “lavoro eventuale delle forze conservative”, l’energia potenziale è, come suggerisce il nome, energia cinetica (in più o in meno) in potenza, ovvero allo stato di possibilità. L’energia eolica è in fin dei conti l’energia cinetica del vento. L’energia termica è, come ci spiega la termodinamica, l’energia interna di un corpo, che è data dall’energia cinetica delle particelle da cui è costituito. In altre parole, quando si parla di energia termica di un gas, per esempio, si fornisce soltanto una misura macroscopica dell’energia cinetica dei singoli atomi o delle singole molecole che lo compongono. Anche l’energia solare è energia cinetica delle particelle di radiazione elettromagnetica (i fotoni, che, pur non avendo massa, hanno un’energia direttamente proporzionale alla loro frequenza di oscillazione). Passiamo quindi all’energia potenziale, considerando per esempio l’energia elastica di una molla. Questa altro non è che energia potenziale legata all’interazione elettromagnetica fra gli atomi e le molecole che compongono i materiali, che si converte immediatamente in energia cinetica della molla stessa una volta che venga lasciata libera di oscillare. Pure l’energia chimica dei legami fra atomi e molecole, anch’essa riconducibile all’interazione elettromagnetica, è energia potenziale pronta a trasformarsi in energia cinetica quando i legami chimici vengono spezzati. Una parola in più va detta sull’energia nucleare. È la fisica moderna, e in particolare la teoria della relatività, a introdurre il concetto di equivalenza fra massa ed energia. In pratica questa significa che un 18 corpo, per il semplice fatto di essere dotato di massa, ha un suo contenuto energetico “intrinseco”, dato proprio dal prodotto della massa del corpo per la velocità della luce al quadrato (è la celebre formula di Einstein). Ma anche questa, in ultima analisi, non è altro che energia potenziale immagazzinata nel corpo che può trasformarsi, entro certi limiti, in energia cinetica delle particelle di materia o delle particelle di radiazione, come accade per esempio nelle reazioni di fusione o di fissione nucleare. Questa energia potenziale, a differenza di quelle precedenti, che dipendono dalla posizione che un corpo possiede in quanto localizzato in un campo di forze, è in pratica un’energia potenziale “intrinseca” che un corpo possiede per il solo fatto di avere una massa. Dunque, in conclusione, possiamo affermare che, quando i fisici parlano di energia, in ultima analisi parlano di energia cinetica, la quale può essere in atto (quando un corpo è in movimento con una certa velocità) o in potenza (quando un corpo è dotato di massa e si trova in una certa posizione). In fondo, il concetto di energia è molto più semplice delle innumerevoli “forme” in cui si manifesta. Una storia (in parte) italiana La storia dell’invenzione del motore a scoppio ricorda un po’ quella dell’invenzione del telefono. In entrambe il protagonista è stato un inventore italiano, che per primo lo ha realizzato, ma a cui però non viene attribuita l’invenzione… perché il brevetto definitivo viene acquisito – solo successivamente, però – da un inventore straniero. Nel caso del telefono la vicenda vide il nostro Antonio Meucci (1808-1889), incapace di rinnovare il proprio brevetto per mancanza di soldi, opposto allo scozzese Alexander Graham Bell (1847-1922). Solo nel 2002, il Congresso degli Stati Uniti, entrando nel merito della questione del brevetto, con una risoluzione ha accreditato la paternità dell’invenzione a Meucci. Nel caso del motore a scoppio fu Eugenio Barsanti (1821-1864; in realtà si chiamava Niccolò, ma cambiò nome al momento di prendere i voti religiosi), padre scolopio, a realizzare per primo – in collaborazione con l’ingegnere Felice Matteucci (1808-1887) – un modello funzionante della macchina, prendendo spunto dall’osservazione di alcuni esperimenti svolti con i propri alunni in una scuola elementare di Volterra, dove insegnava matematica e fisica. Tuttavia, anche in questo caso l’invenzione è attribuita ad altri, sempre per motivi di validità dei brevetti: l’ingegnere tedesco Nikolaus August Otto (1832-1891). Nel 1877 Felice Matteucci, quando l’invenzione del motore a scoppio fu attribuita a Otto, rivendicò l’invenzione a sé e a Barsanti, avvalendosi dei diversi brevetti depositati sia in Italia che all’estero. Ma senza successo, benché il disegno di Otto fosse palesemente simile al loro. La specificità del motore a combustione interna sviluppato da Otto è che, a differenza di quello realizzato dalla coppia Barsanti-Matteucci, aveva un ciclo a quattro tempi, da cui deriva anche il nome di “ciclo Otto” (che ancora oggi è il principio di funzionamento della quasi totalità dei motori a benzina del mondo). Cicli termodinamici 19 Il nome di ciclo sta a indicare che è composto da una successione finita di trasformazioni termodinamiche (quattro, nella circostanza), al termine delle quali il sistema torna al suo stato iniziale. In fisica, per trasformazione termodinamica si intende il passaggio del sistema da uno stato termodinamico – caratterizzato da alcune proprietà termodinamiche, come temperatura, pressione e volume, dipendenti solo ed esclusivamente da quello stato – a uno diverso, caratterizzato quindi da valori distinti di alcune di quelle proprietà. Per esempio, si può variare lo stato di un gas tenendolo a temperatura costante (in questo caso la trasformazione viene detta isoterma), oppure si può modificare il suo stato senza che il sistema scambi calore con l’ambiente esterno (trasformazione adiabatica), oppure mantenendolo a volume costante (trasformazione isocora) o a pressione costante (trasformazione isobara). Nel dettaglio, il ciclo Otto è caratterizzato dalle seguenti quattro trasformazioni: una compressione adiabatica, un’isocora di combustione, un’espansione adiabatica e, infine, un’ulteriore isocora di scarico. In ogni caso la prima legge della termodinamica (vedi I princìpi della termodinamica) impone che, in una qualsiasi trasformazione di un sistema termodinamico, la quantità di calore scambiata con l’esterno del sistema sia uguale alla somma della variazione di energia interna del sistema con il lavoro da esso compiuto, come venne dimostrato dal fisico britannico James Prescott Joule (1818-1889) con un celebre esperimento – il mulinello di Joule – che gli permise di dimostrare l’equivalenza fisica fra calore e lavoro. Per la sua enunciazione può essere utile far riferimento a un sistema mentre compie un processo in cui, alla fine della trasformazione, si trova nel medesimo stato in cui si trovava all’inizio, ossia un processo ciclico, proprio come accade nel ciclo di un motore a combustione interna. In questo caso le osservazioni sperimentali mostrano che la somma degli scambi di calore e la somma degli scambi di lavoro tra sistema e ambiente sono uguali. In altre parole, in un processo ciclico, le quantità di calore e di lavoro scambiate tra sistema e ambiente (prese ognuna con il segno convenuto, per esempio positivo se vanno dal sistema all’ambiente, negativo se viceversa), sono uguali: questa è quindi una formulazione alternativa del primo principio della termodinamica. E così abbiamo scoperto che un motore a combustione interna è una bella macchina termodinamica! I PRINCÌPI DELLA TERMODINAMICA A fondamento della termodinamica ci sono quattro postulati, detti “princìpi della termodinamica”, numerati curiosamente da 0 a 3 per ragioni storiche. Il principio zero riguarda la possibilità di definire la 20 temperatura di un oggetto. Esso afferma che un corpo caldo ha una temperatura più alta di un corpo freddo e che se fra due corpi posti a contatto non c’è passaggio di calore allora essi hanno la stessa temperatura. Più rigorosamente: se due corpi A e B sono in equilibrio termico con un terzo corpo C (termometro), allora lo sono anche fra loro. È su questo principio che si fonda la nostra possibilità di misurare la temperatura di un corpo e quindi di sapere se noi abbiamo o meno la febbre: è sufficiente che il termometro raggiunga l’equilibrio termico con il nostro corpo! Il primo principio afferma, nella sua estrema sostanza, che l’energia si conserva. Considerando infatti tutti i contributi dati dal flusso di calore, dall’energia interna di un sistema e dal lavoro compiuto su o dal sistema, la variazione di energia che ha luogo nel sistema stesso, durante una trasformazione qualsiasi, è uguale alla quantità di energia che il sistema riceve dall’ambiente (o gli cede) che lo circonda. Il primo principio è pertanto un’estensione del principio di conservazione dell’energia meccanica: una parte di questa viene sempre dissipata in calore, ma l’energia complessiva sistemaambiente rimane comunque costante. Il secondo principio afferma che certe trasformazioni avvengono preferenzialmente in un verso piuttosto che nell’altro. La sua prima enunciazione, detta enunciato di Kelvin (dallo scienziato nord-irlandese William Thomson, 1824-1907, nominato Lord Kelvin per i suoi meriti scientifici), afferma che non è possibile realizzare una trasformazione nella quale il solo risultato sia l’assorbimento di calore da una riserva termica e la sua completa conversione in lavoro. Essa sancisce in pratica l’impossibilità di convertire completamente il calore in lavoro: proprio in questa impossibilità sta una fondamentale asimmetria della Natura. L’altra, nota come enunciato di Clausius (dal nome del fisico tedesco Rudolf Julius Emmanuel Clausius, 1822-1888), afferma che: non è possibile realizzare una trasformazione nella quale il solo risultato sia il trasferimento di calore da un corpo più freddo ad uno più caldo. L’enunciato di Clausius esprime l’ovvia osservazione, basata sull’esperienza quotidiana, che una qualunque trasformazione esistente in natura che implichi trasferimento spontaneo di energia (in assenza cioè di un intervento esterno) va nel seguente verso: il calore fluisce spontaneamente dal corpo caldo al corpo freddo, non viceversa. Si può dimostrare che i due enunciati sono equivalenti. Il secondo principio della termodinamica può essere espresso matematicamente facendo ricorso ad una grandezza termodinamica, l’entropia, la quale fornisce, in un certo senso, la misura del disordine di un sistema o, in altre parole, della qualità dell’energia in esso contenuta: qualunque trasformazione spontanea è accompagnata da un aumento dell’entropia complessiva del sistema e dell’ambiente circostante (enunciato formale del secondo principio della termodinamica). I due precedenti enunciati sono così riassunti in questo, più sintetico, ma anche più formale. Benché la quantità totale di energia, come stabilisce il primo principio, si conservi, ciò che invece si modifica irreversibilmente è la sua qualità. L’energia non si crea né si distrugge, ma si deteriora, nel senso che della stessa quantità di energia una frazione sempre minore rimane utilizzabile. Il secondo principio indica proprio la direzione verso la quale si muovono i vari processi di trasformazione naturale dell’energia affinché essa si deteriori sempre più. È questa la freccia del tempo: esso scorre inesorabilmente nella direzione in cui l’energia si degrada. Infine il terzo principio, che in realtà non è un vero e proprio principio in quanto la sua validità non è assunta a priori, ma può essere dimostrata a partire da altri princìpi, in particolare dal secondo principio appena citato. Per questo motivo, il terzo principio è anche noto come “teorema di Nernst”, dal nome del chimico e fisico tedesco Walther Nernst (1864-1941) che lo formulò nel 1905, lo stesso anno in cui Albert Einstein (1879-1955) rendeva nota la sua teoria della relatività ristretta. Il teorema di Nernst si occupa del comportamento della materia alle basse temperature, affermando in particolare che non è possibile raggiungere lo zero assoluto di temperatura con un numero finito di passaggi. Più semplicemente, volendo raffreddare la materia indefinitamente, solo dopo un tempo infinitamente lungo la vedremo raggiungere lo zero assoluto. 21 VOLARE, OH OH Chissà se Franco Migliacci, quando scrisse il testo della celebre canzone Nel blu dipinto di blu, portata al successo al Festival di Sanremo nel 1958 da Domenico Modugno (autore della musica), aveva in mente le incredibili difficoltà che gli uomini hanno dovuto affrontare prima di potersi librare in volo, come fanno gli uccelli. Certamente, però, quelle parole ben rappresentano il sogno atavico dell’umanità di poter guardare la terra dall’alto. Dal mito di Icaro al primo volo dei fratelli statunitensi Wilbur (1867-1912) e Orville (1871-1948) Wright del 1903, passarono molti secoli in cui i vari tentativi – come gli studi sul volo del già citato Leonardo da Vinci – si dimostrarono purtroppo vani. La capacità di volare è una prerogativa acquisita solo in tempi recenti dagli uomini che, però, l’hanno sviluppata e portata ben oltre il sogno iniziale, arrivando addirittura a esplorare lo spazio entrando in orbita attorno alla Terra e a mettere piede su un altro corpo celeste. Adesso l’uomo si alza in volo con una quantità incredibile di tipologie di veicoli – dalla mongolfiera, il cui primo volo con equipaggio risale al 1783, al dirigibile, all’aliante, al parapendio, all’elicottero, fino appunto al razzo – ma il re incontrastato dell’aria è sicuramente l’aeroplano. L’aspetto rilevante dell’aereo è che, a dispetto del fatto di essere assai più pesante dell’aria, riesce lo stesso a volare, proprio grazie all’applicazione di alcune importanti leggi fisiche tratte dagli studi della fluidodinamica, un capitolo importante della fisica classica riguardante lo studio dei fluidi in movimento. Quando si descrive un fluido, liquido o gas che si muove nello spazio, si impiegano sempre grandezze macroscopiche quali pressione, temperatura, densità, velocità, naturalmente espresse come variabili in funzione dello spazio (ovvero della posizione del volume di fluido in esame rispetto a un determinato sistema di riferimento) e del tempo. D’altra parte, dallo studio della struttura della materia sappiamo che questa è composta da atomi e molecole, ovvero da unità discrete, che interagiscono fra loro e con l’ambiente circostante. Ecco, in fluidodinamica si trascurano queste interazioni per descrivere il comportamento collettivo del fluido in esame: per farlo, si considera il fluido come un continuo. Con questa ipotesi, detta appunto “ipotesi del continuo”, si suppone che le proprietà intensive sopra citate (pressione, densità ecc.) variino con continuità da un punto a un altro all’interno del fluido. Tuttavia è sempre e comunque possibile descrivere le 22 proprietà e il comportamento del fluido anche con metodi statistici partendo dal livello microscopico: la disciplina che se ne occupa è la meccanica statistica. Il principio di Bernoulli Una delle leggi fondamentali della fluidodinamica è il principio di Bernoulli, dal nome del matematico e fisico svizzero di origini olandesi Daniel Bernoulli (1700-1782): la pressione in un fluido decresce al crescere della velocità del fluido stesso. Il principio di Bernoulli è in realtà una diretta conseguenza del principio di conservazione dell’energia. Esso è infatti una forma semplificata di un’equazione, detta ancora di Bernoulli, la quale afferma che, nel caso in cui un fluido si trovi in condizioni di flusso stazionario (ovvero non dipendente dal tempo) e a viscosità pari a zero, la somma di tutte le forme di energia di un fluido – il lavoro compiuto dal fluido, la sua energia cinetica e la sua energia potenziale – che scorre lungo una linea di corrente ha lo stesso valore qualunque punto del flusso si prenda in considerazione. Ora, a rigor di logica, il principio di Bernoulli vale solo nell’ipotesi che il fluido in questione sia incomprimibile, ovvero che la sua densità sia costante (fatto assolutamente falso per l’aria, come è facile dimostrare giocando con una pompa da bicicletta, per esempio), ma, come dicevamo all’inizio del capitolo, queste semplificazioni sono molto utili ai fisici per arrivare poi a comprendere il comportamento dei fluidi reali, che in pratica sono tutti, chi più (gli aeriformi come i gas e i vapori) chi meno (i liquidi), ovviamente, comprimibili. Se volete dimostrare la validità del principio di Bernoulli, potete realizzare un semplice esperimento soffiando aria a una certa velocità (per esempio con una cannuccia) fra due fogli di carta messi parallelamente l’uno di fronte all’altro. In tal modo si crea fra i due fogli un’area di bassa pressione, che li porta a muoversi l’uno verso l’altro come se si attraessero, contrariamente a quanto forse vi aspettereste applicando le regole ingenue del senso comune. Ebbene, alla base del volo degli aeroplani si trova proprio il principio di Bernoulli. Le ali degli aerei sono infatti progettate in modo tale da avere un profilo particolare, che fa sì che l’aria che fluisce sotto l’ala si muova a una velocità inferiore rispetto a quella dell’aria che fluisce sopra. In tal modo, grazie alla differenza fra la pressione che si misura sotto l’ala (alta, perché il flusso è più lento) e sopra (bassa, perché il flusso è più veloce), si crea una spinta netta verso l’alto, detta portanza, che permette all’aereo di vincere la forza di gravità. 23 La prossima volta che sarete a 10.000 metri di quota, sgranocchiando serenamente noccioline e guardando un film incomprensibile in lingua originale sul visore posto davanti al vostro sedile, pensate che a tenervi lassù c’è una forza aerodinamica – la portanza, appunto – che nasce grazie al moto relativo dell’aria lungo la superficie fissa dell’ala. Ha del miracoloso, non credete? E, a proposito, se una barca a vela è capace di muoversi di bolina, ovvero andando praticamente controvento, è ancora una volta grazie al principio di Bernoulli e alle diverse velocità di scorrimento dell’aria ai due lati della vela! 24 MOSTRI DI FERRO GALLEGGIANTI Parlando di imbarcazioni, le tragedie del Titanic (1912) e quella assai più recente della Costa Concordia (2012) – per non parlare delle varie petroliere che nel corso degli ultimi decenni hanno causato diversi disastri ambientali – possono far pensare che le capacità di galleggiamento di queste navi pesantissime siano piuttosto limitate e che basti poco a farle affondare. In realtà è vero il contrario: le navi sono progettate per restare a galla anche con falle di grosse dimensioni… a patto, ovviamente, di saper gestire l’emergenza! L’eventualità di una falla a bordo di una nave – ovvero di una qualsiasi via d’acqua che mette in comunicazione il mare con l’interno dello scafo – va sempre presa in seria considerazione, in quanto l’allagamento di locali interni alla nave, attraverso occasionali aperture prodotte nell’“opera viva” (o carena, così si chiama tecnicamente la parte immersa dello scafo, in contrapposizione con l’“opera morta”, che è invece la parte dello scafo posta al di sopra della linea di galleggiamento) può provocare danni gravissimi, fino alla stessa perdita della nave per capovolgimento o affondamento. Ora, contro il grave pericolo rappresentato da una falla, i progettisti e i costruttori di navi prevedono sempre la realizzazione di un’adeguata compartimentazione stagna (e anche di altri strumenti e tecniche di bilanciamento), in maniera tale che l’imbarcazione anche parzialmente allagata possa mantenersi a galla. Bene, ma allora come fanno le navi a galleggiare? Qual è il principio fisico su cui si basa il galleggiamento di mezzi così enormi e incredibilmente pesanti? La risposta è semplicissima: il principio di Archimede, così chiamato perché scoperto dal celebre matematico e fisico greco Archimede di Siracusa, vissuto nel III secolo a.C. Nel suo trattato dal titolo Sui galleggianti, troviamo scritto che: 1) qualsiasi solido più leggero di un fluido, se collocato nel fluido, si immergerà in misura tale che il peso del solido sarà uguale al peso del fluido spostato; e 2) un solido più pesante di un fluido, se collocato in esso, discenderà in fondo al fluido e se si peserà il solido nel fluido, risulterà più leggero del suo vero peso, e la differenza di peso sarà uguale al peso del fluido spostato. Narra la leggenda che la deduzione del principio che regola il comportamento dei corpi galleggianti abbia portato Archimede a uscire dalla vasca da bagno e a correre in strada gridando a squarciagola la celebre parola Eureka! (“Ho trovato”, in greco). Non sappiamo se sia vero, ma una scoperta del genere avrebbe davvero meritato una simile esultanza! 25 IL PRINCIPIO DI ARCHIMEDE È esperienza comune che i corpi immersi nell’acqua sembrano pesare meno. Ciò è dovuto a una forza verticale, rivolta verso l’alto, che l’acqua esercita sul corpo stesso. Tale forza è appunto detta “spinta di Archimede”, o spinta idrostatica. Essa trae origine dal fatto che sulla superficie di un corpo immerso in un liquido, il liquido stesso esercita una pressione che dipende dalla quota. In altre parole, la spinta di Archimede è dovuta al fatto che la pressione di un fluido cresce al crescere della profondità del fluido. Così, la parte inferiore del corpo sentirà una pressione maggiore della parte superiore (le forze laterali si annullano reciprocamente). In altre parole, le forze verso l’alto esercitate dal liquido sulla superficie inferiore del corpo in immersione sono maggiori delle forze verso il basso esercitate sulla superficie superiore. Sommando tutte queste forze, si ottiene una forza risultante netta orientata verso l’alto: la spinta di Archimede, appunto. D’altra parte, un corpo completamente immerso in un liquido sposta sempre un volume di fluido uguale al proprio volume. Da questa osservazione discende il principio di Archimede: un corpo immerso in un liquido riceve una spinta dal basso verso l’alto pari al peso del liquido spostato. Una formulazione un po’ più rigorosa di questo principio può essere la seguente: un corpo immerso, totalmente o parzialmente, in un fluido riceve una spinta, detta forza di galleggiamento, verticale, dal basso verso l’alto, di intensità pari al peso di una massa di fluido di forma e volume uguale a quella della parte immersa del corpo. È importante sottolineare che il punto di applicazione della forza di Archimede, detto “centro di spinta”, è sulla stessa linea verticale su cui si trovava il centro di massa della porzione di fluido che prima riempiva il volume, ora occupato dalla parte immersa del corpo. In altre parole, è vero che la spinta c’è, ma se il corpo è asimmetrico o sbilanciato, il rischio che questa non garantisca il suo galleggiamento è forte, perché la spinta si applica in un punto (il centro di spinta, appunto) diverso da quello (il baricentro del corpo immerso) in cui si applica la forza di gravità, ovvero il peso del corpo. Il principio di galleggiamento è quindi una diretta conseguenza del principio di Archimede: per galleggiare, è sufficiente che un corpo immerso in un fluido sposti un volume di fluido il cui peso sia uguale al peso del corpo stesso. È la risultante di queste due forze – spinta idrostatica e peso del corpo – a definire il “peso apparente” del corpo immerso nel fluido, cioè la forza risultante che agisce su di esso. Così, una palla di ferro pieno affonda, ma se la modelliamo in maniera tale da farle occupare un volume maggiore, riusciamo a farla galleggiare. Ecco perché le navi con lo scafo di metallo galleggiano, nonostante il loro peso enorme. Galleggia o va a fondo? È molto semplice stabilire se un corpo è in grado di galleggiare in un determinato liquido: è sufficiente confrontare le rispettive densità. Perché il ghiaccio galleggia nell’acqua anche nella forma di un gigantesco iceberg? Perché la densità del ghiaccio è minore di quella dell’acqua. Da questi confronti si scopre anche, per esempio, che un pezzo di ferro affonda nell’acqua, ma riesce a galleggiare nel mercurio, che è molto più denso. Una nave, allora, che per la maggior parte è fatta di acciaio (che è una lega di ferro e carbonio) e altri materiali più densi dell’acqua, non affonda perché contiene enormi quantità di spazi vuoti e, grazie alla sua forma, sposta tanta acqua da equilibrare il proprio gran peso. Quello che conta, infatti, è la densità media del materiale della nave e dell’aria, che deve naturalmente risultare inferiore a quella dell’acqua. Il motivo per cui il corpo umano galleggia, ma resta in gran parte immerso, è dovuto al fatto che la densità del nostro corpo è di poco inferiore a quella 26 dell’acqua. Questa è anche la ragione che spinge i sommozzatori – che possono avere necessità di lavorare a una certa profondità senza dover continuamente pinneggiare per mantenere la quota – a portare una cintura con dei piombi. Se vi è capitato di fare il bagno in un lago o anche in un fiume vi sarete accorti che facciamo un po’ più di fatica rispetto a quella che facciamo per restare a galla in mare: l’acqua dolce ha una densità inferiore a quella dell’acqua salata, e quindi la spinta di Archimede che ne riceviamo è minore. Un altro caso interessante di galleggiamento sono i sommergibili che, non soltanto sono in grado come le navi di galleggiare, ma hanno anche la straordinaria capacità di affondare o fermarsi a una determinata quota a piacimento. Questo è reso possibile dal fatto che nello scafo dei sommergibili esistono alcuni locali particolari, le cosiddette camere stagne, che all’occorrenza possono essere riempiti, o svuotati, d’acqua. Così, quando nelle camere stagne entra l’acqua, il peso del sommergibile aumenta e la spinta idrostatica non è più in grado di sostenerlo, per cui il sommergibile andrà in immersione. Viceversa, svuotando le camere stagne, il peso del sommergibile diminuisce nuovamente, ed esso è in grado di tornare a galla. Per stabilizzarlo a una certa profondità, si dovrà semplicemente espellere solo una parte di quest’acqua, in modo da raggiungere una densità pari a quella dell’acqua in cui si trova immerso. Anche i pesci fanno come i sommergibili. La loro densità media è in effetti leggermente superiore a quella dell’acqua, e perciò tenderebbero a scendere verso il fondo, ma grazie a un particolare organo, detto vescica natatoria, riescono a gestire abilmente il loro galleggiamento. Con questo organo, di cui è dotata la maggior parte di essi, controllano la loro spinta idrostatica. In pratica, la vescica natatoria, posta sopra l’intestino dell’animale, è una specie di camera d’aria che può essere riempita con diverse quantità di aria, a seconda della necessità, e che permette loro di mantenere un ottimo assetto anche durante la sosta a qualsiasi profondità. A maggiore profondità corrisponde una maggiore pressione, che tende a “schiacciare” il pesce e a diminuirne il volume. Se ciò in realtà accadesse, restando la massa del pesce sempre la stessa, la spinta idrostatica agente su di esso diminuirebbe, facendo affondare il pesce. Per evitare ciò il pesce riempie la propria vescica natatoria – che è un vero e proprio organo idrostatico – producendo gas, in modo non solo da raggiungere la profondità desiderata, ma, soprattutto, di mantenerla. Naturalmente il principio di Archimede non vale solo se i corpi immersi sono solidi, ma funziona anche nel caso di masse liquide o gassose. In 27 particolare tutti i gas hanno densità inferiori a quelle dei liquidi e perciò, quando vengono liberati in un liquido, salgono verso la superficie sotto forma di bollicine. Ecco svelato l’arcano del fine perlage dei vini spumanti e dell’effervescenza delle bibite frizzanti. (Occorre però ricordare che i gas sono parzialmente solubili nei liquidi, perciò una parte di essi rimane sempre in soluzione: i pesci possono respirare proprio grazie alla presenza di ossigeno disciolto nell’acqua!). Nell’acqua funziona, ma nei gas? Poiché il principio di Archimede non vale solo per i liquidi ma per i fluidi in generale, è ovvio che trovi ampia applicazione anche la sua formulazione in “versione per gli aeriformi”, ovvero: «un corpo immerso in un aeriforme (gas o vapore) riceve una spinta verso l’alto pari al peso dell’aeriforme (gas o vapore) spostato». In questo caso, la forza che spinge il corpo verso l’alto non si chiama più spinta idrostatica, ma viene detta spinta aerostatica. La maggior parte dei corpi, avendo una densità molto superiore a quella dell’aria, riceve una spinta aerostatica praticamente trascurabile. Possono infatti restare sospesi nell’aria, o addirittura muoversi verso l’alto, soltanto i corpi che hanno una densità inferiore a quella dell’aria, come per esempio i palloncini per bambini – il cui involucro di gomma ha un peso minimo – riempiti con elio, che è un gas addirittura sette volte meno denso dell’aria che ci circonda. Ecco dunque spiegato come fanno le mongolfiere, i dirigibili e i palloni a librarsi in aria: grazie alla spinta aerostatica dell’aria in cui sono immersi. Un tempo dirigibili e palloni erano riempiti di idrogeno, il gas più leggero esistente in natura. Tuttavia l’idrogeno, essendo facilmente infiammabile, è molto pericoloso da usare. Dopo una serie di incidenti gravissimi, come il disastro del dirigibile tedesco Hindenburg nel 1937, il più grande oggetto volante mai costruito, che portava il nome dell’allora presidente della Germania, Paul von Hindenburg, si decise perciò di sostituirlo con elio mescolato ad azoto (due gas inerti). Le mongolfiere, il tipo più comune di pallone aerostatico, sono invece gonfiate con l’aria calda – riscaldata da un apposito bruciatore – sfruttando il fatto che, con l’aumentare della temperatura, l’aria si dilata e diminuisce la sua densità (diventando quindi un gas più leggero dell’aria circostante), facendo così diminuire il peso del pallone a parità di spinta. Le moderne mongolfiere in realtà non sono riempite solo di aria calda, ma anche di gas prodotti dalla combustione del propano, un gas conservato allo stato liquido in apposite bombole. Il risultato non cambia: l’esperienza di un viaggio in mongolfiera è 28 sempre esaltante! 29 II Al mare e in montagna ... ovvero la fisica del nuoto, dello sci... e della sabbia Quando si avvicinano i periodi di ferie, diventa un problema scegliere il luogo di villeggiatura. «Al mare o in montagna?», con i cultori del primo in perenne battaglia con gli amanti della seconda. Abbronzatura da spiaggia tropicale o silenzi da vette inesplorate? Belle nuotate in acque trasparenti o spericolate discese lungo montagne innevate? Pennichelle pomeridiane all’ombra delle palme, dopo un doveroso spaghetto allo scoglio, o lunghe passeggiate in valli verdeggianti, dopo una pausa davanti a un gustoso piatto di polenta e funghi? Ognuno, naturalmente, ha le sue ragioni per scegliere l’una o l’altra, ed è effettivamente un peccato dover scegliere, perché sia il mare che la montagna offrono alle persone curiose di fisica interessantissimi spunti di discussione, dalla fisica del nuoto a quella degli sci, fino allo strano comportamento della sabbia, che è un solido che si comporta come un fluido. Insomma, perché non trascorrere un po’ di tempo al mare e un po’ in montagna? 30 GALLEGGIARE, OK, MA NUOTARE? Siete sdraiati al sole, per abbronzarvi e fare invidia ai vostri amici rimasti a casa. Il caldo è diventato quasi insopportabile e sentite il bisogno di rinfrescarvi. Ecco, è finalmente arrivato il momento di tuffarsi in acqua e fare una bella nuotata. La fisica del galleggiamento ormai non ha più segreti per voi (l’avete imparata nel capitolo precedente!), ma per nuotare non basta galleggiare, bisogna anche muoversi nell’acqua, ovvero in un mezzo fluido… che quindi non offre alcun punto di appoggio. Un bel problema, in effetti. Ma ecco che, ancora una volta, ci viene in soccorso la fisica. In fondo, tutti gli sport hanno a che fare con la fisica, e il nuoto non può ovviamente sfuggire a questa regola, ferrea e incontrovertibile. Fra l’altro la fisica del nuoto è molto ricca e complessa, tanto che c’è anche chi la studia a fondo, come i produttori dei cosiddetti “supercostumi”, che permettono al nuotatore di andare molto più veloce rispetto a quelli tradizionali (il loro uso nel nuoto professionistico è stato vietato, perché “falsavano” la prestazione sportiva). Ma come funziona un supercostume da nuoto? In estrema sostanza, questi particolari indumenti riducono le asperità del corpo, ne arrotondano le curve, avvicinando il corpo del nuotatore a quello del pesce, la cui forma affusolata consente una bassa resistenza idrodinamica – in pratica l’acqua “scorre” intorno al pesce senza incontrare ostacoli, pinne a parte – rendendone più efficiente il movimento. Tanto per dare un’idea della fatica di un uomo che nuota rispetto a un pesce, basti pensare che per attraversare il canale della Manica a nuoto un uomo consuma circa 12.000 chilocalorie, circa cinque volte il suo fabbisogno quotidiano medio, mentre a un pesce dello stesso peso ne bastano appena 200. Ecco perché, mentre per volare vorrebbe assomigliare a un uccello, per nuotare vorrebbe trasformarsi in pesce! Quando si parla di fisica, una delle domande fondamentali da porsi è quali siano le forze in gioco. Innanzi tutto, nel nuoto come in qualunque altra attività umana (e disumana!), c’è sempre la forza di attrazione gravitazionale che ci tira verso il basso, perché ci muoviamo sulla superficie del nostro pianeta che ci attrae inesorabilmente verso il suo centro di gravità. Ma in acqua, come abbiamo detto nel precedente capitolo, c’è il vantaggio di ricevere una spinta verso l’alto pari al peso del volume di acqua spostato dal corpo immerso nell’acqua stessa, ovvero la famosa spinta di Archimede. Quando ci immergiamo il nostro corpo occupa infatti quel volume in 31 precedenza occupato dall’acqua. L’acqua ci spinge verso l’alto – come se volesse farci uscire e tornare a occupare nuovamente quel volume – “alleggerendo” il nostro peso e permettendoci di galleggiare. A farci avanzare, invece, è il celebre “principio di azione e reazione”, ovvero la terza legge della dinamica, formulata dal grande fisico inglese Isaac Newton nel 1686. Il punto focale, nel nuoto, è proprio lo sfruttamento di questo principio: la spinta muscolare sull’acqua produce un avanzamento del corpo, che deve vincere la forza resistente opposta dal fluido stesso. Nuotando, noi applichiamo all’acqua una forza diretta in un certo verso (azione), e l’acqua “reagisce” (reazione) applicando a noi una forza esattamente identica, ma nel verso opposto. Così, l’acqua da un lato ci oppone resistenza, dall’altro ci spinge. Ecco perché riusciamo ad avanzare nell’acqua! È esattamente ciò che accade anche quando remiamo, a patto di sapere remare bene, ovvero di massimizzare la spinta della pala – la parte piatta del remo – quando è immersa in acqua! Il remo è una leva che spinge l’acqua indietro per provocare l’avanzamento della barca proprio in virtù del principio di azione e reazione appena citato. È dunque grazie al moto impresso al remo, in particolare quando è immerso, che riusciamo a dare una spinta in avanti alla nostra imbarcazione. Una semplice analisi della leva costituita dal remo ci permette di dire che la forza applicata (detta potenza) è quella con cui il rematore agisce sull’impugnatura del remo, mentre la resistenza – che è all’origine della spinta in avanti impressa all’imbarcazione – è data dall’opposizione dell’acqua che, nonostante sia in grado di “scivolare” sui materiali, preme sulla pala del remo, avendo questa una superficie relativamente ampia. Il fulcro della leva è costituito dallo scalmo, il punto in cui il remo fa perno rispetto alla barca. Nuotare è come volare? Studiando la dinamica del nuoto, ad alcuni potrebbe venire in mente che il nuoto e il volo abbiano diverse caratteristiche in comune. Entrambi riguardano il movimento di un corpo all’interno di un fluido, l’acqua nel caso del nuoto, l’aria per il volo. Tuttavia le differenze sono molte di più delle analogie. Infatti, se, come abbiamo osservato, in entrambi i casi per l’avanzamento si applica il principio di azione e reazione, esiste una differenza importante e sostanziale fra il nuoto e il volo: nel primo, infatti, il galleggiamento è dovuto alla spinta di Archimede, mentre nel secondo alla portanza dell’ala, generata dalla differenza di pressione tra la superficie superiore – bassa pressione – e inferiore – alta pressione – dell’ala stessa. 32 Mentre possiamo costruire navi dal dislocamento enorme, come quelle da crociera o le superpetroliere, non è possibile fare lo stesso con le dimensioni degli aerei. La portanza, infatti, determina anche un limite per il peso che può mantenersi sollevato nell’aria: questo è per esempio il motivo per cui non si osservano uccelli oltre i 15 kg di peso. D’altra parte, l’acqua è oltre 700 volte più densa e 55 volte più viscosa dell’aria, ragione per cui il moto al loro interno deve avere caratteristiche sostanzialmente diverse. Tuttavia sia la densità che la viscosità dipendono dalla temperatura. E se l’acqua fredda, più densa, “sostiene” il nuotatore favorendone il galleggiamento, l’acqua calda, più fluida e meno viscosa, scorre meglio lungo il corpo del nuotare, opponendo meno resistenza al moto. Così, si trova che la temperatura ideale, che rappresenta il miglior compromesso fra la densità e la viscosità dell’acqua, è circa 25 °C, che, curiosamente, oltre a essere la temperatura ideale per fare un bel bagno in mare, è anche la temperatura minima indicata dal regolamento della Federazione Internazionale del Nuoto (FINA). Velocisti in mare e in vasca Potrà sembrare strano, ma misurare la velocità dei pesci non è affatto un’operazione semplice: nonostante innumerevoli studi e tentativi, ancora oggi non si hanno dati precisi sulle velocità massime raggiungibili dalle diverse specie. A detenere il record di velocista del mare è il “pesce vela”, Istiophorus platypterus, in grado di raggiungere, seppure per periodi brevi, velocità pari a 110 chilometri orari. Questa specie, che vive negli oceani Pacifico e Indiano, deve il suo curioso nome all’estesa pinna dorsale, lunga anche 1,5 metri, talvolta usata fuori dall’acqua proprio come una vela (ma non incute terrore come la pinna dorsale dello squalo!). Più facile, invece, misurare la velocità dei nuotatori, anche perché c’è chi dà il via e fa partire il cronometro. Per molti anni, in tempi recenti, l’uomo-pesce per eccellenza è stato Michael Phelps (nato nel 1985), il nuotatore statunitense soprannominato “il cannibale di Baltimora” per aver divorato titoli e record mondiali e aver fatto incetta di medaglie d’oro alle Olimpiadi di Pechino 2008: otto, un record per una singola olimpiade. In quella competizione, Phelps fu in grado di nuotare i 200 stile libero – che è lo stile a cui si raggiungono le velocità maggiori – in 1’42”96, a una velocità media di quasi sette chilometri orari. Ma, come è facile intuire, le virate rubano tempo (la virata è il movimento con cui il nuotatore alla fine della vasca inverte il senso di marcia). Ecco perché, per trovare il nuotatore con la velocità media più alta 33 (in vasca lunga, ovvero la vasca di 50 metri), si deve andare ai 50 metri stile libero. Percorsi il 18 dicembre 2009, in occasione dei campionati brasiliani, da César Cielo Filho in 20”91, alla ragguardevole velocità di 8,6 chilometri all’ora! Nonostante non sia mai stato il più veloce, Michael Phelps, oggi ex nuotatore, è considerato il più grande nuotatore di tutti i tempi, anche in virtù del fatto che ai Giochi olimpici di Londra 2012 è diventato l’atleta più titolato nella storia delle Olimpiadi moderne: 22 medaglie complessive, di cui ben 18 ori (ragione per cui è anche l’atleta che ha vinto il maggior numero di medaglie d’oro). Che ci sia un trucco, allora? I record di Phelps e degli altri nuotatori possono far pensare che ci sia un trucco per ottenerli (no, non stiamo pensando al doping). Il trucco ovviamente c’è: consiste nell’affinare il più possibile la propria tecnica, tenendo conto che, nel nuoto, il problema principale è che, a differenza di quanto accade nella corsa o nel ciclismo, non esistono punti fissi di appoggio al suolo per creare avanzamento e propulsione in seguito al lavoro e alle spinte dei nostri muscoli, ma ci muoviamo in una sostanza fluida. In altri sport, infatti, il punto dove appoggiamo mani e piedi per spingere e prendere velocità è solido, fisso e inamovibile, mentre nel nuoto la “base” sulla quale fare leva è instabile. Pertanto diventa assolutamente fondamentale sviluppare una tecnica per ricercare qualcosa che assomigli il più possibile a dei punti “fissi” di appoggio in acqua. In caso contrario, il rischio è quello di “tagliare l’acqua” inutilmente con le nostre mani e braccia, facendo tante bracciate per avanzamenti ridottissimi a bassa velocità. In pratica, fare un “buco nell’acqua”. Il trucco è questo: cercare le parti più “resistenti” dell’acqua (che esistono, certo che esistono), ovvero le zone sostanzialmente fisse nel fluido a cui “aggrapparci” per rendere più efficienti i nostri spostamenti. Molti studi dimostrano che i migliori nuotatori non sono quelli che fanno bracciate più rapide: sono invece quelli che fanno il minor numero di bracciate per vasca. Tanto per fare un esempio, alcuni di questi riescono addirittura a completare una vasca da 25 metri impiegando dalle 13 alle 15 bracciate (senza considerare il tuffo iniziale): in pratica percorrono quasi due metri a bracciata. La lezione è quindi che un nuotatore diventa più efficiente se nuota più lungo, non se aumenta la frequenza delle proprie bracciate. Impressionante! Naturalmente, per ridurre il numero di bracciate non basta effettuare una 34 banale “sottrazione”, cioè farne di meno (anche perché si rischia di restare a metà di una vasca). I buoni nuotatori riescono infatti non solo a ridurre la quantità di bracciate, ma anche ad andare più veloci, e questo risultato può essere ottenuto solo in un modo: riducendo gli attriti. Così, da un lato bisogna aumentare l’efficienza della propria spinta andando con le mani a cercare le zone più resistenti dell’acqua – che sono sostanzialmente quelle meno mosse dal nostro passaggio (le meno resistenti sono invece quelle ricche delle bolle di aria sollevate dalla nostra azione natatoria) –, mente dall’altro occorre guadagnare in capacità di avanzamento a parità di sforzo riducendo gli attriti. Già, ma come si fa? Semplice a dirsi: è sufficiente assumere una posizione idrodinamica, ovvero una posizione che incontri la minor resistenza possibile nel movimento nell’acqua (questo lo fanno anche i tuffatori: l’ingresso in acqua è tanto più elegante, e ottiene voti più alti, quanto minore è la quantità di acqua sollevata, fatto che accade quanto più idrodinamico è il nostro assetto). Pensate alla forma dei pesci: bene, quando nuotate dovete trasformarvi – nei limiti del possibile, ovviamente – in qualcosa che assomigli il più possibile a un pesce. Rispetto all’aria, infatti, in acqua si devono vincere attriti molto maggiori per poter avanzare, e ogni resistenza in più non solo rallenta la velocità, ma sottrae anche energie preziose. Dopo tutto se i ciclisti fanno sforzi enormi per ricercare la posizione più aerodinamica possibile, e si muovono in aria, perché non dovrebbero farlo i nuotatori, che, come abbiamo scritto prima, si muovono in un mezzo assai più denso e viscoso di quella? Ai fini dell’avanzamento, la riduzione dell’attrito pesa per circa il 70 per cento, mentre le capacità propulsive legate alla tecnica del nuotatore (oltre che alla sua sensibilità di “trovare” in acqua le zone a maggiore resistenza) sono prossime al restante 30 per cento. Volete provare a diventare bravi come Michael Phelps, migliorando la vostra tecnica e nuotando più veloci? Bene, partendo dal presupposto che difficilmente potrete raggiungere i primati di Phelps, sappiate che i punti di miglioramento di cui preoccuparsi sono questi, in ordine di priorità: l’assetto in acqua, la tecnica di nuoto, e, solo da ultimo, la prestazione fisica. Curioso notare che, invece, la maggior parte delle persone che si avvicina al nuoto ha spesso un ordine di priorità totalmente ribaltato. Ecco perché i margini per diventare come Phelps restano comunque bassissimi, ma per diventare provetti nuotatori sono spesso enormi. Provare per credere, a qualunque età. Garantiscono le leggi della fisica! 35 SULLA NEVE, FRA SCIOLINE E SCIANCRATURE Dopo una bella nuotata in mare aperto o in una piscina olimpionica, è arrivato il momento di salire in montagna per dedicarsi allo sci alpino, altra disciplina sportiva a cui la fisica e anche la matematica offrono il loro importante contributo. Perché, nonostante le apparenze, non è solo questione di attrito! Anzi, se è vero che fino a qualche tempo fa i risultati di una gara sciistica dipendevano molto dalle prestazioni dello sciatore, adesso il contributo della scienza nello studio delle tecniche di discesa, nonché dei materiali e della progettazione degli sci è diventato sempre più importante (ve lo aspettavate, vero? Altrimenti non ne parleremmo!). In effetti, dai primi sci – le prime testimonianze sul loro uso, trovate nell’Europa settentrionale, risalgono a circa 5000 anni fa – costituiti da pezzi di legno lavorati e utilizzati come mezzo per agevolare la locomozione quando i territori erano per molti mesi coperti dalla neve, agli sci ipertecnologici di oggi ci corre non solo tanto tempo, ma anche tanta tecnologia. Quando, a partire dalla seconda metà dell’Ottocento, gli sci iniziarono a diffondersi dalla Norvegia – dove il loro uso era anche diventato una disciplina sportiva – anche al resto dell’Europa, questi erano realizzati con legni di quercia e betulla, ed erano lunghi anche più di due metri. Gli attacchi di oggi erano ancora lontani dall’essere progettati ed erano semplici staffe in cuoio con le quali si legavano gli sci agli scarponi. Nel XX secolo gli sci diventarono più corti e maneggevoli, e soprattutto più facili da girare (provate voi a mettere due pezzi di legno pesanti e lunghi due metri ciascuno ai piedi e descrivete l’esperienza!). Oltre ad accorciarli, i costruttori iniziarono a usare materiali diversi, come per esempio alcuni metalli per rendere più rigidi e sicuri gli attacchi, in modo che gli scarponi fossero fissati agli sci stessi, così da evitare scivolamenti e girare con maggiore agilità. Da allora, gli sci si sono continuamente evoluti sotto l’impulso dei progettisti e degli sciatori, che chiedevano attrezzi sempre più agili e maneggevoli. Dagli sci in legno, che erano rigidi e pesanti, si è quindi passati all’attuale struttura a sandwich, dove lo sci è in realtà costituito da strati sovrapposti di materiali diversi, dal legno, alla plastica, alla fibra di vetro, all’alluminio, alla gomma. Questa struttura a strati garantisce da un lato una buona rigidità, dall’altro leggerezza e flessibilità. La rigidità, in particolare, è importante quando lo sci è sottoposto a torsione, ovvero quando lo sciatore deve affrontare una curva, sperabilmente senza sbandamenti. Oltre a questi 36 cambiamenti, frutto del progresso della scienza e della tecnologia dei materiali, negli ultimi decenni si sono visti anche cambiamenti nella forma degli sci, tanto che, mentre fino a una trentina d’anni fa gli sci erano perfettamente dritti, adesso sulle piste si usano i carve (o carving, incisione in inglese), sci larghi in testa e in coda e più stretti al centro. Grazie a questa forma particolare, gli sci sono più flessibili dove necessario e permettono di curvare senza troppi sforzi. Se si è arrivati a questo, si può essere certi che gli studi sugli sci e sulle tecniche sciistiche non cesseranno qui, ma proseguiranno grazie a ricerche sul campo – osservando cioè come si comporta uno sciatore in diverse condizioni – e a modelli sempre più complessi che permettano di realizzare attrezzi e tecniche sempre più sofisticati. Basti pensare che in molti sport esistono gruppi di ricercatori che studiano in laboratorio il gesto sportivo e i materiali in modo da ottimizzare le tecniche e le modalità di allenamento. Uno degli aspetti più sottoposti a indagine, nello sci alpino come nel ciclismo o in altri sport dove la velocità è la chiave per vincere, è la posizione aerodinamica, studiata addirittura nella galleria del vento, esattamente come accade per studiare i prototipi di Formula 1. CURVE PERFETTE, CON GLI “SCI A CLESSIDRA” Fino a non molti anni fa, sulle piste da sci si girava con sci lunghi e dritti. Questo tipo era piuttosto rigido e, soprattutto, difficile da girare: le curve erano quindi delle sbandate più o meno controllate, con, in generale, traiettorie piuttosto lunghe (con ovvio aumento del tempo necessario a percorrerle!). Una buona tecnica permetteva di ridurne la lunghezza, ma il limite stava proprio negli attrezzi che si mettevano ai piedi. Con l’arrivo degli sci carving (o carve) tutto questo è diventato un ricordo. Gli sci carving hanno infatti una particolare forma a clessidra, che li rende flessibili nella zona centrale, dove sono appunto più stretti, e quindi molto più facili da girare. La differenza fra la larghezza alle estremità (maggiore) e quella al centro (minore) prende il nome di “sciancratura”, ed è la caratteristica più importante di questo tipo di attrezzi. In particolare, a parità di lunghezza degli sci, un valore alto di sciancratura permette di percorrere curve più strette, cioè traiettorie con raggio di curvatura minore. Grazie a questa, lo sciatore può affrontare le curve “in conduzione” (come si dice tecnicamente), ovvero senza sbandate, mantenendo quindi sempre molto alto lo scivolamento e senza essere costretto a ridurre sensibilmente la velocità di discesa. Con questi sci, infatti, lo sciatore in curva può mettere di spigolo gli sci che, grazie alla loro flessibilità, si deformano come un arco per effetto del peso dello sciatore, e “incidere” così la neve con le lamine (da cui il nome carve, che in inglese significa appunto “incidere”, come accennato in precedenza), percorrendo quindi curve più strette e senza scivolamenti laterali, ovvero traiettorie più precise e pulite. Fisica e matematica ovunque, anche sulla neve A molti la matematica non piace, lo sappiamo, ma se adesso, messi gli sci ai piedi, riuscite a scendere molto più agevolmente e con maggiore velocità di quanto accadeva ai vostri nonni, ebbene, sappiate che grande merito va a chi 37 ci ha fatto un po’ di calcoli sopra. Che cosa dobbiamo studiare in questo caso? A questo punto l’avrete capito: in fisica, la prima cosa da analizzare sono sempre le forze in gioco (quando dovete impostare un problema di fisica, pensate sempre a Newton e alle sue leggi della dinamica!). Nel caso degli sci, il sistema da studiare non è particolarmente complesso, è sufficiente analizzare quali forze agiscono sullo sciatore mentre affronta una discesa lungo un pendio più o meno ripido. Innanzi tutto abbiamo – udite, udite! – la forza di gravità. E se in molti casi questa può rappresentare un fastidio, in questo caso dobbiamo proprio a essa il fatto che sia possibile sciare! Infatti qualsiasi corpo, se posto su un piano inclinato, scivola lungo la linea della massima pendenza proprio per effetto della forza peso, il cui valore è sempre dato dal prodotto della sua massa per l’accelerazione di gravità. Ora, poiché ci troviamo su un piano inclinato – stiamo parlando del pendio, naturalmente – non tutta la forza di gravità contribuisce ad accelerare il corpo dello sciatore verso il basso, ma solo una sua parte. La forza peso può infatti essere scomposta in due componenti: una parallela al piano del pendio (stiamo naturalmente praticando una delle consuete semplificazioni da fisici supponendo che il pendio sia a pendenza costante, altrimenti dovremmo valutare questa scomposizione di volta in volta, a seconda della pendenza), l’altra perpendicolare a questo piano. 38 Fig. 2 Scomposizione della forza peso in due componenti. Mentre quest’ultima spinge il corpo verso il terreno, la prima è appunto la componente che spinge il corpo lungo il pendio, ovvero quella che lo fa scendere accelerando. Queste componenti dipendono dalla pendenza del terreno: più ripido è un pendio, maggiore è la componente che fa scivolare il corpo verso il basso; viceversa, su terreni pianeggianti, prevale la componente perpendicolare. In pratica, questo significa che su pendii scoscesi si può scendere verso valle molto velocemente mentre quando ci si trova quasi in piano si resta sostanzialmente fermi. Le altre forze in gioco sono gli attriti e la forza del terreno che da un lato ci impedisce di sprofondare e dall’altro ci permette di curvare. Questa forza prende il nome tecnico di “reazione vincolare”, perché si tratta appunto di una reazione (nel senso del principio di azione e reazione) del vincolo (il terreno). I fisici infatti definiscono vincolo qualsiasi condizione che limita il moto di un corpo. Nella circostanza, il vincolo rappresentato dal terreno impedisce appunto allo sciatore di affondare nel terreno stesso, fatto che, dal punto di vista del fisico, rappresenta una 39 limitazione al movimento, mentre dal punto di vista dello sciatore… è una fortuna. Gli attriti meritano invece un discorso più approfondito. L’attrito, in generale, è una forza che si oppone al movimento ed è esercitata da due corpi in contatto: questa forza rallenta lo sciatore, ma è di fondamentale importanza perché gli permette di tenere il controllo sugli sci. Nel caso dello sciatore le forze di attrito sono di due tipi: la resistenza dell’aria (anche questa, come la gravità, è sempre presente, quando parliamo di fenomeni che si verificano sulla superficie del nostro pianeta) e l’attrito dovuto al contatto fra sci e neve. In generale, la resistenza dell’aria, ovvero l’attrito esercitato dal corpo a contatto con l’aria, dipende da diversi fattori, quali la forma del corpo, il materiale di cui è rivestito e, infine, la velocità con cui scende. Tanto per fare due esempi, una posizione raccolta risulta essere una forma più aerodinamica di quella eretta, mentre un tessuto ruvido incontra maggiore resistenza dell’aria di uno liscio. Inoltre, poiché l’attrito con l’aria è direttamente proporzionale al quadrato della velocità, ovvero che più veloce è lo sciatore tanto maggiore sarà la resistenza dell’aria, quando si va piano l’attrito dell’aria è quasi impercettibile, ma ad alte velocità diventa una forza anche complessa da gestire. In una disciplina come il chilometro lanciato, dove sciatori esperti si lanciano dritti lungo una pista raggiungendo velocità molto elevate prossime a quelle della caduta libera, il cambiamento improvviso di assetto, da una posizione aerodinamica a una eretta, provoca forti decelerazioni che possono provocare la caduta dello sciatore. L’altro tipo di attrito, dicevamo, è quello dovuto al contatto fra gli sci e lo strato superficiale di neve. Questo attrito dipende esclusivamente dal peso che il corpo esercita sul terreno e dalla superficie di contatto degli sci con la neve. Il peso viene infatti distribuito lungo la superficie degli sci: uno sci lungo risulta essere più veloce sul dritto di uno sci corto poiché il peso dello sciatore incide meno sul terreno (in pratica, a parità di peso, una superficie di appoggio maggiore riduce la pressione che si esercita sul terreno). Questo è il motivo per cui nelle discipline veloci, dove è necessario compiere meno curve, si usano gli sci lunghi. La “regola aurea” è la seguente: più veloce è una disciplina, più lunghi sono gli sci da usare. Nello slalom speciale, per esempio, dove è richiesto allo sciatore di compiere curve molto strette, vengono impiegati sci corti (poco più di un metro e mezzo per le donne), mentre per la discesa libera si usano sci piuttosto lunghi (anche oltre due metri, per gli uomini). Tutti gli sciatori sanno bene che per minimizzare l’attrito dovuto al contatto 40 fra gli sci e la neve si usano le scioline. Queste cere da applicare sulla soletta degli sci hanno proprietà chimiche diverse, studiate in base alle caratteristiche (tasso di umidità e temperatura) della neve sulla quale vogliamo sciare: ci sono scioline per nevi cosiddette calde (con temperature comprese fra 0 e -4 °C) che sono assai diverse da quelle realizzate per affrontare nevi molto fredde (con temperature comprese fra -15 °C e -20 °C). Dalla scelta della sciolina dipende la scorrevolezza o meno degli sci. Ecco perché, nello sci professionistico, questa scelta è spesso lasciata ai cosiddetti ski-men che sono gli addetti alla preparazione dei materiali per la competizione. Ora, per ridurre l’impatto delle forze di attrito, il modo più semplice è quello di allineare gli sci sulla linea della massima pendenza e tenerceli il più possibile, ovvero fino a quando non si è costretti a curvare. Una volta in curva, poi, occorre evitare sbandamenti: solo così, infatti, si riduce la quantità di neve su cui devono scivolare gli sci, rendendo quindi più scorrevole la discesa. Sempre che voi vogliate arrivare primi in una gara di discesa. In questo caso vi conviene anche indossare tute attillate e usare scioline adatte. Se invece non vi interessa ridurre la resistenza dell’aria o l’attrito con la neve, ma volete andare piano perché siete principianti o volete godervi il paesaggio circostante, ebbene, basta che mettiate gli sci trasversalmente alla linea di pendenza. Guardate come fanno gli sciatori esperti a frenare e a fermarsi in fondo a una discesa velocissima e imparate: basta mettere sci perpendicolari a monte e il gioco è fatto! Fra poliuretani e paraffine Tornando per un attimo alla tuta dello sciatore, il principale materiale impiegato attualmente è l’elastam (o elastan), la celebre fibra sintetica di poliuretano in grado di elasticizzare i tessuti. Non sapete che cos’è? Forse la riconoscete se la chiamiamo Lycra (che si pronuncia “laicra”), ma sappiate che il termine Lycra è un marchio depositato (e quindi privato), mentre elastam è appunto il termine generico con cui viene indicata la fibra, indipendentemente dal nome e dal marchio con cui viene commercializzata. L’elastam, noto per la sua eccezionale elasticità e resistenza, ha solo un piccolo difetto rispetto al suo principale concorrente non sintetico, il lattice naturale: ha vita più breve, anche se le industrie chimiche sono continuamente alla ricerca di modi per migliorare le caratteristiche di resistenza dei materiali sintetici. Inventato nel 1959 nel Laboratorio Benger della DuPont (dove appunto prese il nome iniziale di Lycra, da cui deriva la fama di questo termine), a Waynesboro, in Virginia, ci si rese presto conto che questo 41 materiale avrebbe rivoluzionato l’industria dell’abbigliamento. Rivoluzione che, in effetti, è sotto gli occhi di tutti: con l’elastam sono realizzati non solo tantissimi indumenti sportivi – dalle tute da sci, ai costumi per nuotatori, ai pantaloni per ciclisti – ma anche una miriade di prodotti da indossare, come calze, guanti, magliette, pantaloni (anche i jeans elasticizzati, fatti ovviamente con il denim, il classico tessuto ruvido di cotone dei jeans, contengono una quantità compresa fra il 2 e il 4 per cento di elastam). È curioso notare che nel suo luogo di origine, gli Stati Uniti, la fibra è conosciuta con il nome generico di “spandex”, l’anagramma del verbo expands, ovvero “(essa si) espande”. Rimanendo ancora nell’ambito della chimica industriale, apriamo di nuovo una parentesi sulla sciolina (esistono sia scioline da scorrimento, usate nello sci alpino, sia scioline da tenuta, usate nello sci di fondo). La facilità di scorrimento della superficie inferiore degli sci sulla superficie superiore del manto di neve è legata al coefficiente di attrito fra le due. Riducendo il valore di questo coefficiente, la scorrevolezza aumenta. Per ottenerla si usa appunto la sciolina, una cera costituita da una miscela complessa di idrocarburi (paraffina) e di additivi specifici – a base di molecole contenenti fluoro – che vengono scelti in base alle caratteristiche della neve (temperatura, compattezza, umidità ambientale). In particolare, lo scivolamento è agevolato dal sottile strato di acqua che si forma sotto la suola degli sci a causa dell’attrito con la neve. Ora, lo spessore di questa pellicola è controllato dalla rugosità della soletta e dalla sciolina. Ogni sciolina produce infatti una quantità diversa di acqua tra soletta e neve, a seconda della temperatura di quest’ultima. Quando la temperatura è bassa (molto al di sotto dello 0 °C) la neve è dura, perché quasi completamente ghiacciata: in questo caso, la scelta di una sciolina dura permette di creare una pellicola di acqua più sottile rispetto a quella che verrebbe creata da una sciolina morbida, garantendo un basso valore del coefficiente d’attrito (in presenza di acqua libera, ovvero di uno spessore di acqua maggiore, infatti, aumenta la superficie di contatto tra lo sci e la neve, aumentando di conseguenza l’attrito). La durezza della sciolina scelta deve quindi essere adatta alla durezza della neve. Inoltre l’attrito di una soletta diminuisce se questa viene resa idrofobica, tramite appunto l’aggiunta di additivi specifici. Gli studi dimostrano che la lunghezza della catena idrocarburica determina la durezza della cera, mentre gli additivi a base di molecole fluorurate sono usati per aumentare l’idrorepellenza delle superfici. Ma, alla fine dei conti, come fa la sciolina a funzionare? La risposta non è difficile. Se pensate al fatto che il coefficiente d’attrito dipende dalla 42 “scabrosità” delle superfici, ovvero più sono ruvide, maggiore è l’attrito che si presenta al contatto, la funzione della sciolina è appunto quella di ridurre le asperità della soletta degli sci e di renderla impermeabile, riempiendone le eventuali porosità, ed evitando quindi che acqua, ghiaccio o polveri possano infiltrarsi, aumentando la superficie di contatto e quindi l’attrito. 43 QUESTIONE DI PUNTI DI VISTA Quando abbiamo a che fare con corpi in movimento, come nel caso dello sciatore, può essere interessante studiarli da due punti di vista differenti: quello del pubblico, che sta fermo ai bordi della pista, e quello dello sciatore, che invece si muove rispetto a questo. In fisica, i “punti di vista” prendono il nome tecnico di “sistemi di riferimento”, e mentre il primo, fisso, è un cosiddetto sistema di riferimento inerziale, il secondo, in movimento accelerato, è un classico esempio di sistema di riferimento non inerziale. I fisici amano particolarmente questa distinzione – Albert Einstein ha costruito la teoria della relatività sulle differenze che emergono nello studio dei fenomeni naturali se osservati da sistemi inerziali o da sistemi non inerziali –, anche perché porta alla scoperta di forze che non esistono… ma che si fanno ugualmente sentire! Un sistema viene definito inerziale se è fermo o si muove di moto rettilineo uniforme. In altre parole, un sistema è inerziale se per esso vale la prima legge della dinamica – o principio d’inerzia, appunto –, secondo la quale un corpo permane nel suo stato di moto imperturbato (stato di quiete o di moto rettilineo uniforme), se non è sottoposto a forze esterne. Per esclusione, i sistemi non inerziali sono tutti gli altri: quelli che si muovono di moto accelerato, e sono quindi soggetti all’azione di forze (badate bene, in fisica anche una frenata, ovvero una decelerazione, è comunque un moto accelerato! D’altra parte, per fermare un corpo in movimento ci vorrà bene una forza, no?). Dunque, prendiamo lo sciatore in curva e studiamolo prima dal punto di vista del pubblico. Quali sono le forze che agiscono su di lui? La forza di gravità (bravi!) e gli attriti (ottimo!). Sono proprio questi ultimi, in particolare, a permettere allo sciatore di percorrere la curva. In loro assenza, lo sciatore partirebbe per la cosiddetta tangente, cioè proseguirebbe il suo moto lungo una traiettoria rettilinea. Gli attriti funzionano infatti da vincolo per gli sci (in pratica, impediscono alle lamine messe di spigolo di avere un moto trasversale e quindi agli sci di sbandare), generando in curva una forza di richiamo (la cosiddetta forza centripeta) che permette allo sciatore di percorrere la traiettoria curvilinea. Rimessi gli sci piatti rispetto al terreno, quel tipo di vincolo si annulla e con esso la forza centripeta: a questo punto lo sciatore può tornare a scendere lungo una traiettoria rettilinea. Proviamo adesso a studiare lo stesso fenomeno dal punto di vista dello sciatore. Come è facile intuire, la questione si fa un po’ più complicata perché 44 ci troviamo solidali a un corpo in accelerazione (il fatto che lo sciatore curvi implica che sta variando la propria velocità – almeno la sua direzione di moto – e quindi è soggetto a un’accelerazione, considerato che l’accelerazione è definita come la variazione di velocità nel tempo). Ora proviamo a chiedere allo sciatore quali forze “sente” in azione su di lui. La risposta sarà che, oltre alla forza di gravità e agli attriti, ne sente una in più, che cerca di portarlo verso l’esterno della curva. Per questo motivo lo sciatore si inclina verso l’interno, nel tentativo di controbilanciarla (questo si fa anche in bicicletta, o in moto, quando si “piega” affrontando una curva). Facendo i conti, si scopre che la forza centrifuga dipende dal quadrato della velocità e dal raggio di curvatura: quindi è tanto più grande quanto maggiore è la velocità con cui si affronta la curva. Questo è il motivo per cui una curva veloce richiede allo sciatore (e al motociclista) di piegarsi di più di quanto è costretto a fare percorrendo una curva lenta. Dal punto di vista in movimento dello sciatore, è il vincolo creato dal contatto fra sci e terreno a impedire alla forza centrifuga di “portarselo via”, permettendogli nel contempo di percorrere la traiettoria curvilinea. Una domanda sorge spontanea: com’è possibile che lo sciatore veda una forza in più rispetto al pubblico? Da dove spunta fuori la forza centrifuga? Banalmente, questa emerge dal fatto che abbiamo studiato il fenomeno da due punti di vista con caratteristiche fisiche molto diverse. In pratica, il semplice fatto di cambiare sistema di riferimento e di sceglierne uno in moto accelerato, e quindi non inerziale, “crea” questa nuova forza che i fisici chiamano “fittizia” (vedi Forza centripeta e forza centrifuga), che può invece essere eliminata scegliendo un opportuno sistema di riferimento (inerziale). FORZA CENTRIPETA E FORZA CENTRIFUGA Ogni forza che fa sì che un corpo segua una traiettoria circolare è detta forza centripeta. In particolare, qualsiasi tipo di forza (gravitazionale, elettrica, meccanica) che agisca perpendicolarmente alla traiettoria di moto di un corpo tende a indurre un moto circolare, e possiamo pertanto chiamarla forza centripeta. Se, per esempio, consideriamo un corpo legato all’estremità di una fune che vincola tale corpo a ruotare e tagliamo la fune all’improvviso, il corpo prosegue il suo moto lungo la direzione tangente alla traiettoria circolare. È la prova che prima su di esso agiva una forza, la forza di tensione della fune, che appunto aveva la funzione di forza centripeta. La nostra percezione dei fenomeni naturali è però fortemente influenzata dal sistema di riferimento da cui abbiamo deciso di osservarli. Quando ci troviamo su una giostra o affrontiamo una curva in automobile, il mondo intorno a noi ruota e noi ci sentiamo spinti verso l’esterno da una forza, detta appunto centrifuga. Questa forza non è però presente nella descrizione del fenomeno che noi diamo se ci troviamo in quiete o ci muoviamo di moto rettilineo uniforme, ovvero siamo in un sistema di riferimento inerziale. La forza centrifuga è una forza fittizia, non una forza reale come è, per esempio, la gravità: essa non è prodotta da un’interazione con un altro corpo, ma semplicemente dalla rotazione, o, meglio, dalla scelta del sistema di riferimento rotante (non inerziale). Essendo una forza fittizia, la forza 45 centrifuga non rispetta il terzo principio della dinamica: inutile quindi andare a cercare la “reazione” alla forza centrifuga, perché non esiste. Noi viviamo in un sistema di riferimento non inerziale. Tutti i corpi che si trovano sulla superficie terrestre sono infatti in rotazione, trascinati dalla rotazione del nostro pianeta attorno al proprio asse. Così, oltre alla gravità, tutti sentiamo anche l’effetto di una forza centrifuga, perpendicolare all’asse di rotazione. Ma il moto di rotazione della Terra genera un’altra forza fittizia, che agisce su tutti i corpi in movimento nel sistema rotante: è la forza di Coriolis. In particolare, la forza di Coriolis si manifesta su un corpo all’interno di un sistema di riferimento rotante, ogni volta che il corpo stesso si muove in modo tale da variare la sua velocità di rotazione. Questo accade, per esempio, alle masse d’aria dell’atmosfera terrestre, che ruota solidalmente con la superficie del Pianeta. Gli spostamenti in latitudine dovuti alla loro convergenza dalle regioni ad alta pressione verso le regioni a bassa pressione fanno sì che, sotto l’azione della forza di Coriolis, queste masse inizino a muoversi in senso antiorario (nell’emisfero boreale) o in senso orario (nell’emisfero australe), dando così origine ai cicloni. In sintesi, quando ci troviamo in un sistema in rotazione, si sperimenta l’azione di alcune forze fittizie (dette anche forze inerziali, perché dovute all’inerzia dei corpi dotati di massa): la forza centrifuga, che si manifesta in ogni caso nel sistema in rotazione, e la forza di Coriolis, che invece si manifesta solo se ci muoviamo rispetto al sistema rotante. La forza centrifuga è un particolare tipo di forza di trascinamento. Le forze di trascinamento (tutte fittizie) sono infatti presenti ogni volta che si ha a che fare con un sistema di riferimento che si muove di moto accelerato rispetto a un sistema inerziale (ricordiamo che i sistemi inerziali, solo all’interno dei quali valgono le tre leggi della dinamica di Newton, sono quelli in quiete o che si muovono di moto rettilineo uniforme). Ne abbiamo tutti esperienza diretta quando siamo in auto, anche quando non stiamo curvando: quando l’auto è in accelerazione, sentiamo di essere spinti “all’indietro”, mentre se il veicolo frena siamo spinti “in avanti”. Naturalmente in nessuno dei due casi agisce su di noi una forza reale (nessuno ci sta spingendo!). Quello che osserviamo è quindi solo l’effetto di una forza fittizia in un sistema non inerziale. 46 CASTELLI DI SABBIA Quante volte, anche da adulti, avete messo alla prova le vostre abilità costruttive per tirare su un bel castello di sabbia? E quante volte siete rimasti con un mucchio di granelli in mano tentando di scavare un passaggio sotto un ponte di sabbia? Ebbene, sappiate che non siete soli. Milioni di persone, bambini, adulti, anziani, ogni anno, giocano con la sabbia delle spiagge di ogni luogo del globo terracqueo, ma sono molto poche quelle capaci di erigere strutture imponenti e durature (nei limiti del possibile, naturalmente). La scienza della sabbia è un capitolo affascinante della fisica, non solo perché può aiutarci a costruire castelli, ma anche e soprattutto perché permette agli scienziati dei materiali e agli ingegneri edili di comprendere meglio il comportamento della materia in particolari condizioni. Volete costruire un castello di sabbia perfetto? Ecco la ricetta di un gruppo di ricercatori che ha studiato il problema: il segreto per la costruzione di un castello di sabbia imponente e stabile sta tutto nell’usare pochissima acqua per inumidire la sabbia e nel fare un’attenta valutazione delle proporzioni delle strutture. I risultati della ricerca sono chiari: secondo gli scienziati, i castelli di sabbia più stabili hanno un contenuto d’acqua che non supera l’uno per cento in volume (l’avreste mai detto? In genere, quando si costruiscono castelli al mare, siamo sempre alla frenetica ricerca di secchielli da riempire d’acqua per bagnare la sabbia sotto l’ombrellone!). La sabbia asciutta infatti non è in grado di sostenere il proprio peso, ma anche la presenza di una quantità eccessiva di acqua finisce per destabilizzare il materiale, che così frana. Studiata a livello microscopico, si scopre che la rigidità della sabbia bagnata con cui si costruisce un castello di sabbia è il risultato della formazione di ponti capillari di liquido, che “oscillano” fra i granelli: in pratica, è la pressione capillare (la stessa che si manifesta nelle piante e nei nostri vasi capillari, alla cui origine si trovano la tensione superficiale, la coesione fra le molecole di acqua e l’adesione fra queste e le pareti dei vasi) a creare una forza di attrazione tra i granelli sufficiente alla creazione di strutture complesse. Aumentando la quantità d’acqua, questi “ponti liquidi” vengono distrutti, condannando la struttura al collasso. È dunque la forza dell’acqua a tenere insieme un materiale incoerente come la sabbia. Il fatto che si costruisca solo con sabbia bagnata non è quindi casuale, ma dipende proprio dalla presenza o meno di umidità. Come già accennato, è la forza di coesione fra le molecole di acqua a rendere possibile 47 la creazione di strutture che, in alcuni casi, possono raggiungere una certa complessità. D’altra parte, i materiali possono essere classificati come solidi o liquidi a seconda dell’intensità delle forze di coesione con cui le molecole si tengono una vicina all’altra. Nel caso della sabbia, che è costituita principalmente di silicio, ciascun granello avrà una coesione interna molto alta, dovuta al fatto che la struttura cristallina che lo compone è stabile e mantiene rigidamente a contatto tra loro atomi e molecole, mentre in pratica è totalmente assente fra granello e granello, tanto che la sabbia asciutta si comporta sostanzialmente come se fosse un liquido, con tutti i granelli che scivolano gli uni sugli altri senza avere alcuna posizione fissa. Solo in presenza di un certo grado di umidità si crea una forza di coesione che rende la sabbia un materiale perfetto per l’edilizia reale… e per quella da spiaggia. Tuttavia la stabilità di una struttura di sabbia non dipende solo dalla quantità d’acqua che contiene, ma anche dalla deformazione elastica della colonna di sabbia legata al proprio peso, correlata al rapporto fra le dimensioni della base e l’altezza della struttura stessa. Tenendo conto di tutti questi fattori, è stato possibile sviluppare un modello, abbastanza semplificato, ma che riesce a spiegare gli incredibili risultati ottenuti dai costruttori di castelli (con torri, archi, ponti e passaggi segreti) e di sculture di sabbia durante le numerose gare internazionali, alcune delle quali si svolgono anche in Italia (celebre è il Festival internazionale delle sculture di sabbia che, dal 1998, si svolge in estate al Lido di Jesolo, in provincia di Venezia). Il modello indica anche una sorta di “trucco” che si può impiegare per costruire un castello di sabbia più stabile e più alto: è sufficiente diminuire la densità effettiva della sabbia immergendo la struttura sott’acqua. In questo modo i ponti liquidi non esisteranno più, ma la loro funzione verrà svolta da analoghi ponti d’aria che si formeranno sott’acqua, in particolare se si usa sabbia idrofobica, o idrorepellente, che si trova anche in commercio per impieghi in edilizia e nel giardinaggio (esistono anche delle versioni da gioco per bambini). Quando la sabbia segna il tempo Un altro gruppo di ricercatori si è dedicato invece allo studio del comportamento dei granelli di sabbia in una clessidra, partendo dall’osservazione che nella parte superiore sono sostanzialmente immobili e simili a un solido, mentre avvicinandosi al collo dell’imbuto diventano sempre più mobili e quindi più simili a un liquido. Una volta raggiunto il fondo dell’ampolla schizzano però in ogni direzione, scontrandosi tra loro 48 come fanno le molecole di gas. Volendo descrivere queste variazioni di comportamento con alcuni modelli matematici, ci si scontra con la complessità del sistema che, in linea di principio, deve essere analizzato granello per granello. In pratica, il comportamento collettivo della sabbia andrebbe dedotto applicando le leggi della fisica a ciascun granello, ricavando così per ciascuno di essi la traiettoria di moto. Componendo infine tutti questi moti si otterrebbe il moto collettivo della sabbia. Il problema è che, impostato così, il sistema è troppo complesso anche per i supercomputer e quindi inutilizzabile. Per semplificarlo e ottenere dei risultati almeno approssimati, si può affrontare il problema studiando i granelli non individualmente, ma dividendo il campione di sabbia in “blocchetti”, ovvero in volumi di piccole dimensioni rispetto al volume complessivo, ma comunque in grado di contenere un’elevata quantità di granelli, i quali, in questa semplificazione, condividono tutti la stessa sorte (questa è una tecnica di sviluppo di modelli semplificati molto impiegata dai fisici, perché permette di realizzare delle elaborazioni al computer e valutare così, seppure in maniera non precisa, la bontà o meno di alcune supposizioni). Tenendo conto delle dimensioni dei singoli granelli e della loro motilità, ovvero della loro capacità di movimento, i ricercatori sono riusciti, nonostante il modello fosse semplificato, a ottenere comunque la descrizione della “cascata di sabbia” a un livello mai ottenuto prima, tanto da poter essere applicata allo studio delle frane che si staccano dai pendii fino ai moti di caduta di cereali o composti chimici lungo le linee di produzione delle aziende alimentari o farmaceutiche. A dispetto delle apparenze, quindi, questi studi non sono squisitamente teorici o inutili dal punto di vista pratico; tutt’altro: trovano invece una discreta quantità di applicazioni, che vanno dal trattamento industriale delle granaglie alla progettazione delle sonde destinate ad atterrare sulle superfici sabbiose di altri mondi, come la Luna e Marte. Altre applicazioni, infine, si possono avere nel campo dell’ingegneria civile e della meccanica del suolo. È curioso notare che il numero di studi quantitativi sulle proprietà meccaniche della sabbia, e della sabbia bagnata in particolare, è relativamente basso, sebbene esistano stime secondo cui la movimentazione e il flusso di materiali granulari come le sabbie sia responsabile di circa il 10 per cento del consumo mondiale di energia nel mondo. Tanto che il gruppo di ricercatori che ha studiato la “ricetta” per i castelli di sabbia ha sostenuto che l’unica stima reperibile in letteratura indica che la stabilità... raggiunga il massimo per un castello di sabbia di circa 20 cm di altezza. In forte disaccordo con 49 l’osservazione di castelli di sabbia di diversi metri di altezza. C’è quindi ancora molto lavoro di ricerca da fare, sia teorico che pratico. Pensateci, la prossima volta che vi troverete in ginocchio sulla spiaggia a improvvisarvi ingegneri edili! 50 LA FISICA AVVENTUROSA DELLE SABBIE MOBILI Da Tarzan a Indiana Jones, il numero di film di avventura in cui alcuni personaggi si trovano a che fare con la trappola delle sabbie mobili è enorme. L’espediente è ormai abusato, ma ha pur sempre il suo fascino e garantisce un alto livello di drammaticità. In genere il nostro protagonista si trova a sua insaputa a camminare sopra una piccola ma terribilmente insidiosa superficie di sabbie mobili e inizia a sprofondare lentamente nella sabbia – molto più simile a un liquido che a un solido – senza che questa sia in grado di sostenerne il peso. Fortunatamente la scena si risolve nella maggior parte dei casi con l’arrivo di qualcuno o di qualcosa (un ramo pendente di un albero, l’estremità di una liana) a cui aggrapparsi per tirarsi fuori dall’impaccio. Altrimenti la fine sarebbe stata inesorabile… Ma siamo sicuri che le sabbie mobili siano così minacciose come vengono descritte nei film? Ora che siamo esperti di galleggiamento (ricordando quanto avete letto in questo capitolo e in quello precedente, quando abbiamo menzionato il principio di Archimede), potremmo domandarci se è davvero possibile che si affondi completamente. Già, perché considerato il nostro peso specifico, è molto più probabile che, nel caso in cui ci si trovi ad affrontare le sabbie mobili, si affondi solamente per metà. La sabbia pesa infatti più dell’acqua e anche del nostro corpo, che pesa ancora meno dell’acqua (motivo per cui galleggiamo, ricordate?), ragione per cui dovrebbe essere più facile galleggiare e nuotare sulle sabbie mobili che nelle acque di un lago o di uno stagno. Del resto è anche raro che le sabbie mobili siano molto profonde, quindi il rischio che una persona sprofondi completamente e vi anneghi è davvero limitato. Però è anche vero che le sabbie mobili possono costituire un pericolo mortale, perché è difficile (se non impossibile) uscirne da soli, non offrendo queste alcun punto di appoggio interno e, soprattutto, richiedendo forze di grande intensità per estrarre un corpo intrappolato nella loro melma. La morte di un individuo, se, come abbiamo appena visto, non sopraggiunge direttamente per annegamento, può però arrivare indirettamente, in assenza di soccorsi, per disidratazione, per fame, o, in caso di sabbie mobili marine, per il ritorno dell’alta marea. Che cosa sono realmente le sabbie mobili? Sono costituite da una certa quantità di sabbia piuttosto fine più o meno satura di acqua, avendo quindi una debole – se non nulla – capacità di sostenere pesi. In genere si trovano in cavità situate alle bocche di grandi fiumi i cui letti d’acqua sono parzialmente 51 riempiti di sabbia e poggiano sopra uno strato di argilla che ne impedisce il drenaggio. Le sabbie mobili sono meno “esotiche” di quanto crediamo: per esempio, è possibile trovarle perfino in una località turistica e affollata come il famosissimo Mont Saint-Michel in Normandia! Per i fisici, le sabbie mobili sono semplicemente uno dei tanti gel idrocolloidali esistenti in natura. Un colloide (o sistema colloidale) è infatti una particolare miscela in cui una sostanza si trova in uno stato finemente disperso, intermedio tra la soluzione omogenea e la dispersione eterogenea. Questo stato consiste quindi di due fasi: una fase costituita da una sostanza di dimensioni microscopiche (la sabbia, nel caso in esame) e una fase continua disperdente (l’acqua). A differenza delle soluzioni, che sono sistemi omogenei di molecole di soluto e molecole di solvente, i sistemi colloidali sono sistemi eterogenei, tipicamente torbidi e dal comportamento irregolare. Al di là della complessità del nome, noi abbiamo a che fare ogni giorno con sostanze colloidali come il latte, il burro e la maionese (fase dispersa e disperdente entrambe liquide; in questo caso si parla di emulsioni), la panna montata e la schiuma da barba (fase dispersa gas, fase disperdente liquido; in questo caso si parla di schiume), la nebbia (fase dispersa liquida, fase disperdente gas; si tratta quindi di un aerosol liquido) e il fumo (fase dispersa solida, fase disperdente gas; si tratta quindi di un aerosol solido). Gli esempi sono sufficienti per capire l’importanza dei sistemi colloidali nelle nostre vite, vero? 52 REOLOGIA, TISSOTROPIA, REOPESSIA Il termine reologia (che deriva dal verbo greco reo, “scorrere”) descrive la scienza che studia il flusso e la deformazione dei corpi. Secondo la reologia tutti i corpi reali possiedono proprietà che sono intermedie tra due comportamenti ideali estremi, da una parte quello del solido perfettamente elastico e dall’altra quello del fluido perfettamente viscoso. Le sabbie mobili possono quindi essere studiate anche dal punto di vista reologico. In particolare, questo fenomeno rientra in quello più generale dei comportamenti tissotropici, che si osservano nelle sostanze la cui viscosità varia in funzione dei tipi e delle intensità delle forze a cui è sottoposta. Nonostante il termine sia sconosciuto ai più, la tissotropia (o tixotropia, dal greco thikis, che è l’atto di toccare, e tropia, che significa “trasformazione”) è un fenomeno abbastanza comune e molto rilevante per un gran numero di prodotti industriali, come alcune sostanze alimentari, plastiche, vernici, farmaci e altri ancora. In particolare si parla di tissotropia quando si ha a che fare con i cosiddetti fluidi non newtoniani (vedi Fluidi non newtoniani), che sono miscele di sostanze la cui fluidità dipende in modo non lineare dalle forze di taglio ad esse applicate. Uno dei fluidi tissotropici più familiari è il ketchup. È esperienza comune che, scuotendo un flacone di questa sostanza, questa diventi più liquida dopo essere stata agitata. Un fenomeno simile si può inoltre notare nello yogurt, dove si osserva una variazione della viscosità in seguito al mescolamento con un cucchiaino. Il comportamento tissotropico è tipicamente reversibile, perché se il sistema viene lasciato in stato di quiete per un tempo sufficiente, ritorna alla sua condizione a riposo. La reversibilità del comportamento tissotropico discende naturalmente dalla reversibilità dei processi di distruzione e ricostruzione della struttura del materiale, provocati da sollecitazioni meccaniche come il mescolamento e il successivo riposo. Mentre le sostanze tissotropiche diventano reversibilmente più fluide con l’aumentare del tempo di flusso, il fenomeno inverso alla tissotropia – se analizziamo il comportamento dei fluidi dal punto di vista temporale – prende il nome di reopessia: le sostanze reopessiche tendono invece a diventare, sempre in modo reversibile, meno fluide all’aumentare del tempo di flusso. In pratica, un sistema è tissotropico o reopessico quando la sua viscosità varia con il tempo. In particolare, i liquidi reopessici aumentano la propria viscosità (ovvero diventano meno fluidi) se sottoposti a forze di taglio, opponendosi alla deformazione. 53 È proprio la reopessia alla base del curioso comportamento delle sabbie mobili. Come abbiamo appena visto, queste sono costituite da una miscela di acqua e sabbia, tanto satura di acqua da assumere caratteristiche proprie di un fluido non newtoniano. Così, se il malcapitato che vi finisce dentro, inizia ad agitarsi per liberarsi (lo si fa istintivamente, purtroppo), le forze di taglio associate a questa azione provocano un aumento di viscosità delle masse sabbiose appena smosse, generando così un effetto di risucchio che lo fa affondare sempre più velocemente. Volete dunque sopravvivere alle sabbie mobili: il segreto sta nel mantenere il sangue freddo e muoversi lentamente, fino a raggiungere un livello di galleggiamento sicuro… Oppure fate come Tarzan nella pellicola Tarzan il magnifico del 1960, dove il celebre uomoscimmia, interpretato dall’attore Gordon Scott (1926-2007; Scott intepretò il personaggio di Tarzan in ben sei film, dal 1955 al 1960, diventando anche il primo Tarzan a colori sullo schermo in Tarzan e il safari perduto del 1957), riesce a salvare se stesso e un altro uomo da morte sicura, aggrappandosi alle piante ai bordi delle sabbie mobili e tirando su con forza. Ma per fare un’operazione del genere occorre sicuramente una forza fuori dal comune, come appunto quella del personaggio nato dalla fantasia dello scrittore statunitense Edgar Rice Burroughs (1875-1950). Quindi è certamente meglio evitare l’esperienza! VISCOSITÀ: SOLIDI AMORFI E FLUIDI NON-NEWTONIANI La viscosità è una caratteristica fisica fondamentale dei fluidi. Più un fluido è viscoso, maggiore è la pressione a cui deve essere sottoposto per farlo scorrere in una tubatura, per esempio. È intuitivo comprendere come sarebbe assai più difficile la vita se l’acqua avesse la viscosità del burro di arachidi, della mostarda o del miele, anche di quello più liquido. Se a un fluido applichiamo uno sforzo di taglio, ovvero una forza parallela alla superficie del fluido, gli strati superiori iniziano a muoversi con una velocità maggiore di quelli via via inferiori. A definire la relazione fra la forza applicata e il gradiente del flusso di scorrimento – ovvero la variazione di velocità del fluido con la quota – è appunto la viscosità. In particolare, a parità di sforzo di taglio applicato, maggiore è la viscosità di un fluido, minore è il gradiente del flusso. Viceversa, minore è la viscosità del fluido in esame, maggiore è il gradiente del flusso. Solidi amorfi Alcuni studiosi ritengono che la distinzione fra liquidi e solidi sia essenzialmente legata ai valori di viscosità. In pratica, possiamo parlare di sostanza solida quando questa ha una viscosità pari a un milione di miliardi di volte quella dell’acqua. Ma ci sono solidi che in effetti hanno viscosità inferiori a questo valore: i solidi amorfi. I solidi amorfi sono quei solidi che non hanno forma propria né struttura cristallina, ovvero che a livello microscopico non rivelano un reticolo ordinato (cristallo), ma mostrano una totale assenza di periodicità spaziale, esattamente come accade in un liquido. I solidi a struttura amorfa sono definiti sostanze vetrose o, più semplicemente, vetri. C’è anche chi ha provato a misurare la viscosità di un solido amorfo. Fu Thomas Parnell, professore di fisica all’Università del Queensland, a Brisbane, in Australia, ad avviare, nel 1927, un esperimento con cui voleva mostrare ai propri studenti come certe sostanze, benché in apparenza solide, siano in realtà fluidi ad alta viscosità. Il compito? Osservare la lenta percolazione di un campione di pece – tipico 54 esempio di solido amorfo – attraverso un imbuto. Ma non da subito. La bocca inferiore venne infatti aperta nel 1930, tre anni dopo aver versato la pece. Ebbene, dal 1927 a oggi sono cadute solo otto gocce, l’ultima delle quali nel 2000! L’esperimento, condotto in condizioni non controllate e quindi impossibile da replicare, ha comunque permesso agli sperimentatori di ottenere tre risultati: 1) di stimare che la viscosità della pece è circa 100 miliardi di volte quella dell’acqua; 2) di entrare nel Guinness Book of Records per l’esperimento continuo di maggior durata del mondo; 3) di vincere nel 2005 il premio Ig Nobel, promosso dalla rivista scientifica satirica Annals of Improbable Research! Fluidi non newtoniani Acqua e miele vengono definiti fluidi newtoniani perché la loro viscosità non varia con la velocità con cui viene misurata. In altre parole, in un fluido newtoniano la viscosità dipende per definizione solo dalla temperatura e dalla pressione (e dalla composizione chimica del fluido, se esso non è una sostanza pura), ma non dalla forza applicata. In natura però esistono anche fluidi non newtoniani, in cui la cui viscosità varia a seconda dell’intensità dello sforzo di taglio che viene applicato. Conseguenza di ciò è che i fluidi non newtoniani possono non avere una viscosità ben definita, o meglio, comportarsi da fluidi poco viscosi in alcune circostanze e da fluidi molto viscosi – con tempi di risposta alle deformazioni anche molto lunghi – in altre. Naturalmente, per questo tipo di fluidi non è possibile usare la viscosità per caratterizzarli dal punto di vista delle proprietà fisiche e descriverne il comportamento meccanico. Un esempio di fluido non newtoniano può essere facilmente realizzato miscelando acqua e amido di mais. Con un fluido di questo tipo è possibile e immediato verificare che, applicando forze deboli, come il lento inserimento di un cucchiaio nel fluido, questo si manterrà nel suo stato liquido. D’altra parte, però, l’applicazione di una forza impulsiva – per esempio capovolgendo rapidamente il contenitore in cui è posto – induce il fluido a comportarsi come un solido più che come un liquido. 55 III Che tempo che fa ... ovvero la fisica che crea un’atmosfera Nel bene e nel male, la nostra vita è sicuramente segnata dal tempo meteorologico. Molte persone fanno dipendere addirittura il loro umore dal fatto che fuori piova o ci sia il sole. Ma anche in casi non così estremi, è certo che ognuno di noi, anche di sfuggita, controlla fuori dalla finestra se sarà il caso di prendere l’ombrello prima di uscire o se invece sarà bene portare con sé gli occhiali da sole. Tutti i giornali riportano le previsioni del tempo, esistono canali televisivi dedicati solo ed esclusivamente a queste, per non parlare dell’incredibile quantità di siti web che diffondono informazioni meteorologiche relative a tutti gli angoli del Pianeta, così che è diventato semplicissimo scoprire se in questo preciso istante a Rio de Janeiro è bel tempo o è nuvolo (se vi interessa saperlo, nel momento in cui stiamo scrivendo queste righe a Rio sta piovendo, ma la temperatura è di oltre 29 °C: insomma, la tipica accoppiata terribile caldo-umido). Neve, grandine, pioggia… inquinamento: tutto questo (e molto di più) accade perché sopra le nostre teste si trova l’atmosfera, un’enorme massa d’aria che, fra le altre cose, ci permette di respirare e quindi vivere su questo pianeta. Che dite, vogliamo capire qualcosa delle leggi fisiche che regolano il comportamento dell’atmosfera? 56 IL METEO NELL’ANTICHITÀ: INDOVINI, DIVINITÀ, FILOSOFI E POETI Fin dalla preistoria, l’uomo si è sempre preoccupato del tempo meteorologico e, più in generale, del clima. L’andamento di una battuta di caccia e le probabilità di riuscire a catturare qualche preda dipendevano molto dalle condizioni meteorologiche. Ma anche l’esito di un raccolto era fortemente influenzato dal tempo, dall’intensità e dalla durata di una stagione di piogge o dal persistere della siccità. L’uomo primitivo, con i suoi mezzi limitati, avrà ipotizzato delle regolarità nei cambiamenti del tempo, ma queste si sono sicuramente limitate all’osservazione dei mutamenti stagionali, associati allo studio dei fenomeni celesti come il moto del Sole e della Luna, con la scoperta che alcune piante e certe specie animali abbondavano solo in determinati periodi, che vi era alternanza tra caldo e freddo, pioggia e siccità, aria calma e vento. Previsioni più puntuali e precise non erano date, tanto che, fino a tempi piuttosto recenti, molte civiltà si sono affidate a maghi e stregoni capaci di determinare l’andamento climatico o il tempo meteorologico sulla base di fenomeni come il comportamento degli animali e, in particolare, il volo degli uccelli. Fino alla seconda metà dell’Ottocento erano in molti, fra i contadini, a controllare polli e anatre, ma anche passeri, fringuelli, cornacchie e altri volatili della campagna, per sapere come sarebbe stato il tempo il giorno successivo, convinti che gli uccelli fossero degli ottimi previsori del tempo. Cantate da Virgilio, Brunetto Latini, Giovanni Pascoli e molti altri poeti nostrani, le gesta dei volatili previsori hanno accompagnato i nostri antenati nelle loro attività quotidiane, fornendo loro importanti indicazioni su come regolarle. Il continuo canto dei passeri e il gracidio della cornacchia preannunciano pioggia. Non sottovalutate il lamento dello scricciolo che avverte di una tempesta imminente. Se i galli cantano anche a notte fonda il mattino sarà nebbioso. Se la folaga abbandona le acque per raggiungere la terraferma significa che sta per alzarsi un forte vento. E ancora, se nella palude le anatre sono agitate e non si lasciano avvicinare significa che il tempo sta per mutare. E via così, di tradizione in tradizione. Per quanto non scientificamente fondate, tutte queste affermazioni si basavano su una conoscenza diffusa e condivisa, verificata giorno per giorno, che trovava conforto nella lettura di “classici” come Virgilio che la tramandavano. Dopo tutto, non è difficile immaginare che quando sta per piovere o c’è una tempesta in arrivo gli animali si cibino il più in fretta 57 possibile, restando vicini ai loro ricoveri. Per tutte le civiltà, il tempo meteorologico, con la sua caratteristica imprevedibilità che non lo rendeva “razionalizzabile”, ha ispirato divinità di vario genere, ognuna dedicata a specifici fenomeni. In Grecia – e poi a Roma – svariate divinità dell’Olimpo avevano l’ingrato compito di tartassare noi umani con fulmini, piogge e alluvioni (Zeus, poi diventato Giove Pluvio per i Romani), venti e uragani (Eolo, i cui figli erano proprio i venti da controllare), tempeste e bufere marine (Poseidone, il Nettuno dei Romani). Ma in Grecia si sentı̀ anche per la prima volta l’esigenza di organizzare tutte le conoscenze che si erano tramandate nella tradizione orale. Il primo che accolse questa sfida fu proprio il grande filosofo Aristotele di Stagira (384 a.C.-322 a.C.) che, nella sua opera Meteorologica, del 340 a.C., raccoglie tutto il sapere sull’argomento risalente alle epoche precedenti, aggiungendovi il suo importante contributo. La sua è la prima compilazione sistematica sui fenomeni atmosferici, anche se è, com’è ovvio, molto lontana – per contenuti e metodi – dai moderni trattati di meteorologia. 58 ARIA, ARIA, PER FAVORE, QUI NON SI RESPIRA! Alla base di tutta la “scienza” di Aristotele vi era la celebre teoria dei quattro elementi (terra, acqua, aria, fuoco) che costituivano il mondo sublunare, al di sopra del quale si trovava l’etere incorruttibile ed eterno. Non è difficile, per i fisici contemporanei, associare i quattro elementi aristotelici agli stati della materia, ovvero i modi in cui questa si presenta in natura. Se la Terra è associabile allo stato solido, l’acqua a quello liquido e l’aria a quello aeriforme, il fuoco è infatti assimilabile a un quarto stato della materia, chiamato plasma, corrispondente a quello di un gas parzialmente o completamente ionizzato, ovvero costituito da un insieme di elettroni e ioni, ma elettricamente neutro, la cui carica elettrica totale sia pertanto nulla. Come vedremo più avanti nel capitolo dedicato alla fisica aliena, la materia è allo stato di plasma quando si trova ad altissime temperature, come quelle presenti, per esempio, all’interno delle stelle. Qui, dovendo parlare della nostra cara atmosfera e dei fenomeni a essa associati, ci limiteremo a trattare – almeno per il momento – il solo stato aeriforme, noto più comunemente, ma meno correttamente (come vedremo), come stato gassoso. Lo stato aeriforme – caratteristico di gas e vapori – ha molte proprietà in comune con lo stato liquido. Tuttavia gli aeriformi, a differenza dei liquidi, non solo assumono la forma del recipiente che li contiene, ma tendono anche a riempirlo, occupando tutto lo spazio disponibile: pertanto ai gas non si applica il concetto di superficie libera. Soltanto quando la quantità di gas o di vapore è molto grande, come nel caso dell’atmosfera della Terra o di una stella, la forma dell’aeriforme è determinata dalla gravitazione. Aeriformi e liquidi sono così simili che in realtà sono collettivamente chiamati fluidi. Un fluido è quindi, per definizione, un sottoinsieme dei possibili stati della materia che include liquidi, aeriformi (gas e vapori) e plasmi. (Curiosamente, con questa definizione, gli stati della materia possono essere ridotti a due: lo stato solido e quello fluido!). Caratteristica dei fluidi è che le particelle che li compongono non hanno posizione reciproca fissa al loro interno, come invece accade nei solidi. Altra differenza fondamentale fra fluidi e solidi è la proprietà dei primi di non resistere a nessun tipo di deformazione, e in particolare agli sforzi di taglio, caratteristica invece tipica dei secondi. Se approfondiamo la questione al microscopio, scopriamo che la differenza fra liquido e aeriforme è data dalla 59 presenza o meno di forze di coesione: mentre in un liquido le molecole sono molto vicine fra loro e sono quindi soggette alle forze esercitate dalle molecole circostanti (forze intermolecolari, o, nel caso di atomi, interatomiche), in un gas o in un vapore le distanze fra le singole particelle che lo compongono sono molto grandi rispetto alle dimensioni delle particelle stesse, che quindi si muovono liberamente all’interno del contenitore, rimbalzando sulle pareti. Fin qui abbiamo parlato genericamente di aeriformi, includendo sia gas sia vapori, senza però specificare quale sia la differenza fra gas e vapore, cui abbiamo accennato. Per farlo occorre introdurre il concetto di temperatura critica in relazione ai cambiamenti di stato della materia. In particolare, quando si tratta di transizioni fra stati fluidi, i fisici definiscono temperatura critica quella temperatura al di sopra della quale una determinata sostanza non può più esistere allo stato liquido, nemmeno nel caso in cui sia sottoposta a compressione. La temperatura critica è pertanto una caratteristica fisica specifica della materia, e varia da sostanza a sostanza. Sembra difficile, ma non lo è. Per capire meglio, facciamo un esempio. Se, per comodità, prendiamo come valore di confronto la temperatura ambiente (che per i fisici è fissata convenzionalmente a 25 °C), allora si può affermare che un aeriforme si trova allo stato di vapore se la sua temperatura critica è superiore alla temperatura ambiente, mentre si trova allo stato di gas se la sua temperatura critica è inferiore alla temperatura ambiente. Così, a temperatura ambiente, l’acqua allo stato aeriforme è un vapore, perché la sua temperatura critica è oltre 100 °C, mentre l’ossigeno è un gas, perché la sua temperatura critica è quasi a 120 °C sotto zero. Questo significa che, a 25 °C, il vapore acqueo, se sottoposto a un’opportuna compressione, subisce una transizione di fase e si trasforma in acqua allo stato liquido, mentre l’ossigeno resta comunque allo stato gassoso, anche se sottoposto a compressioni molto forti. Questo implica che non è possibile liquefare l’ossigeno per compressione senza prima aver portato l’ossigeno stesso a una temperatura inferiore alla sua temperatura critica. Possiamo perciò definire i gas come aeriformi non condensabili a temperatura ambiente (lo stato fluido e lo stato solido sono invece noti come stati condensati della materia). 60 MA CHE ARIA RESPIRIAMO? Bene, ma l’aria da che cosa è composta? Sapendo che è grazie a questa che noi respiriamo, potremmo pensare che l’aria sia per lo più composta da ossigeno; ma ci sbagliamo, perché il gas principale componente dell’atmosfera terrestre è l’azoto. L’atmosfera è infatti composta non da un’unica sostanza chimica, ma da una miscela di gas, i cui principali componenti sono appunto l’azoto, l’ossigeno e l’argon (un gas nobile), che da soli rappresentano oltre il 99 per cento del volume dell’intera atmosfera. In realtà la concentrazione dei gas dell’atmosfera non è uguale a tutte le altezze e, se nella parte bassa può essere considerata costante, almeno per quanto riguarda i componenti principali, nella parte alta varia piuttosto rapidamente a seconda del tipo di gas preso in esame, con quelli più pesanti che stanno tendenzialmente più in basso di quelli leggeri (a causa della forza di gravità, naturalmente). Per esempio, il vapore acqueo è presente quasi soltanto nella troposfera, che è lo strato più basso dell’atmosfera, compreso fra il suolo e 10 km circa di altezza, mentre è praticamente assente negi strati più esterni, che viceversa contengono quasi tutto l’elio e l’idrogeno, ovvero gli elementi più leggeri in assoluto. È anche interessante calcolare quanto tempo occorre in media perché nell’atmosfera vi sia un ricambio totale dei gas. Scopriamo così che i gas nobili – quelli inerti, come l’argon, che non reagiscono con gli altri elementi – possono restare in atmosfera anche milioni di anni, mentre quelli cosiddetti semipermanenti, come il temibile monossido di carbonio (molecola composta da un atomo di carbonio legato a un atomo di ossigeno), hanno un “tempo di residenza” – è la definizione tecnica del tempo medio di vita in atmosfera di un gas – che varia fra mesi e anni. Tutt’altra sorte spetta invece ai gas cosiddetti variabili, come quelli chimicamente attivi o legati al ciclo dell’acqua, il cui tempo di residenza è valutabile in alcuni giorni. Gli elementi principali Dicevamo che l’azoto è il gas più diffuso nell’atmosfera terrestre. In effetti l’aria è composta per il 78 per cento da questo gas, che viene liberato da piante, foglie e sostanze animali in decomposizione – svolgendo un ruolo determinante nel ciclo biologico degli essere viventi e delle piante in particolare –, oltre che emanato da rocce e in grandi quantità dalle (eventuali, ma frequenti) eruzioni vulcaniche che si verificano sulla superficie terrestre. 61 Occorre però fare attenzione. Quando si parla di azoto in atmosfera, non si parla dell’atomo di azoto, ma della molecola di azoto, composta da due atomi di azoto saldamente legati fra loro. La molecola di azoto, in virtù di questo legame molto forte fra i due atomi, è molto stabile e reagisce difficilmente con gli altri elementi chimici. È il motivo per cui l’azoto si è accumulato in atmosfera nel corso di milioni di anni. Dal punto di vista organolettico, l’azoto molecolare è un gas totalmente incolore, inodore, insapore e inerte: ecco perché non ci accorgiamo della sua esistenza! L’origine del termine “azoto” rivela molta della considerazione che i chimici avevano di questo elemento, nonostante sia uno dei costituenti fondamentali delle molecole organiche più importanti dal punto di vista biochimico (DNA, proteine, alcune vitamine), oltre che di composti inorganici molto diffusi e importanti come l’ammoniaca e l’acido nitrico. Ad assegnargli questo nome fu il celebre scienziato francese Antoine-Laurent de Lavoisier (1743-1794), da molti considerato il padre della chimica moderna. Lavoisier fu il primo a riconoscere che l’aria è una miscela di un gas attivo, che cioè mantiene la combustione e la respirazione (l’ossigeno), e di un gas inattivo (l’azoto, appunto). Per questo egli attribuì all’elemento il nome azotè, che significa “privo di vita”, costruito sulla composizione del termine greco zoè (vita) preceduto dall’alfa privativo: l’azoto rappresenta infatti il componente dell’aria non necessario alla respirazione degli esseri viventi. Tuttavia, chi studia scienze sa che il simbolo chimico dell’elemento azoto è la lettera N. Perché mai, vi domanderete? Ebbene, la risposta sta nel fatto che, parallelamente alla proposta di Lavoisier, emerse quella del chimico francese Jean-Antoine Chaptal (1756-1832). Egli coniò infatti la parola nitrogène, combinando il termine greco nitron, usato per definire il composto chimico noto oggi come nitrato di potassio, al suffisso greco -gen, che significa “dare vita a”, proprio perché l’azoto era uno degli elementi necessari per produrre quel composto, a sua volta necessario alla produzione dell’acido nitrico (quest’ultimo noto con il nome comune di “acqua forte”). Così, dalla parola nitrogène, ci siamo trovati il simbolo chimico N per l’azoto e il termine inglese nitrogen per definire l’elemento, mentre noi italiani abbiamo conservato l’espressione originale di Lavoisier. Torniamo ora alla nostra atmosfera e alla sua composizione, che vede comparire l’ossigeno come secondo elemento più abbondante, costituendone il 21 per cento del volume totale. A parte il suo importante contributo all’atmosfera, l’ossigeno – il cui simbolo chimico è O – è anche l’elemento più abbondante della crosta terrestre, di cui rappresenta quasi il 50 per cento 62 sotto forma di rocce e minerali, oltre che degli oceani, costituendone oltre l’85 per cento in massa (come componente dell’acqua, la cui molecola è appunto costituita da due atomi di idrogeno e uno di ossigeno, che è circa 16 volte più pesante dell’idrogeno). Come nel caso dell’azoto, quando si parla di ossigeno atmosferico, non si parla dell’ossigeno atomico, ma della sua versione molecolare più diffusa, composta da due atomi di ossigeno. Nonostante la molecola di ossigeno rientri in moltissimi processi naturali, come la fotosintesi e la respirazione, la sua quantità in atmosfera resta sostanzialmente costante nel tempo, proprio grazie al contributo continuo del processo fotosintetico, grazie al quale le piante producono ossigeno e zuccheri partendo da acqua e anidride carbonica (con l’importante e imprescindibile contributo della luce visibile del Sole!). Azoto e ossigeno molecolari arrivano a comporre il 99 per cento dell’atmosfera. Potrebbe sembrare che il rimanente un per cento sia ininfluente, ma le ricerche dimostrano piuttosto il contrario, ovvero che da quell’un per cento dipende molto del bilancio energetico del nostro pianeta con lo spazio esterno! Se infatti l’argon, che costituisce lo 0,92 per cento del volume dell’atmosfera, è un gas nobile e inerte (viene prodotto costantemente dal decadimento di un isotopo radioattivo del potassio, presente in natura), nella rimanente frazione percentuale troviamo anche il vapore acqueo che, come è facile intuire, è alla base di gran parte dei fenomeni meteorologici e, ovviamente, di tutti quelli connessi al ciclo dell’acqua (nubi, pioggia, neve, grandine). Prodotto dall’evaporazione di oceani, mari, laghi, nonché dalla traspirazione delle piante, viene trasferito in atmosfera e costantemente rimescolato in maniera turbolenta. È importante notare che il vapore acqueo è presente quasi esclusivamente nella troposfera, con concentrazioni bassissime rilevate nella stratosfera, che è lo strato atmosferico appena superiore, compreso fra 10 km e 50 km di altezza dal suolo. (Gli spessori indicati sono valori medi, in quanto l’atmosfera, come già l’intero Pianeta, subisce lo schiacciamento ai poli causato dalla forza centrifuga: per questo motivo lo spessore ai poli dell’atmosfera è molto minore di quello rilevato all’equatore!). E tutto il resto? Con azoto, ossigeno, argon e vapore acqueo abbiamo praticamente esaurito la composizione dell’atmosfera. Sappiamo però che questi quattro componenti, pur rappresentando quasi il 100 per cento dell’aria che respiriamo, sono mescolati ad altri, alcuni dei quali anche molto noti, come 63 l’anidride carbonica (o biossido di carbonio, composto da due atomi di ossigeno legati a un atomo di carbonio). In generale, questi composti, noti come elementi minoritari dell’atmosfera, hanno una concentrazione piuttosto variabile, in dipendenza di diversi fattori, fra i quali troviamo la radiazione solare (capace di innescare o catalizzare certe reazioni chimiche, come la fotosintesi), la respirazione degli esseri viventi, infine l’attività antropica, cui negli ultimi decenni si deve una parte notevole dei cambiamenti nella composizione chimica dell’atmosfera. Tra gli elementi minoritari troviamo infatti vari composti dell’azoto, gli aerosol e, soprattutto, i celebri gas serra, tutti componenti che l’uomo ha notevolmente contribuito a diffondere nell’atmosfera. I composti dell’azoto, fra cui troviamo i vari ossidi di azoto (come il monossido e il biossido), hanno come sorgente primaria proprio la combustione ad alta temperatura dei combustibili fossili (petrolio e derivati, come benzina e gasolio, carbone, gas naturale), di cui circa il 40 per cento è direttamente attribuibile proprio ai trasporti. Sorgenti di secondaria importanza sono invece diventate nel tempo quelle naturali, come i fulmini, gli incendi e le eruzioni vulcaniche. È interessante osservare che, attraverso una serie di processi chimici che avvengono in atmosfera, dagli ossidi di azoto si arriva ai nitrati, che rappresentano nuclei di condensazione privilegiati per la formazione di gocce di nubi e nebbie, le quali, ricadendo al suolo sotto forma di precipitazioni, sono responsabili delle piogge acide (la cui causa principale sono comunque gli ossidi di zolfo, che contribuiscono al 70 per cento del fenomeno, mentre gli ossidi di azoto contribuiscono per il restante 30 per cento). Non male, come contributo umano all’ambiente! Ma l’uomo non si è fermato ai composti dell’azoto. Anche gli aerosol hanno dato un importante impulso in termini di concentrazione atmosferica. Con il termine aerosol si definiscono tutte quelle sostanze, acqua esclusa, presenti in atmosfera sotto forma liquida o solida, di dimensioni superiori a quelle molecolari. Quindi, oltre a quelli derivanti da sorgenti naturali, come semi, pollini, spore, fumi, ceneri, polveri e altro (provenienti da attività biologica o vulcanica e tipicamente trasportati dal vento), troviamo anche quelli prodotti da attività antropica, come la combustione dei carburanti e molti processi industriali. Si calcola che l’attività umana contribuisca per circa il 20 per cento in massa al totale di tutto il particolato presente in atmosfera. Gli studi dimostrano che nel secolo scorso il contributo umano all’immissione di aerosol in atmosfera è rimasto comunque una piccola frazione rispetto alle emissioni naturali, ma alcuni ricercatori sostengono che fra pochi decenni gli 64 aerosol provenienti da sorgenti antropiche saranno confrontabili in quantità con quelli naturali. LEGGI SUI GAS In generale, per descrivere a livello macroscopico il comportamento di un gas, si impiegano tre grandezze: pressione (P), volume (V) e temperatura del gas (T), dette anche “funzioni di stato”. È interessante osservare che queste tre grandezze sono tutte interdipendenti, come si può dimostrare agevolmente a livello sperimentale, anche in maniera qualitativa. La prima legge che mette in relazione due di queste tre grandezze è la legge di Boyle e Mariotte, la quale afferma che, in condizioni di temperatura costante, la pressione di un gas è inversamente proporzionale al suo volume, ovvero che il prodotto della pressione del gas per il volume da esso occupato è costante. Le trasformazioni a temperatura costante vengono dette isoterme. La seconda legge, nota come prima legge di Gay-Lussac o come legge di Charles, tratta delle trasformazioni a pressione costante (isobare). Tale legge afferma semplicemente che, in condizioni di pressione costante, appunto, il volume di un gas aumenta linearmente con la temperatura, ovvero che volume e temperatura sono direttamente proporzionali. Ritroviamo la stessa proporzionalità diretta fra la pressione e la temperatura nella seconda legge di Gay-Lussac, che riguarda invece le trasformazioni a volume costante (isocore). Secondo questa legge, infatti, in condizioni di volume costante, la pressione di un gas aumenta linearmente con la temperatura. Infine, oltre alle tre leggi appena citate, esiste la legge di Avogadro, secondo la quale, a pari condizioni di temperatura e pressione, uguali volumi di gas contengono lo stesso numero di molecole. Dall’enunciato di questa legge si deduce che se si aumenta la quantità di gas raccolto in un contenitore, senza variare la pressione né la temperatura, si fa aumentare di conseguenza il volume del gas. Gas reali e gas ideali In realtà, le leggi appena enunciate sono valide per una particolare approssimazione, detta dei gas perfetti, per cui il gas viene considerato come costituito da atomi puntiformi, che si muovono liberi da forze attrattive o repulsive reciproche o con le pareti del contenitore. Per i gas perfetti vale infatti una legge, detta equazione di stato dei gas perfetti, che mette in relazione fra loro la pressione P, il volume V e la temperatura T: PV=nRT dove n è il numero di moli del gas – la mole è una misura della quantità di sostanza – e R è la cosiddetta costante universale dei gas perfetti. Da questa espressione è facile dedurre le tre leggi precedenti come casi particolari. La legge di Boyle, per esempio, si ottiene fissando T a un valore costante, così che l’equazione di stato in una trasformazione isoterma diventa semplicemente PV=costante. Analoghi ragionamenti valgono negli altri due casi. Il comportamento dei gas reali è diverso da quello descritto da queste leggi, ma vi si avvicina molto quando il gas è in condizioni cosiddette di gas rarefatto, ovvero di bassa pressione o di alta temperatura (o entrambe). Nel caso dei gas reali, l’equazione di stato assume invece una forma più complessa e prende il nome di equazione di Van der Waals. 65 CHE CALDO, QUESTO PIANETA! Poco sopra, parlando degli elementi minoritari che compongono l’atmosfera terrestre, abbiamo citato i famigerati gas serra. Il nome suggerisce già l’effetto che producono, noto come “effetto serra”, che ognuno di noi può facilmente sperimentare entrando appunto in una serra (quelle in cui si coltivano le piante tropicali lo dimostrano: il caldo umido là dentro è spesso insopportabile!). I gas serra sono infatti quelli che hanno la capacità di assorbire e di emettere nuovamente la radiazione infrarossa proveniente dalla terra, contribuendo in questo modo all’aumento di temperatura della superficie del Pianeta. In pratica, questi gas hanno la caratteristica – dovuta alle loro proprietà molecolari – di risultare trasparenti alla radiazione solare entrante, ma di essere opachi alla radiazione infrarossa riemessa dalla superficie del Pianeta riscaldata dai raggi solari diretti. La radiazione visibile proveniente dal Sole va infatti a riscaldare direttamente il suolo, ma non l’aria, che risulta quasi trasparente alla radiazione solare stessa. Una volta assorbita questa radiazione, e quindi riscaldatosi, il suolo a sua volta scalda l’aria sovrastante sia attraverso flussi di calore, sia con l’emissione di radiazione infrarossa. Ed è proprio questa radiazione infrarossa a essere intercettata dai gas serra, che la assorbono e poi la riemettono in tutte le direzioni, quindi anche verso il suolo. In conseguenza di questo processo, la superficie terrestre è riscaldata non solo dalla radiazione solare, ma anche da quella infrarossa riemessa dai gas serra. 66 Fig. 3 Il bilancio energetico dell’atmosfera terrestre e l’effetto serra. Questo fenomeno è noto come “effetto serra”. A voler essere rigorosi, occorre notare che la metafora della serra è molto valida dal punto di vista comunicativo (tutti abbiamo visitato una serra e sperimentato l’effetto di riscaldamento causato dalla presenza dei vetri, trasparenti alla radiazione solare, ma opachi alla radiazione infrarossa riemessa all’interno della serra), ma non è del tutto corretta. Nelle serre, infatti, il riscaldamento si ottiene impedendo alle correnti convettive (vedi Trasmissione del calore) che si generano all’interno di disperdere l’energia assorbita dalla radiazione solare, mentre nell’atmosfera lo stesso effetto di riscaldamento si ottiene impedendo al calore di allontanarsi dalla superficie terrestre per irraggiamento (vedi Irraggiamento). L’effetto dunque è lo stesso, ma i processi fisici in atto sono assai differenti. In generale, l’effetto serra è un fenomeno atmosferico-climatico che indica 67 la capacità del nostro pianeta – ma si osserva anche su altri pianeti e satelliti – di trattenere nella propria atmosfera parte dell’energia radiante proveniente dal Sole. È uno dei complessi meccanismi di regolazione dell’equilibrio termico della Terra. In sua assenza, il nostro pianeta sarebbe soggetto a grandi escursioni termiche, presenti su altri pianeti e satelliti privi di atmosfera o la cui atmosfera non presenta quantità significative di gas serra. Quindi, in linea di principio, l’effetto serra non è negativo, tutt’altro. Se sul nostro pianeta è possibile la presenza e lo sviluppo della vita, è proprio grazie a esso, prodotto come abbiamo visto da una serie di fenomeni che interagendo tra loro regolano costantemente la concentrazione dei gas serra in atmosfera, i quali agiscono mitigandone la temperatura globale. Il problema nasce quando si inizia ad alterare in maniera anomala il meccanismo di funzionamento di questo effetto, introducendo degli “elementi di disturbo”. E l’uomo, come sappiamo, è maestro in questo. T RASMISSIONE DEL CALORE Se abbiamo due corpi a temperatura diversa, il calore si trasmette sempre dal corpo più caldo, ovvero a temperatura più alta, a quello più freddo, cioè a temperatura più bassa. Il risultato è che il corpo più caldo si raffredda mentre quello più freddo si riscalda, fino a quando non raggiungono entrambi la stessa temperatura, ovvero l’equilibrio termico. Esistono tre modalità distinte con le quali il calore si trasmette: per conduzione, per convezione e per irraggiamento. Conduzione Il calore si trasmette per conduzione all’interno di alcune sostanze e da queste ad altre per contatto. Le sostanze capaci di trasmettere calore per conduzione vengono chiamate conduttori di calore. I migliori conduttori di calore sono i solidi metallici (argento e rame in testa). Il processo di conduzione si spiega a livello microscopico con la trasmissione di energia da un punto a un altro del solido – o da un corpo a un altro che si trova a contatto con questo – attraverso i continui e frequenti urti che avvengono fra le particelle che compongono i corpi. In particolare, in un metallo, il calore si trasmette grazie al moto degli elettroni liberi di vagare per il reticolo cristallino, che si urtano fra loro e con gli atomi del reticolo cristallino stesso. In una sostanza solida non metallica, il calore si trasmette invece attraverso le vibrazioni degli atomi all’interno del reticolo cristallino. Le sostanze che sono cattive conduttrici di calore prendono il nome di isolanti termici. Un isolante termico non ferma la conduzione di calore, ma è comunque in grado di ritardarla. Liquidi e gas sono in generale buoni isolanti termici, ma anche alcune sostanze solide, come il legno, la lana, la carta, il polistirolo. Convezione La trasmissione del calore per conduzione implica il passaggio di energia da atomo ad atomo, ma non implica alcun movimento collettivo della massa di una sostanza nel suo insieme. Questo avviene invece quando il calore si trasmette per convezione. In pratica, nel processo di trasmissione del calore per convezione, esso si trasmette attraverso il movimento della sostanza, che in generale deve essere fluida, ovvero allo stato liquido o aeriforme. Il meccanismo implica la formazione di correnti di convezione all’interno del fluido: se, per esempio, riscaldiamo un fluido dal basso, questo si dilata, diminuisce il proprio peso specifico e sale verso l’alto. Nel contempo il fluido più freddo scende perché più denso. Ma lì trova la fonte di calore e il processo continua. Perché si crei la convezione, che è un’applicazione del principio di Archimede, occorre quindi che la sostanza venga riscaldata in maniera non uniforme. In altri termini, la trasmissione del calore per convezione implica la formazione di celle convettive, ovvero di regioni separate della sostanza in cui si manifesta il flusso di convezione. Esempi 68 di celle convettive si osservano ovviamente nell’atmosfera terrestre, mentre a livello domestico sono facilmente rilevabili in una pentola piena d’acqua messa a riscaldare sul fuoco. In entrambi i casi, la sorgente di calore è in basso (la superficie terrestre nel caso dell’atmosfera, la fiamma nel caso della pentola). Irraggiamento Il terzo modo con cui il calore si trasmette è per irraggiamento, ovvero per emissione di “energia raggiante”, cioè di onde elettromagnetiche. Infatti, l’energia emessa dal Sole attraversa l’atmosfera per arrivare sino a noi, ma non si trasmette né per conduzione, dato che l’aria è un pessimo conduttore di calore, né per convezione, considerato che, perché cominci la convezione, occorre che la superficie terrestre sia già calda. Tutti i corpi assorbono ed emettono continuamente energia raggiante, per il solo fatto di trovarsi a una temperatura superiore allo zero assoluto. In particolare, maggiore è la temperatura del corpo, maggiore è l’irraggiamento, cioè l’intensità della radiazione emessa. Per esempio, il calore che percepiamo avvicinandoci a una lampada accesa è dovuto all’irraggiamento della lampada, che, oltre alla luce visibile, emette anche radiazione infrarossa, responsabile della sensazione di calore. Gas serra, quali e quanti Quando si parla di gas serra, si fa un gran parlare di anidride carbonica… ma è importante sapere che il gas serra più abbondante nell’atmosfera terrestre è il vapore d’acqua che, come abbiamo scritto poco sopra, è comunque presente in quantità molto bassa. Tutti gli altri gas serra sono presenti in concentrazioni ancora più piccole. Proprio per questo motivo, il contributo delle emissioni prodotte dalle varie attività umane è in grado di alterarne in maniera significativa la quantità. Naturalmente, l’impatto delle variazioni nella concentrazione di gas serra varia a seconda delle zone geografiche in cui si verifica. Nelle regioni equatoriali, particolarmente umide, dove quindi il contenuto di vapore acqueo è molto alto, l’aggiunta di piccole quantità di anidride carbonica o di vapore acqueo ha un impatto piuttosto limitato in termini di effetto serra. Al contrario, nelle fredde regioni polari, dove l’aria è piuttosto secca, piccoli incrementi di anidride carbonica o di vapore acqueo hanno effetti molto maggiori (e sensibili). Alcuni ricercatori hanno dei dubbi, ma è ormai accertato che la quantità di gas serra presenti in atmosfera è in aumento soprattutto a causa dell’uso dei combustibili fossili e della combustione delle biomasse. In generale, l’impatto delle attività dell’uomo come sorgente di gas atmosferici minoritari è assolutamente rilevante. Ma vediamo un po’ più da vicino questi gas, cominciando con la “regina” dei gas serra: l’anidride carbonica, nota anche come biossido (o diossido) di carbonio, in virtù della sua struttura molecolare, composta da due atomi di ossigeno legati a un atomo di carbonio. Le sorgenti di anidride carbonica sono numerosissime: si va dalla respirazione delle piante, alla decomposizione dei residui organici, dalla combustione alle diverse attività antropiche. L’assorbimento avviene tipicamente nei processi di fotosintesi e da parte degli oceani, nei quali è 69 presente in notevole quantità (molta di più di quanta se ne trovi in atmosfera). Le prime fonti di anidride carbonica atmosferica della neonata Terra sono state comunque i vulcani, ed è proprio grazie a essa che sul nostro pianeta si è potuto instaurare un clima favorevole allo sviluppo della vita. Oggi si calcola invece che i vulcani rilascino in atmosfera una quantità pari a meno dell’un per cento della quantità totale di anidride carbonica liberata in atmosfera dalle attività umane. A regolare le variazioni di concentrazione dell’anidride carbonica nell’atmosfera terrestre sono essenzialmente due fattori: la deforestazione e l’assorbimento da parte degli oceani. La prima contribuisce all’incremento sia a causa degli incendi impiegati per praticarla sia a causa della ridotta capacità delle foreste di rimuovere l’anidride carbonica in eccesso; il secondo agisce con maggiore efficacia a temperature basse, perché il riscaldamento da effetto serra porta a una minore capacità di assorbimento da parte degli oceani e contribuisce ad amplificarne l’effetto, con una retroazione positiva (feedback positivo). Un altro meccanismo di retroazione positiva si deve all’aumento della concentrazione dei gas serra, perché l’atmosfera riscaldata è in grado di contenere una maggior quantità di vapore acqueo, che intensifica ulteriormente l’effetto serra. Questa retroazione, in particolare, può essere così significativa da raddoppiare l’effetto serra dovuto soltanto all’anidride carbonica. Altre importanti retroazioni coinvolgono le nuvole, in grado sia di assorbire la radiazione infrarossa fornendo un contributo positivo in termini di temperatura all’effetto serra, quindi riscaldando la superficie terrestre, sia di riflettere la radiazione solare incidente, quindi raffreddandola. Nel bilancio generale, tuttavia, si ritiene che in media le nubi abbiano un effetto di raffreddamento sul clima. Gli altri gas serra sono ancora meno abbondanti dell’anidride carbonica, ma non per questo meno importanti in termini di effetto serra. Fra questi il principale è sicuramente il metano, composto da un atomo di carbonio legato a quattro atomi di idrogeno. Il metano ha diverse sorgenti primarie di immissione in atmosfera: il decadimento di materiale organico, la combustione delle biomasse, l’attività estrattiva di carbone e petrolio, la fermentazione enterica del bestiame (legata al processo digestivo di questi animali). Quest’ultima, per esempio, associata in prevalenza agli allevamenti di bestiame, contribuisce per circa il 40 per cento delle emissioni di metano legate ad attività antropiche. Fra l’altro, il metano ha un’elevata capacità di intrappolare il calore atmosferico – ben 25 volte superiore a quella 70 dell’anidride carbonica – motivo per cui è assolutamente necessario tenere sotto controllo la sua concentrazione in atmosfera. Un gas serra un po’ particolare è l’ozono, la cui molecola è composta da tre atomi di ossigeno legati insieme. L’ozono, infatti, a differenza degli altri gas serra, che assorbono la radiazione infrarossa riemessa dalla superficie terrestre, assorbe direttamente la radiazione solare. L’ozono è infatti capace di assorbire la radiazione ultravioletta proveniente dal Sole. Grazie a questa caratteristica, è considerato un gas essenziale alla vita sulla Terra, perché la sua presenza nella stratosfera protegge le forme di vita sul nostro pianeta dall’azione nociva di quei raggi, che non riescono quindi ad arrivare fino al suolo. L’ozono è abbondante negli strati alti dell’atmosfera e si concentra soprattutto attorno ai 25 km di altezza, dove è appunto presente l’ozonosfera. Tuttavia, questo gas può talvolta essere presente in piccole quantità anche negli strati più bassi (è infatti uno dei principali componenti dell’inquinamento atmosferico prodotto dall’uomo nelle grandi città). Purtroppo, a differenza dell’ozono stratosferico, che agisce come “protettore” delle forme di vita, quello troposferico risulta essere un inquinante molto velenoso, soprattutto se assorbito in grandi dosi attraverso la respirazione. Le condizioni ottimali perché si formi ozono in prossimità del suolo si verificano in estate nelle grandi aree urbane. La concomitanza di temperature elevate, radiazione solare intensa e atmosfera ricca di inquinanti è in grado di innescare la produzione di ozono troposferico. L’ozono stratosferico si forma invece per reazione chimica tra molecole e atomi di ossigeno in presenza di radiazione ultravioletta. L’ozono si forma infine anche da molecole di ossigeno in prossimità di scariche elettriche, scintille e fulmini. L’odore pungente, caratteristico e fortemente irritante, che si sente durante i temporali e in generale in prossimità di scariche elettriche è proprio quello dell’ozono, il cui nome deriva dal verbo greco olein, che significa puzzare. Poiché lo strato di ozono nell’alta atmosfera funge da filtro per le radiazioni ultraviolette, è molto importante controllare la distribuzione e la concentrazione del gas. Molta preoccupazione destò l’osservazione, a partire dagli anni Ottanta dello scorso secolo, della drastica riduzione della quantità di ozono stratosferico soprattutto in corrispondenza delle regioni polari, al punto che si è definita “buco dell’ozono” la regione a bassa concentrazione di questo gas al di sopra dell’Antartide. In realtà non è un vero e proprio buco, ma un assottigliamento dello strato, legato a fattori connessi all’attività antropica, fra cui l’emissione in atmosfera di sostanze capaci di danneggiare se non 71 addirittura di distruggere tale strato, come i celebri clorofluorocarburi, meglio noti con il nome commerciale di freon (di proprietà della DuPont, Stati Uniti), di cui si è fatto uso come fluidi refrigeranti nei cicli frigoriferi a compressione, come quelli dei frigoriferi presenti nelle nostre cucine. Adesso alcuni di questi composti, in particolare quelli contenenti cloro, sono stati banditi (dal 1990, per la precisione), ma restano impiegati negli usi per cui non è ancora stato possibile trovare gas sostitutivi. Concludiamo questa parte sui gas serra tornando per un attimo al vapore acqueo, che abbiamo detto essere il principale gas serra. È vero, ma è anche vero che esiste una differenza fondamentale tra il vapore acqueo e la maggior parte dei gas serra. Mentre infatti una molecola di andidride carbonica o di metano può rimanere in atmosfera centinaia di anni, l’acqua viene continuamente rimessa in circolazione tra l’atmosfera, la superficie terrestre e gli oceani. A conti fatti, una specifica molecola d’acqua resta in atmosfera in media per due settimane. Se prendiamo in considerazione le scale temporali climatiche, che sono ovviamente molto più estese di due settimane, si osserva che la concentrazione di acqua nell’atmosfera e sulla superficie terrestre è sostanzialmente prossima all’equilibrio. Questo significa che la quantità di acqua immessa nell’atmosfera attraverso il processo di evaporazione attivo al suolo è pari a quella che viene restitutita al suolo attraverso le precipitazioni. Va aggiunto inoltre che le attività umane hanno una limitata influenza sulla quantità di vapore acqueo in atmosfera, che può variare indirettamente solo attraverso eventuali cambiamenti climatici indotti per altra via (ovvero attraverso le emissioni di altri gas serra, come anidride carbonica e metano). 72 “ EFFETTO FARFALLA”, OVVERO LA SCIENZA DEL CAOS Arrivati a questo punto, merita la pena fare una riflessione sul problema delle previsioni del tempo e sul perché la materia è così complessa. Facciamo un po’ di storia. Secondo il matematico e astronomo francese Pierre-Simon de Laplace (1749-1827), se conoscessimo esattamente lo stato iniziale di un sistema e le leggi che ne regolano il moto, potremmo determinarne l’evoluzione per un qualunque tempo futuro. Purtroppo questo non è mai possibile, come stabilì il suo connazionale Jules-Henri Poincaré (1854-1912), anch’egli matematico e astronomo, fra i primi a studiare il moto di un sistema complesso con gli strumenti della geometria (lo vedremo più avanti in questo capitolo). Il problema sta proprio nell’impossibilità di conoscere con infinita precisione lo stato iniziale del sistema. Da qui il matematico e meteorologo statunitense Edward Norton Lorenz (1917-2008), del prestigioso Massachusetts Institute of Technology (MIT) di Boston, ha preso le mosse per inaugurare la “scienza del caos”. Vediamo di che cosa si tratta. In principio era un gabbiano, e solo dopo diventò una farfalla. Il primo a parlarne fu appunto Lorenz, nel 1963, quando affermò che «un battito d’ali di un gabbiano sarebbe sufficiente per alterare il corso del tempo atmosferico per sempre». Nove anni dopo, sempre Lorenz intitolò un suo intervento Predicibilità: può il battito d’ali di una farfalla in Brasile generare un uragano in Texas? e da quel momento il fenomeno a cui si riferiva prese il nome di “effetto farfalla”. In entrambi i casi, Lorenz si riferiva alla “dipendenza sensibile dalle condizioni iniziali”, espressione con la quale si designa il fenomeno per cui una piccola variazione introdotta in un sistema dinamico complesso – come l’atmosfera, appunto – può farlo evolvere nel tempo in maniera impredicibile. Ma come può accadere un fenomeno del genere? Alla base di comportamenti del genere ci sono sempre sistemi complessi, ovvero sistemi costituiti da un gran numero di componenti elementari che interagiscono tra loro con leggi semplici e ben conosciute, ma che a livello collettivo hanno comportamenti complicati e sostanzialmente imprevedibili. Queste proprietà “emergenti” a livello globale sono la “firma” della complessità. L’atmosfera terrestre è proprio un esempio di sistema complesso che abbiamo ogni giorno sotto gli occhi: costituita in massima parte da molecole di gas e vapore acqueo che interagiscono attraverso semplici urti, su grande scala (quella appunto dei fenomeni atmosferici), mostra infatti un 73 comportamento estremamente complesso e, come sappiamo, difficilmente prevedibile per tempi superiori a qualche giorno. Ma complessità diverse possono manifestarsi a livelli diversi, non solo nell’atmosfera. Una cellula è un sistema complesso fatto di molecole, e un organismo vivente è un sistema complesso fatto di cellule. In entrambi i casi, il comportamento del sistema complessivo emerge dall’interazione fra i costituenti al livello più basso. Fra gli esempi di sistemi complessi non può mancare il cervello: quest’ultimo, pur essendo “solo” una rete di neuroni che si scambiano semplici impulsi elettrici, è capace di dare un senso alle parole che state leggendo! Seguendo questa visione, c’è addirittura chi interpreta l’epilessia e altre disfunzioni del cervello come fenomeni caotici, aprendo interessanti prospettive di ricerca. Una delle manifestazioni della complessità è la dinamica caotica: sebbene obbediscano alle rigide leggi della meccanica di Newton in cui non c’è spazio per il caso, i sistemi caotici evolvono nel tempo in modo di fatto imprevedibile, se non per tempi molto brevi. E allora come si può capire se un sistema manifesterà o meno un comportamento caotico? Studiando geometria. In particolare, descrivendo il moto del sistema in un nuovo spazio, detto “spazio delle fasi”, diverso da quello ordinario in cui viviamo, e andando a vedere le forme, dette “attrattori”, che il moto disegna in questo stesso spazio. Se poi questi attrattori sono “frattali”, siamo in presenza di un sistema caotico. Ma procediamo con ordine. Per capire lo spazio delle fasi, supponiamo di voler dire dove si trova quella fastidiosa mosca che sta ronzando nel nostro salotto: basterà dare tre numeri, per esempio la distanza dal pavimento, quella dalla parete con la finestra e quella dalla parete con la porta. In questo modo sappiamo dov’è la mosca ora, ma non abbiamo nessuna idea di dove potrebbe trovarsi fra poco, perché le mosche non stanno ferme! Allora bisogna dare anche altri tre numeri che ci dicono quanto velocemente si sta allontanando, o avvicinando, al pavimento e alle due pareti. Questi sei numeri, tre posizioni e tre velocità, descrivono completamente lo stato della mosca in un certo istante. E come le tre distanze dalle pareti e dal pavimento descrivono la posizione nello spazio a tre dimensioni, i sei numeri descrivono la posizione del nostro sistema (la mosca) in uno spazio a sei dimensioni, che si chiama lo spazio delle fasi. In pratica, un punto nello spazio delle fasi descrive completamente lo stato di un sistema fisico. E la successione dei punti occupati nello spazio delle fasi al passare del tempo si chiama traiettoria del sistema, proprio come la più 74 familiare traiettoria percorsa da un oggetto nello spazio ordinario a tre dimensioni. I sistemi con dinamica semplice descrivono traiettorie regolari nello spazio delle fasi, quelli con dinamica caotica tracciano traiettorie complicatissime e intricate. I sistemi dinamici si studiano proprio analizzando le “curve” che questi costruiscono nello spazio delle fasi durante la loro evoluzione. A seconda del tipo di moto, periodico, smorzato o caotico, il sistema disegna infatti forme diverse nello spazio delle fasi: punti fissi, curve o superfici regolari, zone irregolari. Queste forme prendono il nome di “attrattori”, proprio perché il moto viene “attratto” verso di esse. Un attrattore è proprio quella regione dello spazio delle fasi dove i sistemi vanno a finire se si aspetta abbastanza a lungo. Alcuni attrattori hanno forme semplici (un punto, un’ellisse), ma gli attrattori dei sistemi caotici sono molto intricati, e per questo vengono chiamati “attrattori strani”. Si tratta di figure ben più complicate di un punto o di una linea e soprattutto si tratta di oggetti che, sorprendentemente, hanno una dimensione che non è uguale a un numero intero! In effetti, a scuola ci insegnano che una linea ha una sola dimensione; una superficie, come quella di un foglio di carta o di un palloncino, ha due dimensioni; un volume, come quello occupato da una stanza, ha tre dimensioni. Parlando di spazi delle fasi abbiamo trattato oggetti con un numero qualsiasi di dimensioni, ma pur sempre un numero intero. Gli “attrattori strani”, invece, hanno dimensioni intermedie fra due numeri interi. Un attrattore strano in un spazio delle fasi a tre dimensioni ha una dimensione compresa fra 2 e 3, un numero non intero, appunto. In altre parole, un attrattore strano è un po’ di più di una superficie, ma un po’ meno di un volume. Figure geometriche come gli attrattori strani, con dimensioni non intere, si chiamano “frattali” (dal latino fractus, spezzato), secondo la definizione del matematico francese di origine polacca Benoît Mandelbrot (1924-2010), ideatore del concetto di dimensione frazionaria. È proprio l’attrattore strano a caratterizzare una situazione dinamica nella quale il moto, pur essendo attratto in una regione delimitata dello spazio delle fasi (l’attrattore strano, appunto), continua a permanere indefinitamente aperiodico (cioè non si ripete mai uguale a se stesso) e mostra la forma di “instabilità” nota come “dipendenza sensibile dalle condizioni iniziali”: due condizioni iniziali che, nello spazio delle fasi, pur trovandosi in posizioni infinitamente vicine, divergono l’una dall’altra in un tempo finito. In altre parole, partendo da due stati iniziali anche solo leggermente differenti, un sistema può seguire evoluzioni temporali molto diverse, fino a diventare 75 sostanzialmente impredicibile, nonostante le leggi che ne regolano il moto siano esatte e conosciute, in quanto un piccolo errore nella conoscenza del suo stato in un certo istante di tempo, scelto come istante iniziale, può propagarsi a tal punto da provocare errori anche grandi nelle previsioni della sua evoluzione negli istanti futuri. È il famoso “effetto farfalla” da cui siamo partiti. Ed è anche il segnale distintivo del cosiddetto moto caotico. Scienza del caos applicata La scienza del caos è il tentativo di comprendere le regole (precise) che stanno dietro comportamenti o moti apparentemente casuali e disordinati, come lo sgocciolio di un rubinetto o l’aperiodicità del battito cardiaco. Per questo motivo, lo studio dei sistemi dinamici complessi trova applicazione in moltissimi campi del sapere, dall’andamento temporale dei mercati finanziari allo studio del cervello. Un sistema caotico è necessariamente non lineare. Con ciò si intende che la sua evoluzione è descritta da un sistema di equazioni (tipicamente differenziali), delle quali almeno una è non lineare, ovvero non esprimibile come combinazione lineare delle variabili presenti (e di una costante), per esempio contenendo almeno un termine di grado diverso da uno, come potrebbe essere un’incognita elevata al quadrato o un prodotto di due incognite. Il comportamento caotico di un sistema non è infatti associato al numero di variabili necessarie per descriverne l’evoluzione nel tempo; anzi, in alcuni casi può essere dovuto alla specifica interazione tra poche variabili. In particolare, un sistema di tre equazioni differenziali non lineari è sufficiente a creare un andamento caotico. A determinare il comportamento complesso è solitamente un feedback, cioè una retroazione del sistema su se stesso. Tale feedback è appunto rappresentato nel sistema di equazioni dal termine non lineare. La dinamica caotica è la norma e non l’eccezione in natura. I moti regolari sono spesso solo un caso limite, che si manifesta quando i sistemi dinamici sono sottoposti a stimoli deboli. Anche i moti che sono sempre stati considerati regolari per eccellenza, quelli dei pianeti e dei corpi celesti, possono in realtà diventare caotici. Comprendere le caratteristiche del caos ci permette quindi di fare un passo avanti nella comprensione della natura e magari anche di evitare di mettere satelliti artificiali (o peggio astronavi con equipaggio) su orbite che possono diventare caotiche. La scienza del caos ci ha anche insegnato che non avremo mai previsioni del tempo esatte: ma capire meglio il caos potrà aiutarci a capire come migliorarle e quanto lontano 76 ci potremo spingere. Frattali in natura Anche i frattali hanno applicazioni importanti, e non solo nello studio dei sistemi caotici. Le superfici rugose di alcuni materiali vengono descritte in termini di geometria frattale. Lo studio delle irregolarità di una frattura coinvolge concetti simili. Ma si è arrivati anche ad applicazioni in medicina: si parla di struttura frattale del reticolo di canali e canaletti che costituisce un polmone umano. Resa possibile dalla nascita dei calcolatori, la geometria dei frattali ha molti altri impieghi interessanti nello studio della natura. Le coste, le montagne, le nuvole, le foglie di una felce, le ramificazioni degli alberi possono essere considerate tipici frattali naturali, ma, oltre ai polmoni, il corpo umano è ricco di esempi: i villi intestinali, i capillari del sistema circolatorio, i neuroni, le circonvoluzioni cerebrali. Tutti sistemi che, a diversi livelli, mostrano un certo grado di autosomiglianza, ovvero quella caratteristica, tipica degli attrattori strani e dei frattali, di apparire simili se li si guarda a ingrandimenti diversi: se un frattale appare intricato, ingrandito cento o mille volte appare intricato esattamente allo stesso modo. 77 I MOTI ATMOSFERICI FRA HALLEY, HADLEY E CORIOLIS Tra la fine del XVII e l’inizio del XVIII secolo molti scienziati indagarono la fisica dell’atmosfera, sia dal punto di vista della struttura e composizione chimica, che dal punto di vista della dinamica, cioè dei suoi moti interni. Lo sviluppo teorico più significativo fu l’introduzione del concetto di circolazione complessiva dell’atmosfera, attraverso il quale iniziò a diffondersi l’idea che l’atmosfera fosse un’entità unica, che risente in una certa regione di ciò che accade anche a grande distanza. Fra questi vi fu anche il britannico Edmond Halley (1656-1742), certamente più celebre per aver calcolato l’orbita della cometa che adesso porta il suo nome e per aver invitato l’amico e collega Isaac Newton a scrivere i suoi Philosophiae Naturalis Principia Mathematica (il trattato su cui si basa tutta la meccanica classica, dove Newton enuncia le sue leggi della dinamica e la legge di gravitazione universale), che Halley pubblicò nel 1687 a proprie spese, avendone riconosciuto l’incredibile valore scientifico. Le ricerche di Halley – che studiò i venti, come gli alisei e i monsoni, identificando nel riscaldamento solare la causa dei moti atmosferici, e stabilì anche la relazione fra la pressione barometrica e l’altezza sul livello del mare – furono molto importanti per la scienza meteorologica, che trovò negli studi di un dilettante la spinta più significativa dell’epoca. Fu l’inglese George Hadley (1685-1768), che di mestiere faceva il giurista, ad appassionarsi alla meteorologia al punto da dedicare a essa gran parte del proprio tempo libero. Hadley era in particolare attratto dallo studio dei venti alisei, noti nel mondo anglosassone con l’espressione trade winds, che significa “venti commerciali”, perché strettamente legati alle rotte commerciali fra l’equatore e i tropici. In particolare, Hadley voleva individuarne l’origine, considerando che questi sono venti costanti nelle zone tropicali, diretti da nord-est verso sud-ovest nell’emisfero boreale e da sud-est verso nord-ovest in quello australe, che spingono le imbarcazioni a vela in direzione delle Americhe (noti da lungo tempo, vennero abilmente sfruttati anche da Cristoforo Colombo nei viaggi che lo portarono alla scoperta dell’America). Le ricerche di Hadley culminarono con la pubblicazione nel 1735 sulla prestigiosa rivista Philosophical Transactions of the Royal Society di un articolo dal titolo significativo “Concerning the Cause of the General Trade Winds” (sull’origine degli alisei), in cui sosteneva che a causare gli alisei fosse la rotazione della Terra attorno al proprio asse, moto che doveva combinarsi 78 con quello dovuto allo spostamento delle masse d’aria rispetto alla superficie terrestre. In particolare, secondo Hadley, le masse d’aria in moto da una latitudine a un’altra dovrebbero essere soggette alla conservazione della quantità di moto (in realtà, essendo la Terra un sistema in rotazione, è invece coinvolta la conservazione del momento angolare, come verrà dimostrato in ricerche successive). Nonostante la teoria fisica fosse errata, alcuni suoi esperimenti con palloni lo portarono alla scoperta dei moti ascendenti e discendenti in aria causati da variazioni locali di temperatura, che, considerati globalmente, vanno a definire una modalità di circolazione verticale dell’aria nell’atmosfera terrestre. Per questi suoi studi, alle celle in circolazione verticale poste alle latitudini comprese fra l’equatore e i tropici è stato dato il nome di “celle di Hadley”. La cella di Hadley rappresenta un tipo di circolazione tipicamente convettiva che coinvolge l’atmosfera tropicale. In pratica, nei pressi dell’equatore, dove la temperatura al suolo è in media più alta, si genera un’ascesa di aria calda che, una volta arrivata a una quota di circa 10-15 km, si muove verso i tropici, alle cui latitudini torna a scendere verso la superficie terrestre, per poi dirigersi nuovamente verso l’equatore. Sono proprio questi moti di “rientro” dai tropici verso l’equatore a dare origine ai venti alisei, che si manifestano appunto al livello del mare. Curiosamente, l’articolo di Hadley non ebbe grande fortuna al momento in cui venne pubblicato, anche perché trattava un tema particolarmente complesso come quello della combinazione di moti in sistemi in rotazione, e quindi non inerziali, il cui studio doveva ancora essere approfondito. Ma non fu solo la difficoltà dell’argomento a giocare a sfavore della diffusione della teoria di Hadley. Già, perché il suo nome veniva costantemente confuso con quello di altri due scienziati. Uno era il già citato Halley, l’altro John Hadley, suo fratello maggiore, famoso in ambito astronomico per aver ideato un tipo di sestante (strumento con il quale si misura l’altezza delle stelle sopra l’orizzonte, per determinare la posizione della nave in mare). Inoltre, il fatto che Halley avesse pure fornito una spiegazione, seppure meno elaborata, alla formazione degli alisei contribuì ad alimentare ulteriormente la confusione. Fu solo grazie a un articolo pubblicato nel 1793 che il lavoro di Hadley venne riscoperto e riconosciuto per il suo valore. Autore di quel lavoro era John Dalton (1766-1844) che, oltre a studiare e insegnare fisica e chimica e a teorizzare la struttura atomica, si dedicò anche alla meteorologia, di cui era appassionato cultore. 79 Coriolis: ancora tu, ma non dovevamo vederci più? Si è già detto dei notevoli sviluppi teorico-matematici che raggiunse la meccanica classica fra il 1700 e il 1800 (il ramo teorico della meccanica prende il nome di meccanica razionale, o meccanica analitica). Molti di questi studi in realtà trovavano delle applicazioni importanti dal punto di vista tecnico soprattutto nella produzione di macchine industriali. Uno degli argomenti oggetto di indagine teorica era lo studio di corpi in rotazione, di particolare importanza nel funzionamento di molte macchine presenti nelle fabbriche. Fra i matematici, fisici e ingegneri che si dedicarono a esso, spicca il nome del matematico e ingegnere francese Gaspard-Gustave de Coriolis (17921843), che dà il nome alla forza e all’effetto che abbiamo incontrato nel precedente capitolo. Fu proprio in un suo celebre articolo del 1835, intitolato “Sur les équations du mouvement relatif des systèmes de corps” (sulle equazioni del moto relativo dei sistemi di corpi), che fece la sua comparsa la forza che adesso porta il suo nome e che è alla base anche della spiegazione, fra tanti altri fenomeni, dei venti alisei, nonostante Coriolis, in quell’articolo, non si occupasse nello specifico di meteorologia, ma del trasferimento di energia in macchine rotanti. Furono altri ad applicare i risultati di Coriolis alla dinamica dell’atmosfera e a scoprire l’importanza di tale forza nelle deviazioni delle masse d’aria, ma solo agli inizi del XX secolo si cominciò a citare esplicitamente l’uso della forza di Coriolis in meteorologia. Una volta diffuso, il lavoro di Hadley spinse altri meteorologi a studiare il moto delle masse d’aria nell’atmosfera terrestre, fra cui lo statunitense William Ferrel (1817-1891), alle cui ricerche si deve la scoperta dell’esistenza di celle simili a quelle studiate da Hadley, ma poste a latitudini intermedie e con venti prevalenti sempre spinti dalla deflessione dell’aria imposta dalla forza di Coriolis: tali celle, che si trovano fra 30° e 60° circa, sia a nord che a sud dell’equatore, sono appunto note come celle di Ferrel (o di media latitudine). Fu ancora Ferrel a correggere l’errore di Hadley su quale fosse la grandezza fisica che doveva conservarsi nel moto delle masse d’aria, dimostrando – come accennato sopra – che a restare costante doveva essere il momento angolare e non la quantità di moto di tali masse. Per completezza, ricordiamo che, oltre alle celle di Hadley e a quelle di Ferrel, esistono anche quelle polari, che si estendono da 60° di latitudine nord e sud fino ai poli. Queste tre celle, tutte insieme, costituisco il modello generale della circolazione dell’aria atmosferica proposto inizialmente da Hadley. 80 MA DA DOVE TIRA IL VENTO? Come abbiamo detto, la forza di Coriolis compare solo su oggetti in moto su sistemi in rotazione, e in particolare è la forza responsabile della deviazione della traiettoria di un oggetto dalla sua traiettoria inerziale. Questa deviazione è appunto nota come “effetto Coriolis”. D’altra parte, su corpi fermi rispetto a un sistema in rotazione, per un osservatore solidale al sistema stesso, si osserva in azione solo la forza centrifuga. È un esercizio interessante provare ad applicare l’effetto Coriolis ai moti a grande scala delle masse d’aria in atmosfera… per vedere appunto l’effetto che fa! Ebbene, se avevate ancora dubbi sull’importanza di tale effetto nella meteorologia, sappiate che grazie a esso è possibile spiegare la formazione di cicloni e anticicloni e capire il loro verso di rotazione a seconda dell’emisfero in cui si manifestano. Sorprendente, vero? Innanzi tutto è opportuno spiegare che per ciclone i meteorologi intendono, in termini generali e indipendentemente dalla violenza del fenomeno, una regione dell’atmosfera in cui la pressione atmosferica è minore di quella delle regioni circostanti alla stessa altitudine: in altre parole una regione a bassa pressione, in cui si ha quindi convergenza di masse d’aria negli strati bassi, proveniente da regioni ad alta pressione. Viceversa, gli anticicloni, o zone di alta pressione, sono tipicamente le regioni a tempo atmosferico stabile. È facile osservare – anche studiando una mappa meteorologica, ma più facilmente guardando uno dei tanti filmati di cicloni ripresi da satellite – che nell’emisfero boreale l’aria ciclonica si muove spinta da un sistema di venti che circolano in senso antiorario, mentre nell’emisfero australe accade esattamente l’opposto, ovvero che i cicloni ruotano in senso orario. In entrambi i casi si osserva comunque anche una componente di moto delle masse d’aria convergente verso il centro dell’area ciclonica (il famoso “occhio del ciclone”). Ora, per spiegare questo fenomeno è sufficiente pensare a una massa d’aria ad alta pressione che, posta a una certa latitudine, inizia a muoversi verso una massa d’aria a bassa pressione, posta a una latitudine diversa (maggiore o minore, non importa, a patto che sia comunque nello stesso emisfero). Se per esempio prendiamo in considerazione l’emisfero boreale, il moto della massa d’aria ad alta pressione verrà sempre deviato verso destra in virtù della forza di Coriolis, costringendo quindi questa massa a ruotare in senso antiorario attorno alla massa a bassa pressione. Un ragionamento analogo vale 81 naturalmente per l’emisfero australe, dove la forza di Coriolis agisce invece deviando le masse in moto fra latitudini diverse verso sinistra e costringendole quindi a ruotare in senso orario attorno alle regioni a bassa pressione. I cicloni tropicali, che si manifestano tipicamente alle basse latitudini (da cui l’attributo di tropicali), sono fra le più violente perturbazioni atmosferiche. Generalmente accompagnati da piogge a carattere torrenziale, questi cicloni si formano in mare aperto – dove raccolgono e condensano il vapore acqueo liberato in grandi quantità dalle acque oceaniche ad alta temperatura – e si muovono anche a velocità sostenute, arrivando talvolta sino alla terraferma, dove la loro intensità diminuisce, ma resta comunque sufficiente per provocare ingenti danni. Quelli più violenti, noti anche con il nome di uragani, sono infatti caratterizzati da venti fortissimi, con velocità abbondantemente superiori ai 100 chilometri orari, capaci quindi di produrre violente mareggiate e di spazzare via qualunque ostacolo incontrino nel loro cammino, come sappiamo anche dalle cronache di questi ultimi anni, con uragani come il terribile Katrina, che colpì New Orleans nell’agosto 2005 con picchi di vento oltre i 280 chilometri orari, o il più recente Sandy, con venti massimi di “appena” 175 chilometri orari, arrivato a colpire New York nell’ottobre 2012. Nonostante il nome faccia pensare il contrario – in genere il prefisso “anti-” sta per antagonista, avversario – gli anticicloni sono invece molto più tranquilli, anche perché in genere in corrispondenza di un anticiclone si osserva una regione di tempo meteorologico favorevole e stabile. Così, mentre i cicloni, soprattutto quelli tropicali, hanno spesso conseguenze catastrofiche, gli anticicloni sono caratterizzati da venti a regime di brezza, che si muovono in senso orario nell’emisfero boreale e in senso antiorario nell’emisfero australe. Una volta afferrato il meccanismo di funzionamento della forza di Coriolis, non è difficile stabilire dove si trovino rispetto a noi le regioni di alta e di bassa pressione… a patto di essere in grado di misurare un po’ di vento! Per svolgere questo esercizio può esserci d’aiuto una legge empirica, detta di Buys Ballot, che prende appunto il nome da Christoph Hendrik Diederik Buys Ballot (1817-1890), il meteorologo olandese che per primo nel 1857 ne fornì una spiegazione. Per prima cosa andrà individuata la direzione da cui soffia il vento. Poi, rivolgendo le spalle a questa, basterà pensare ai ragionamenti svolti poco sopra sull’effetto Coriolis e su come questo devia le masse d’aria. Quindi, se ci troviamo nell’emisfero boreale, il vento alle spalle ci indicherà 82 che l’area di bassa pressione sarà alla nostra sinistra, e, di conseguenza, quella di alta pressione si troverà alla nostra destra. Ragionamento opposto andrà fatto nell’emisfero australe, dove, dando le spalle al vento, troveremo l’area di bassa pressione a destra e quella di alta pressione a sinistra. Con ciò non verrete probabilmente assunti da alcun “servizio meteorologico”, ma potrete provare a stupire i vostri amici. Ma fate attenzione, perché la legge di Buys Ballot, essendo una norma empirica, ha una validità approssimativa, legata al fatto che non tiene conto di eventuali ostacoli naturali o artificiali in grado di deviare la direzione del vento. Se però vi trovate ad alta quota o in mare aperto, potete andare sul sicuro e applicarla senza timore. Buone sperimentazioni meteorogiche! 83 LE PRECIPITAZIONI PRECIPITANO, PRECIPITEVOLISSIMEVOLMENTE Un celebre proverbio recita: «Chi troppo in alto sal cade sovente, precipitevolissimevolmente!». Detto che si addice alla perfezione al vapore acqueo che si forma al suolo e che viene eventualmente trasportato in alto dalle correnti d’aria ascendenti. (Curiosamente, la parola “precipitevolissimevolmente” è una fra le più lunghe della lingua italiana, ed è, da sola, un endecasillabo!) In effetti, fin qui abbiamo scoperto come si spostano le masse d’aria e da dove soffia il vento. A questo punto può essere interessante scoprire qualcosa in più del fenomeno meteorologico più diffuso e conosciuto: la pioggia. Ognuno di noi, almeno una volta nella vita, ha sperimentato sulla propria testa – protetta o non protetta da ombrelli, cappucci impermeabili o copricapo improvvisati – l’effetto di quelle che i professionisti del meteo chiamano tecnicamente “precipitazioni”. Il termine lascia chiaramente intendere che le gocce d’acqua precipitano, ovvero cadono dall’alto verso il basso. In effetti non si è mai visto il fenomeno inverso, che andrebbe chiaramente contro la forza di gravità, anche se… Ma procediamo con ordine. Piove, guarda come piove Le gocce di pioggia sono il risultato dell’evaporazione dell’acqua proveniente da varie sorgenti, come oceani, mari, laghi, fiumi, ma anche suolo e vegetazione. Quando tante gocce d’acqua si trovano raccolte tutte insieme si forma una nube. Può però sembrare strano che queste gocce, prima di cadere sotto l’effetto della forza di gravità, se ne possano stare tranquille lassù in alto anche per molto tempo, come se, appunto, non fossero soggette all’inesorabilità della legge di gravitazione universale. In realtà, come si è detto, il vapore acqueo, che ha origine al livello del suolo, è trasportato verso l’alto dalle eventuali correnti ascendenti. In questa salita naturalmente si raffredda, raggiungendo quindi la saturazione. Ora occorre sapere che in termodinamica il punto di saturazione, per un vapore di una data sostanza, è la temperatura (non fissa, ma variabile a seconda delle condizioni di pressione) al di sotto della quale il vapore diviene saturo, ossia ha inizio la condensazione. Quando si parla di vapore acqueo (o della sua miscela con l’aria), viene impiegata anche l’espressione “punto di rugiada”, che è appunto la temperatura – bassa, tipicamente – a cui si forma la rugiada, che è il fenomeno di condensazione del vapore acqueo al suolo e sulle superfici delle 84 foglie. In condizioni normali, tuttavia, non si potrebbe avere la condensazione del vapore e quindi la formazione di nubi, ma si dà il caso che nell’aria siano presenti particelle di pulviscolo e cristalli di ghiaccio che agiscono come “nuclei di condensazione” (detti anche nuclei igroscopici), di dimensioni estremamente piccole, che promuovono e rendono più agevole la trasformazione di stato del vapore acqueo in gocce di liquido. La pioggia inizia a cadere solo quando il peso della gocciolina d’acqua diventa maggiore della resistenza offerta dal moto ascendente che ha portato alla formazione della nube stessa. È infatti proprio questa resistenza a mantenere le goccioline in sospensione nell’aria. Finché restano isolate e di piccole dimensioni, le goccioline d’acqua non hanno la possibilità di acquistare la velocità di caduta della pioggia. Tuttavia, queste possono aumentare le proprie dimensioni attraverso due processi: la collisione con altre gocce e la coalescenza, fenomeno che consiste nel fatto che goccioline piccole tendono ad aggregarsi a quelle più grandi per rendere minima l’energia del sistema (si può per esempio osservare il fenomeno della coalescenza su una superficie bagnata su cui si trovino delle gocce in movimento: si vedrà che queste tenderanno a raggrupparsi per formare un minor numero di gocce, ma di dimensioni maggiori). Le gocce che raggiungono le dimensioni sufficienti per iniziare a cadere hanno velocità tanto maggiori quanto maggiore è il loro raggio. Queste, cadendo, vanno ovviamente a urtare altre goccioline più piccole ancora in sospensione, inglobandole. Le goccioline scendono comunque a velocità piuttosto basse, tali che basta un moto d’aria ascendente per riportarle in alto. Comunque, in generale, finché le gocce restano dentro la nube, tendono naturalmente ad aumentare le loro dimensioni, talvolta anche attraverso processi elettrostatici, consistenti nell’aggregazione di gocce elettricamente cariche di segno opposto. A questo punto dovrebbe essere chiaro perché a volte cadono pioggerelline, mentre altre volte si scatenano veri e propri acquazzoni. In pratica, si tratta di capire quanto tempo una goccia d’acqua trascorre a ingrandirsi dentro la nube prima di arrivare al suolo. Ma tenete presente che l’intensità di una pioggia può aumentare anche nel caso in cui sia “aiutata” dal moto di masse d’aria discendenti: in questo caso, alla semplice velocità di caduta delle gocce d’acqua si somma anche quella di discesa delle masse d’aria… con risultati che a volte possono essere devastanti! “Bombe d’acqua” e piogge torrenziali trovano origine proprio nella somma di queste velocità. 85 Quando non è acqua… è ghiaccio! Talvolta capita che il vapore acqueo diventi direttamente ghiaccio, senza prima passare allo stato liquido (in fisica, il passaggio diretto dallo stato aeriforme a quello solido prende il nome di brinamento; il processo inverso, ovvero il passaggio dallo stato solido a quello aeriforme, si chiama sublimazione). È così che si forma la neve, a patto che l’aria in cui questa si forma si trovi in particolari condizioni, ovvero in presenza di temperature al di sotto dello zero centigrado e in assenza di turbolenze e velocità ascensionali elevate. Come ogni lettore sa bene, la neve è costituita da piccoli cristalli di ghiaccio, agglomerati a formare i fiocchi, splendide figure simmetriche e sempre diverse. È importante sottolineare che i piccoli cristalli da cui ha origine la neve per brinamento possono, in particolari circostanze, diventare “nuclei di ghiacciamento” capaci di produrre i ben più massicci chicchi di grandine, che riescono naturalmente a formarsi e a restare in sospensione solo in presenza di intensi moti ascendenti di masse d’aria. Quando infine il peso del chicco di grandine è tale da vincere la forza delle correnti ascensionali, questo precipita al suolo. Le sue caratteristiche dipendono quindi dalla nube che lo ha generato: maggiore è l’intensità delle correnti verticali della nube, maggiori saranno il peso e le dimensioni del chicco. Anche la grandine, quindi, come la neve, è una forma di precipitazione allo stato solido, composta da cristalli di ghiaccio, che possono però avere dimensioni e forma variabili. Anche se solitamente la grandezza dei chicchi è uguale a quella di una nocciolina, accade spesso che raggiungano dimensioni più ragguardevoli, tali da produrre seri danni, e non solo alle coltivazioni. Lo stato della precipitazione – ovvero se è solida o liquida, o in entrambi gli stati – dipende dalla temperatura degli strati atmosferici attraversati durante la caduta. In particolare, se la temperatura è negativa a qualunque quota, allora la precipitazione è generalmente allo stato solido (in realtà la precipitazione può arrivare sul terreno sotto forma di neve anche per temperature al suolo leggermente superiori allo zero centigrado). Se invece la precipitazione, che in quota di solito è allo stato solido, cadendo incontra gli strati atmosferici più bassi trovandoli a temperature sopra lo zero centigrado, allora si scioglie e arriva al suolo allo stato liquido sotto forma di pioggia. Tuttavia la grandine rappresenta un’eccezione. Essa, infatti, date le dimensioni dei chicchi e le conseguenti velocità di caduta, non viene molto influenzata dalla temperatura degli strati bassi dell’atmosfera. A dimostrazione di questo possiamo citare il fatto che le grandinate possono verificarsi anche in estate, quando gli strati 86 atmosferici più bassi sono sicuramente a temperature di diversi gradi sopra lo zero centigrado. Nonostante i chicchi di grandine abbiano forme meno suggestive dei fiocchi di neve, loro fratelli minori, anch’essi hanno una struttura che rivela la loro storia. Studiati da vicino, i chicchi di grandine mostrano una tipica struttura “a cipolla”, prodotta, durante il processo di formazione del chicco, dall’accumulo di vari strati sovrapposti di ghiaccio che non si compenetrano. All’origine di questi strati è la presenza, nelle nubi in cui si forma la grandine, di forti correnti verticali, sia ascendenti che discendenti: il chicco è quindi sottoposto a una serie più o meno lunga di salite e discese durante le quali aumenta le proprie dimensioni stratificando il ghiaccio. Curiosamente, gli strati sono costituiti sia da ghiaccio opaco che da ghiaccio trasparente. Gli strati di ghiaccio opaco, o bianco, si formano alle quote più alte, dove le temperature molto basse portano a rapida solidificazione le gocce d’acqua, all’interno delle quali rimangono intrappolate delle bolle d’aria. Gli strati di ghiaccio trasparente, frutto di un processo di solidificazione più lento, si producono invece nei passaggi a quote più basse, e quindi a temperature leggermente più alte. In pratica, ogni strato rappresenta un nuovo viaggio del chicco verso la parte alta della nube e il suo conseguente ritorno. Questa ipotesi, fra le tante formulate per spiegare la formazione della grandine, è conosciuta con il nome di teoria delle “incursioni multiple”, proprio perché i chicchi sono costretti a cicli di sali-scendi all’interno della nube prima di poter definitivamente abbandonarla e cadere al suolo. Ma questa è nebbia o foschia? Chiudiamo questa sezione dedicata alle precipitazioni… con la nebbia, che tale non è. La nebbia infatti è un curioso – e spesso fastidioso – fenomeno meteorologico connesso alla formazione di nubi a contatto con il suolo. Costituita da goccioline di acqua liquida o da cristalli di ghiaccio sospesi in aria, la nebbia non ha origine dal raffreddamento – e conseguente condensazione del vapore acqueo – di masse d’aria in movimento, ma dalla presenza di un’inversione termica, consistente nel fatto che talvolta l’aria a contatto con il suolo è più fredda dello strato d’aria sovrastante. In queste condizioni, l’aria fredda resta intrappolata al suolo perché più pesante dell’aria calda che occupa lo strato immediatamente superiore. La nebbia inizia a formarsi solo quando l’umidità relativa di una massa d’aria raggiunge il 100 per cento, ovvero quando il vapore acqueo che questa contiene arriva a saturazione. 87 Chiunque abbia viaggiato immerso nella nebbia sa che questa si manifesta come un alone biancastro che limita la visibilità degli oggetti. Questo effetto di diffusione della luce da parte dell’acqua in sospensione prende il nome di “effetto Tyndall”, dal nome del fisico irlandese John Tyndall (1820-1893) che per primo lo descrisse. In particolare, l’effetto Tyndall si manifesta ogni qual volta ci si trovi in presenza di particelle di dimensioni comparabili a quelle delle lunghezze d’onda della luce incidente, come possono appunto essere quelle presenti in sistemi colloidali, nelle sospensioni o nelle emulsioni (e la nebbia, come abbiamo accennato, è appunto un sistema colloidale del tipo aerosol liquido, dove la fase dispersa è costituita dalle gocce d’acqua e la fase disperdente è costituita dalle molecole d’aria). Oltre che in caso di nebbia, l’effetto Tyndall può essere evidenziato, per esempio, osservando i raggi di luce solare quando attraversano regioni dell’atmosfera in cui sono sospese o disperse particelle solide, come il pulviscolo atmosferico (costituito da microscopici grani di polvere), o liquide, come le gocce d’acqua. Attenzione, però. I fisici, quando parlano di diffusione, intendono un fenomeno molto preciso. La diffusione è infatti la deviazione dalla propagazione rettilinea di un fascio di luce provocata, nell’attraversamento di un mezzo materiale (come è appunto l’aria), dall’interazione del fascio di luce con i costituenti del mezzo, ovvero con gli atomi, le molecole, le microscopiche particelle solide e liquide in sospensione. La diffusione è dunque un fenomeno connesso alla riflessione della luce. Si parla di diffusione perché in questo caso le riflessioni sono sostanzialmente disordinate e quindi in tutte le direzioni, a seconda di come il singolo raggio di luce colpisce la molecola d’aria. In aria, poiché le particelle – chiamate tecnicamente “centri diffusori” – che diffondono la luce sono tipicamente di dimensioni molto minori della lunghezza d’onda della luce incidente, è attiva in particolare la diffusione di Rayleigh, che prende il nome dal fisico inglese Lord John William Strutt Rayleigh (1842-1919), premio Nobel per la fisica nel 1904 per aver scoperto l’argon. In questo tipo di processo, l’intensità della diffusione aumenta con il diminuire della lunghezza d’onda: la radiazione blu è quindi maggiormente diffusa di quella rossa. La diffusione di Rayleigh della radiazione solare da parte delle molecole dell’atmosfera terrestre è la causa del colore azzurro del cielo di giorno. Quando un fascio di luce bianca proveniente dal Sole attraversa l’aria atmosferica, esso viene infatti diffuso in maniera diversa a seconda delle sue varie componenti di colore – quelle che si manifestano in maniera spettacolare 88 con l’arcobaleno – con le componenti bluastre, corrispondenti alle lunghezze d’onda minori, deviate in misura maggiore di quelle rossastre, corrispondenti alle lunghezze d’onda maggiori. Il risultato è che la luce bluastra viene deviata lateralmente nelle diverse direzioni, mentre quella rossastra viene sostanzialmente trasmessa senza deviazioni. Ecco perché al tramonto il cielo è rosso: la luce, dovendo attraversare uno strato di aria molto ampio, viene quasi interamente privata della componente blu per via della diffusione di Rayleigh, restando così solo quella rossa. L’effetto Tyndall è per molti versi simile alla diffusione di Rayleigh, nel senso che anche in questo l’intensità della luce diffusa dipende dalla lunghezza d’onda, con la luce blu più diffusa di quella rossa. Si può osservare un esempio di questa “regola” notando il colore bluastro dei fumi di scarico delle motociclette, composti da particelle in grado di evidenziare bene l’effetto. Però, a differenza della diffusione di Rayleigh, descrivibile da una semplice formula matematica, nell’effetto Tyndall la dipendenza dell’intensità della luce diffusa dalle dimensioni e dalla forma delle particelle è così complessa che non è facilmente esprimibile in termini matematici. Ma se le particelle colloidali sono di forma sferoidale (ovvero sono assimilabili a piccole sferette), l’effetto Tyndall diventa matematicamente analizzabile usando la teoria sulla diffusione proposta dal fisico tedesco Gustav Mie (1868-1957), che ammette particelle di dimensioni confrontabili con la lunghezza d’onda della luce incidente. A qualcuno potrebbe venire la curiosità di sapere perché nelle aree urbane le nebbie sono più frequenti che altrove. La risposta è più semplice di quanto pensiate: poiché in città le emissioni inquinanti – fumi, polveri e altro ancora – sono elevate, il vapore acqueo trova più facilmente nuclei di condensazione, costituiti appunto dalle particelle solide o liquide sospese in aria, a costituire quello che viene tecnicamente chiamato “aerosol atmosferico”. La nebbia generalmente è di colore biancastro. Ma può talvolta capitare di vederla giallastra o anche più scura, tipicamente proprio in città. Il motivo è legato alla presenza dell’inquinamento atmosferico, ovviamente. Allora, più che nebbia, merita chiamarla con il suo vero nome: “smog”, termine inglese estremamente efficace per rappresentare la nebbia mista al fumo inquinante. Già, perché smog deriva dalla contrazione del termine smoke (fumo) con il termine fog (nebbia), e non è affatto sano viverci immersi dentro. Un ultimo accenno alla differenza fra nebbia e foschia. Già, perché nel linguaggio comune può capitare di confonderle e di usare un termine al posto di un altro, ma a livello internazionale esiste una convenzione che le definisce 89 con precisione (per esempio, quando si vuole indicare con chiarezza quali sono le condizioni meteorologiche di un aeroporto). Si parla quindi ufficialmente di nebbia quando la visibilità è inferiore a un chilometro di distanza, mentre quando la visibilità supera il chilometro si parla tecnicamente di foschia. In pratica, la foschia è una nebbia più rada. E meno pericolosa. 90 ERA UNA NOTTE BUIA E TEMPESTOSA… A un tratto un lampo di luce squarciò il buio. Pochi secondi dopo, un suono cupo rimbombò sinistro. Fermiamoci qua, perché non potremmo mai superare il genio letterario del bracchetto Snoopy, il cane di Charlie Brown (personaggi inventati dalla matita del fumettista statunitense Charles M. Schulz, 1922-2000), quando si cimenta alla macchina per scrivere come autore di romanzi dalla trama improbabile. E poi tuoni e fulmini sono davvero abusati, nel genere horror, e non solo in quello. Comunque l’occasione è servita per parlare dei fenomeni elettrici atmosferici. Oggi sappiamo che i fulmini sono scariche elettriche in aria, ma per lungo tempo questa certezza non c’era. Narra infatti la storia – che è anche un po’ leggenda – che il primo a intuire la natura elettrica dei fulmini sia stato il celebre autodidatta Benjamin Franklin (1706-1790), noto anche per la sua attività editoriale e politica nei nascenti Stati Uniti d’America, alla cui unificazione contribuì in modo significativo. Fra le invenzioni di Franklin, oltre al parafulmine, di cui diremo fra poco, si annoverano anche l’ora legale (proposta proprio per risparmiare energia) e le lenti bifocali (non vedendo bene né da vicino, né da lontano, si ingegnò per trovare una soluzione che gli permettesse di non cambiare continuamente paio d’occhiali). Editore di giornali, fu il primo a introdurre le pagine dedicate alle previsioni del tempo. Tornando agli studi di Franklin sui fulmini, la storia racconta che lo scienziato fosse rimasto molto impressionato dall’invenzione della cosiddetta “bottiglia di Leida”, che può essere considerata la forma più antica di condensatore, cioè del componente elettrico capace di immagazzinare l’energia in un campo elettrostatico, accumulando al suo interno una certa quantità di carica elettrica. Inventata nel 1745 dal fisico olandese Pieter van Musschenbroek (1692-1761), che dette al dispositivo il nome della propria città natale (nella cui università insegnava fisica), la bottiglia consiste in un contenitore di vetro (da cui il nome di bottiglia, che fu il primo oggetto a essere utilizzato come contenitore), rivestito sia internamente che esternamente da uno strato di materiale metallico. Il rivestimento interno viene poi collegato all’elettrodo di un generatore elettrostatico attraverso un conduttore (un cavo, una catena o altro materiale metallico), mentre il vetro funge da dielettrico, ovvero da isolante. Date queste caratteristiche, la bottiglia di Leida è in grado di accumulare una grande quantità di carica elettrica, con la quale diventa dunque possibile compiere interessanti esperimenti di elettrostatica, fra cui 91 appunto l’osservazione delle scariche elettriche. Dopo aver costruito una batteria di bottiglie di Leida, nel 1748 Franklin descrisse con estrema accuratezza le molte analogie osservate fra i fulmini e le scariche elettriche prodotte in laboratorio con l’impiego delle bottiglie di Leida, notando che entrambi i fenomeni sono caratterizzati da luce dello stesso colore, da movimenti rapidi e diverse altre proprietà, fra cui anche quella di generare un odore caratteristico (che adesso sappiamo essere quello dell’ozono prodotto in aria dalla scarica elettrica, come abbiamo visto nelle pagine precedenti). Genio poliedrico, Benjamin Franklin è noto anche per essere stato uno dei primi giocatori di scacchi delle colonie americane (scrisse anche un trattato sull’argomento, pubblicato nel 1786). Iniziò a giocarci attorno al 1733, proprio mentre stava imparando la lingua italiana, come racconta in un gustoso aneddoto della sua autobiografia: «Nel 1733 avevo iniziato lo studio delle lingue. Divenni in breve padrone del francese, tanto da poter leggere interi libri senza sforzo alcuno. Poi passai all’italiano. Un mio conoscente, che proprio allora vi si stava applicando, soleva spesso tentarmi a una partita a scacchi. Mi avvidi che ciò andava oltremisura a discapito del tempo che dovevo riservare allo studio e, di conseguenza, rifiutai di giocare ancora se non a questa condizione: che il vincitore di ogni partita avesse il diritto di imporre un compito, concernente parti della grammatica da mandare a memoria, o traduzioni, ecc., che il perdente doveva svolgere sul suo onore prima dell’incontro successivo. Giacché come giocatori eravamo più o meno alla pari, a forza di sconfitte imparammo entrambi quella lingua». Tornando alle ricerche sui fenomeni elettrici, pur limitandosi agli aspetti qualitativi, Franklin aveva correttamente dedotto che, sebbene le cariche si accumulassero sulle armature del condensatore (fu lui a definire armature i due rivestimenti di metallo della bottiglia, come pure i due piani metallici dei condensatori piani inventati da Franklin stesso), la scarica si produceva all’interno del vetro o comunque del materiale che funge da isolante. Franklin allora ipotizzò che le nubi trasportassero cariche elettriche e che queste, in determinate circostanze, facessero scoccare in aria la scarica, in quanto questa doveva essere della stessa natura di quella prodotta da una bottiglia di Leida. La dimostrazione che il fulmine era un fenomeno elettrico del tutto simile alla scarica elettrica osservata in laboratorio non tardò ad arrivare: nel 1752, dopo aver scoperto il cosiddetto “potere delle punte”, realizzò il primo parafulmine e lo mise in azione, mostrando al mondo da un lato il trasporto di elettricità da parte delle nubi, dall’altro come un’asta a punta collegata a terra potesse 92 svolgere efficacemente la funzione di protezione dalle scariche elettriche ad altissimo potenziale. (Per “potere delle punte” si intende la capacità delle punte in conduttori carichi di concentrare le cariche elettriche e quindi di produrre un campo elettrico più intenso in prossimità delle punte stesse. Questo effetto spiega perché i fulmini colpiscano più facilmente guglie, alberi o parafulmini: l’aria infatti si ionizza più facilmente dove il campo è più intenso, ed è quindi lì che si ha la maggiore probabilità che si formi una scarica elettrica). Un fulmine – noto anche con il nome di saetta o folgore – è dunque una “scintilla” che scocca tra una nube e il suolo o fra zone diverse di una stessa nube (o anche fra due nubi diverse). Perché il fenomeno si verifichi occorre però che queste abbiano diverse concentrazioni di carica elettrica e che si trovino quindi a potenziali elettrici differenti. Quando la differenza di potenziale è molto alta o supera comunque un certo valore, l’aria inizia a ionizzarsi e perde quindi le sue capacità isolanti, liberando la scarica elettrica. Pur essendo studiati da tempo, non esiste ancora una teoria definitiva che spieghi esattamente come si formi ed evolva un fulmine in aria. Fra le cause possibili sono state introdotte perturbazioni atmosferiche di varia natura, come vento, umidità, variazioni di pressione atmosferica, ma anche la ionizzazione causata dall’ingresso in atmosfera di particelle provenienti dallo spazio (raggi cosmici) o dal Sole (vento solare). Il problema fondamentale riguarda la comprensione di come possano formarsi e accumularsi così tante cariche nelle nubi e di quale sia il meccanismo che dà il via alla scarica elettrica. Fra le diverse teorie, sembra piuttosto attendibile quella basata sulle seguenti supposizioni: la ionizzazione dell’aria a causa dei raggi cosmici e della radiazione proveniente dal Sole, associata alla maggiore capacità delle gocce d’acqua (o dei cristalli di ghiaccio) di assorbire più facilmente ioni negativi piuttosto che positivi. A causa della gravità, all’interno della nube possono avviarsi dei moti convettivi che portano le gocce d’acqua, cariche negativamente, verso il basso, lasciando in alto quelle positive dell’aria. In questa maniera, la parte bassa della nube si carica negativamente e quella alta positivamente, mentre nella regione intermedia si verificano processi di rimescolamento che la neutralizzano dal punto di vista elettrico. Anche le particelle di ghiaccio all’interno della nuvola possono essere un elemento fondamentale nello sviluppo dei fulmini, perché in grado di provocare la separazione forzata delle particelle con cariche positive e negative, contribuendo così all’innesco della scarica elettrica. Questi e altri 93 costituiscono senz’altro interessanti sforzi teorici, ai quali, però, manca ancora il supporto della verifica sperimentale. Ognuno di noi sa benissimo che, quando cade un fulmine, al fenomeno luminoso, il lampo, si accompagna sempre anche quello sonoro, il tuono. L’espansione del canale di aria ionizzata (quindi si tratta di un plasma) causata dal passaggio di corrente elettrica genera infatti anche un’onda sonora molto intensa. A causa delle notevoli differenze nelle velocità di propagazione delle onde luminose rispetto a quelle sonore, un osservatore distante vede il lampo sensibilmente prima di sentire il tuono. Il suono viaggia infatti a velocità molto inferiore a quella della luce (circa 340 metri al secondo contro 300.000 chilometri al secondo). Facendo un rapido calcolo approssimato, se per semplicità si considera l’arrivo della luce praticamente istantaneo, si può valutare che il suono accumula un ritardo di circa tre secondi per ogni chilometro di distanza dal fulmine. Con questa informazione, ci si può divertire a fare valutazioni immediate su quanto può distare un temporale da noi e valutare, ripetendo le misure dopo qualche tempo, se si sta avvicinando o allontanando. Il lettore attento si sarà reso conto che quanto scritto fin qui riguarda solo i fulmini visibili tra nuvola e suolo. Purtroppo i ricercatori non sono ancora in grado di capire che cosa accade dentro la nuvola e se, per esempio, quando vediamo un fulmine uscire da una nube, lo vediamo nella sua interezza o vediamo solo la porzione al di fuori della nube stessa. Ancora non sappiamo quindi come funzionano i fulmini all’interno di una singola nube o fra nube e nube, cioè fulmini che si sviluppano senza raggiungere la terra. Quel che è certo è che, perché si verifichi una scarica elettrica intensa all’interno di una stessa nube, occorre che il processo di accumulo e di separazione delle cariche elettriche sia stato efficientissimo anche su piccole distanze. Bene, ma sono veramente pericolosi i fulmini? Purtroppo sì. Ogni anno le cronache raccontano di persone rimaste folgorate dalla caduta di un fulmine. Alcuni studi statistici rivelano che, in Italia, i fulmini sono la terza causa di morte per evento naturale, preceduti solo dai terremoti e dalle inondazioni. Non male, raggiungere la medaglia di bronzo senza essere particolarmente temuti! Per fortuna, solo il 20-30 per cento delle persone colpite da un fulmine muore, ma, alla conta finale, i decessi ammontano a circa un migliaio all’anno in tutto il mondo. A uccidere una persona colpita da un fulmine sono le elevate correnti in gioco, che riscaldano i tessuti, ustionandoli, e possono danneggiare il cervello, oltre che arrestare il battito cardiaco. Tutto questo accade in una frazione di secondo. Ecco perché, quando ci troviamo 94 all’esterno e sta per arrivare una tempesta, è opportuno trovare rapidamente rifugio. Tenete conto che, per quanto sia improbabile essere colpiti da un fulmine, ogni anno, solo in Italia, cade oltre un milione e mezzo di fulmini… Bene quindi essere preparati e adottare le adeguate precauzioni! 95 IV La fisica del tempo libero ... ovvero di montagne russe, di tango e di calcio Quando diciamo che la fisica è ovunque, intendiamo proprio quello che diciamo, alla lettera. Ovvero, che le leggi della fisica agiscono sempre e non ci abbandonano mai, nemmeno quando vorremmo distrarci un attimo, perché siamo, per esempio, al Luna Park o in qualche altro parco di divertimenti. Anzi, se le giostre più spettacolari del Luna Park – come le montagne russe – sono tali… è proprio grazie alla fisica! Siamo dunque perseguitati dalla fisica? Sì, non c’è scampo, rassegnatevi. Anche quando state ballando un bel tango avvinghiati in un abbraccio appassionato al vostro o alla vostra partner. Già, perché anche quando si balla – abbiamo citato il tango, ma potremmo citare qualunque altro tipo di ballo, dalla danza classica all’hip hop – gravità, attriti e momenti angolari sono sempre lì, ad assisterci e, soprattutto, ad aiutarci nel realizzare le diverse figure. Allora, al parco divertimenti non possiamo distrarci, in sala da ballo nemmeno, che la buona sorte arrivi in un campo di calcio? Neanche per sogno, cari lettori. Perché il calcio – come praticamente tutti gli sport, di cui abbiamo già affrontato nuoto e sci – è il regno della fisica. Ma ve lo immaginavate già, vero? 96 MONTAGNE RUSSE: BASTA LA FISICA DI NEWTON! Iniziamo dal parco divertimenti, dove una delle maggiori attrazioni per grandi e piccini è il roller coaster (letteralmente: slitta a rotelle), meglio noto in italiano con l’espressione “otto volante” o, meglio, “montagne russe”. Il nome ci fa capire dove è nata l’idea. Già nel XVII secolo, a San Pietroburgo e dintorni, erano diffuse delle attrazioni in cui le slitte venivano fatte scivolare lungo colline di ghiaccio appositamente progettate. Dalla Russia l’attrazione si diffuse rapidamente nel resto d’Europa, dove si cominciò a pensare di sostituire le slitte con carrelli dotati di ruote. Le prime montagne russe con carrelli fecero la loro comparsa a Parigi agli inizi del XIX secolo, dove, per onorare la loro origine, presero il nome con cui sono note oggi. Curiosamente, quando le montagne russe con carrelli e binari tornarono in Russia, a queste venne dato il nome di “montagne americane” e con questo nome sono note e diffuse nei principali parchi divertimenti di quel Paese! Gli ingredienti fisici delle montagne russe sono inerzia, gravitazione (vedi Gravitazione universale e massa) e principio di conservazione dell’energia. Tutto qua. Dell’importanza della forza centrifuga nei sistemi di riferimento non inerziali abbiamo parlato nel secondo capitolo nelle pagine dedicate allo sci): in pratica, per sopravvivere al cosiddetto “giro della morte”, basta che il carrello, quando siamo a testa in giù, abbia una velocità tale che la forza centrifuga, la cui intensità dipende appunto dalla velocità, sia uguale e contraria alla forza peso, così che questa, che ci tira verso il basso, è contrastata istante per istante da quella che, invece, tenderebbe a spingerci verso l’esterno dell’anello. Per questo motivo, se ci avesse dedicato del tempo, avrebbe potuto costruirle anche Isaac Newton, un secolo e mezzo prima. Il “motore” dei carrelli è la gravità. Il gioco consiste nel continuo scambio fra energia potenziale gravitazionale (vedi Gravitazione universale e massa), ovvero l’energia di posizione accumulata con la prima salita (l’unica in cui i carrelli sono trainati), e l’energia cinetica, cioè l’energia di movimento. Più il carrello è in alto, maggiore è la sua energia potenziale. Scendendo verso il basso attratto dalla forza di gravità, il carrello aumenta la sua velocità e trasforma (in parte o totalmente) l’energia potenziale in energia cinetica, per poi riconvertirla in parte in potenziale risalendo sulla collina successiva e così via per tutto il circuito. Se si trascurano gli attriti dell’aria e delle rotaie, la somma dei due tipi di energia rimane costante per tutto il moto ed è uguale all’energia totale del 97 sistema, definita proprio dall’altezza della prima collina. Il resto lo fa l’inerzia, già scoperta da Galileo: un corpo in moto tende a rimanere in moto fino a che non interviene una forza esterna. Nel caso, le rotaie che guidano i carrelli e i freni che ne terminano la corsa. GRAVITAZIONE UNIVERSALE E MASSA Come ci ha insegnato Newton, la formula che esprime l’intensità della forza di gravità stabilisce che fra due corpi dotati di massa viene esercitata una reciproca attrazione in misura proporzionale al prodotto delle due masse e inversamente proporzionale all’inverso del quadrato della distanza che li separa. La forza di gravità agisce sia sulla mela che cade da un albero (la tradizione vuole che sia stata la caduta di una mela sulla testa del grande scienziato a ispirargli la formulazione della teoria), sia sulla Luna che orbita attorno alla Terra, sia sulla Terra che orbita attorno al Sole e via dicendo. La gravità terrestre altro non è che un caso particolare di una legge che ha validità universale: l’importanza dell’opera dello scienziato inglese fu anche quella di avere compreso e realizzato la prima vera grande “unificazione”, ovvero di riuscire a unificare in una sola legge le descrizioni di fenomeni fisici apparentemente così diversi come la caduta di una mela (gravità terrestre) e il moto della Luna attorno al nostro pianeta (gravità celeste). La forza gravitazionale agisce su tutti i corpi indiscriminatamente, a prescindere dalla loro forma, densità o composizione chimica – anche se su quest’ultimo punto non molti anni fa venne sollevata qualche eccezione, rientrata a seguito di esperimenti molto accurati –, in maniera sempre attrattiva. Grazie a questa sua importante proprietà e al fatto che i suoi effetti sono percepibili anche a grandissime distanze, la forza di gravitazione universale rappresenta l’interazione che da sola definisce l’evoluzione a grande scala dell’Universo. Ma per sapere con quale intensità essa agisce, occorre conoscere in generale i valori delle masse dei corpi che si attraggono reciprocamente e dei quali intendiamo descrivere il moto. Se cioè vogliamo calcolare con esattezza la forma dell’orbita della Terra attorno al Sole, occorre determinare prima le masse del nostro pianeta e della stella attorno alla quale questo orbita (in realtà, nella pratica si compie proprio il passaggio inverso, ovvero dalla forma delle orbite si risale alle masse). Lo stesso ragionamento vale per qualunque corpo nell’Universo: l’orbita del Sole attorno al centro della nostra galassia è completamente determinata dalla quantità di massa compresa all’interno del volume di spazio avente come raggio la distanza media che separa il Sole dal centro stesso, il moto di “caduta” di una galassia verso un ammasso di galassie è perfettamente determinato dalle masse in gioco, in particolare dalla massa della galassia in caduta e dalla massa complessiva dell’ammasso che la sta attraendo nella sua morsa fatale. Insomma, per calcolare la traiettoria nello spazio di un corpo soggetto all’azione gravitazionale, e conoscerne istante per istante posizione e velocità rispetto a un sistema di riferimento prestabilito, è necessario determinare la forza che su questo agisce e quindi conoscere la sua massa e quella di tutti i corpi che su di esso agiscono. La massa è pertanto una delle caratteristiche intrinseche di un corpo ed è di fondamentale importanza in fisica e in astrofisica. La sua conoscenza è imprescindibile non solo per calcolare i moti dei corpi celesti nello spazio, ma anche per determinare i diversi processi evolutivi che registra una stella nel corso della sua vita. È infatti dalla massa iniziale (e in misura minore dalla composizione chimica) che dipende l’evoluzione di una stella, dalla nascita fino alla morte. Ma, ancora, dalla massa totale dell’Universo dipende la sua geometria e quindi la sua dinamica complessiva: se è chiuso e la sua espansione un giorno si fermerà, oppure se è aperto e si espanderà pertanto all’infinito e per sempre, lo possiamo dedurre solamente cercando di stimare quanta materia – ed energia – è contenuta in esso, e questo è possibile studiando proprio l’azione che su questa materia esercita l’onnipresente forza di gravità. Classicamente, la forza gravitazionale è considerata un’azione a distanza, ovvero un’interazione fra due corpi non a contatto. Più modernamente, si preferisce introdurre il concetto di campo gravitazionale. La presenza di una massa nello spazio, altera le proprietà di questo spazio in maniera tale che, introducendo una seconda massa, questa risente appunto di una forza di attrazione verso la prima massa. Così possiamo dire che la seconda massa non interagisce a distanza con la prima, ma che interagisce con il campo gravitazionale generato da questa e in cui si trova immersa. Il campo gravitazionale è un tipico esempio di campo di forza: un corpo localizzato in una certa zona dello spazio 98 è soggetto a una forza dovuta alla presenza in quella zona del campo. Nel caso della Terra, il campo gravitazionale è rappresentato dal vettore accelerazione di gravità. Delle quattro “forze fondamentali” (le altre tre sono l’elettromagnetica, la nucleare forte e la nucleare debole), la gravità è stata la prima a essere scoperta – basta osservare la caduta a terra di un corpo come fece Newton, appunto – e studiata. Ma, nonostante gli sforzi di generazioni di fisici, continua a sottrarsi a una piena comprensione, rimanendo per certi aspetti misteriosa. Eppure governa la struttura e l’evoluzione dell’Universo nel suo insieme. Nel corso dei secoli la comprensione di questa forza è mutata solo grazie a due grandi scienziati: Isaac Newton, che per primo formulò la legge di gravitazione universale, e Albert Einstein, che con la teoria della relatività generale “ridusse” la gravità a un “semplice” problema di geometria. Energia di movimento Per capire come funzionano le montagne russe bisogna approfondire il concetto di energia. Partiamo con qualche definizione. Innanzi tutto, il lavoro, termine con cui, in fisica, si indica il prodotto di una forza applicata a un corpo per lo spostamento che tale forza fa compiere a tale corpo (in realtà la definizione è un po’ più complessa, ma per i nostri scopi è sufficiente questa). Se allora consideriamo un corpo in quiete e gli applichiamo una forza costante per un certo spostamento, ovvero compiamo un lavoro su di esso trascurando le forze di attrito, percorsa tale distanza, il corpo avrà acquisito una determinata velocità, e quindi una certa energia di movimento: l’energia cinetica, che è appunto l’energia di un corpo legata al suo stato di moto. Questa dipende non solo dalla sua velocità (in realtà dal quadrato della velocità del corpo), ma anche dalla sua massa. In generale, si può dimostrare un teorema, noto come teorema delle forze vive, secondo cui il lavoro compiuto da una forza esterna agente su un corpo è pari alla variazione di energia cinetica del corpo stesso (nel caso precedente l’energia cinetica iniziale era nulla, essendo il corpo inizialmente in quiete). Naturalmente, tale variazione può anche essere negativa: è il caso per esempio dell’azione delle forze di attrito, che, avendo verso opposto a quello dello spostamento, compiono sempre lavoro negativo. Principio di conservazione dell’energia Nella scienza delle montagne russe non c’è però solo l’energia cinetica, ma è coinvolto anche un altro tipo di energia, quella potenziale. Per capirla, occorre prima definire il concetto di forza conservativa. Si definisce forza conservativa una qualunque forza il cui lavoro dipende esclusivamente dalla posizione iniziale e finale del corpo a cui essa è applicata, indipendentemente dal cammino percorso dal corpo durante il processo. Per un corpo su cui agiscono forze conservative è quindi possibile definire un’energia potenziale, funzione solo delle coordinate spaziali, che rappresenta la quantità di energia 99 che il corpo possiede in virtù della sua posizione nello spazio (analogamente si può affermare che l’energia cinetica rappresenta la quantità di energia che un corpo possiede in virtù del suo stato di moto). Si può dimostrare che il lavoro di una forza conservativa per spostare un corpo da un punto dello spazio a un altro punto è pari alla differenza fra le energie potenziali del corpo nei due punti iniziale e finale. Eccoci al dunque: quando su un corpo agiscono solo forze conservative, l’energia meccanica, data dalla somma dell’energia cinetica T con l’energia potenziale U, rimane costante per tutto il processo: T+U=costante. È questo il principio di conservazione dell’energia meccanica. Un esempio di forza conservativa è proprio quella gravitazionale (lo avevate immaginato, vero?). Questa infatti dipende esclusivamente dalla posizione che un corpo dotato di massa ha nel campo gravitazionale. Sulla superficie terrestre, ovvero nel campo gravitazionale del nostro pianeta, portando un corpo di massa m a un’altezza h dal suolo, questo acquista un’energia potenziale pari al prodotto mgh, dove g è l’accelerazione di gravità. In particolare, qualunque sia il cammino percorso dal corpo, il lavoro che si compie su di esso per portarlo alla quota h è sempre pari a mgh. Per il principio di conservazione dell’energia, cadendo il corpo aumenta la propria energia cinetica di un valore pari a quello dell’energia potenziale acquisita nella salita. Al contrario della forza gravitazionale, le forze di attrito, opponendosi sempre al moto (il loro lavoro è sempre negativo), non sono conservative. In loro presenza non è quindi possibile applicare il principio di conservazione dell’energia meccanica. 100 MI SENTO LEGGERISSIMO! I momenti più emozionanti, sulle montagne russe, sono quelli in cui scendiamo per le discese più ripide. Ci pare di essere leggerissimi, quasi senza peso. Un fenomeno analogo – anzi, ancora più marcato – si ha nelle attrazioni denominate “torri di caduta”, dove è sottinteso l’attributo “libera”, nel senso che in queste torri si viene portati ad alcune decine di metri di altezza per poi essere lasciati in caduta libera per almeno metà dell’altezza della torre (poi devono entrare necessariamente in azione i freni, altrimenti rischiamo di schiantarci al suolo e quindi di non poter raccontare agli amici l’emozione che abbiamo provato…). Ma come è possibile che ci si senta più leggeri? Siamo davvero più leggeri? Prima di dare risposta a queste domande, è bene chiarire il significato dei due termini massa e peso, che nel linguaggio comune sono spesso usati come sinonimi, ma che in fisica hanno invece significati ben definiti e distinti. Mentre con massa (per amore di precisione, in fisica esistono due tipi di masse, quella inerziale e quella gravitazionale, ma qui e nel seguito non faremo mai distinzione fra queste, essendo assolutamente equivalenti) si intende la quantità di materia di cui è composto un corpo o, più precisamente, la misura della resistenza di un corpo a essere accelerato sotto l’azione di una forza, con peso di un corpo si intende propriamente la forza di gravità che agisce su di esso quando questo è sottoposto all’azione attrattiva di un altro corpo, come accade per esempio per ciascun oggetto posto sulla superficie del nostro pianeta. Se diamo un calcio a un pallone, esso si allontanerà a una certa velocità dal nostro piede, ma dando un calcio della stessa intensità a un blocco di cemento non solo ci faremo male, ma questo con ogni probabilità non si sposterà di un millimetro. Ne deduciamo che, avendo applicato a essi la stessa forza (la nostra pedata), la massa del blocco di cemento è molto maggiore di quella di un pallone da calcio. Naturalmente anche il peso del blocco di cemento sarà maggiore del peso del pallone da calcio, ma mentre la massa di un corpo è una sua proprietà intrinseca, del tutto indipendente da qualunque altro fattore, il suo peso dipende proprio dall’intensità con cui agisce su di esso la forza di gravità. Lo stesso blocco di cemento dell’esempio appena descritto, se posto sulla superficie lunare peserebbe circa un sesto di quanto pesa sulla superficie terrestre, ma la sua massa rimane sempre la stessa, sulla Luna come sulla Terra: dopo tutto, il numero di atomi che lo compone è rimasto inalterato. 101 Ma qual è la grandezza che determina l’intensità dell’attrazione gravitazionale esercitata da un certo pianeta o satellite su un corpo materiale? È l’accelerazione gravitazionale, ovvero l’accelerazione cui è soggetto un qualunque corpo dotato di massa per il solo fatto di essere immerso in un campo gravitazionale. Alla superficie del nostro pianeta, per esempio, questa vale 9,8 m/s , ma sulla Luna questa accelerazione vale approssimativamente 1,6 m/s , mentre su Giove vale circa 24,9 m/s . Nota la massa di un corpo, conoscendo i valori dell’accelerazione di gravità sulla superficie dei diversi pianeti è dunque possibile calcolarne il peso. Basta applicare la seguente espressione, che è la seconda legge della dinamica applicata a un corpo sotto l’effetto della forza di gravità (vedi Le tre leggi della dinamica) P=mg dove con P indichiamo il peso (misurato in Newton – simbolo N –, l’unità di misura della forza), con m la massa (misurata in chilogrammi) e con g l’accelerazione di gravità (misurata in metri al secondo quadrato). Così, 100 kg sulla Terra pesano 980 N, sulla Luna 160 N e su Giove 2490 N! Ma allora che cosa intendiamo quando diciamo che “pesiamo” 80 kg? Intanto dobbiamo fare attenzione alle unità di misura, perché qui il simbolo kg indica i chilogrammi-forza (kgf, detti anche chilogrammi-peso, appunto) e non i chilogrammi-massa. In particolare, 1 kgf è, per definizione, la forza necessaria ad accelerare di 9,80665 m/s la massa di 1 kg: in altre parole 1 kgf è equivalente a 9,80665 N. Allora, se ci troviamo in un luogo della Terra dove g vale esattamente 9,80665 m/s non abbiamo alcun problema ad affermare che la nostra massa è pari a 80 kg, altrimenti occorre molta attenzione, perché in realtà il valore dell’accelerazione di gravità sulla superficie terrestre non è sempre lo stesso (la Terra non è una sfera perfetta e ruota su se stessa). Così troviamo luoghi sul nostro pianeta dove g vale 9,82 m/s e luoghi dove vale 9,78 m/s : nel primo caso il nostro peso sarà leggermente superiore rispetto al secondo, anche se non ci vedremo ingrassati di un etto (cioè siamo in condizioni di parità di massa)… È proprio vero che a volte le bilance ingannano! LE TRE LEGGI DELLA DINAMICA In fisica si definisce accelerazione un qualunque cambiamento di velocità, sia in intensità che in direzione, di un corpo in un dato intervallo di tempo (attenzione: un corpo in movimento che viene frenato subisce comunque un’accelerazione, che in questo caso è negativa). Un corpo a riposo o, 102 come si dice, in quiete, non è accelerato, ma non lo è nemmeno un corpo che si muove di moto rettilineo uniforme, ovvero con velocità costante sempre con lo stesso verso lungo la stessa direzione. Anche un corpo che, pur muovendosi con velocità uniforme, percorre una traiettoria curva è pertanto accelerato, essendo necessaria l’azione di una forza per “piegare” costantemente la sua direzione di moto, come accade per esempio nel caso dell’orbita della Luna attorno al nostro pianeta. Se, infatti, la forza gravitazionale che la Terra esercita sulla Luna cessasse all’improvviso la sua azione, la Luna si troverebbe libera di proseguire il suo moto con velocità rettilinea uniforme esattamente lungo una traiettoria tangente all’orbita originaria (nel punto in cui si trovava al momento in cui la forza si è annullata). A descrivere le regole del moto dei corpi quando questi sono soggetti all’azione di forze esterne fu come abbiamo visto Isaac Newton che, nei suoi Philosophiae Naturalis Principia Mathematica, pubblicati nel 1687, mostrò non solo come agisce la forza di gravitazione universale, ma enunciò anche le tre importantissime leggi della dinamica. Prima legge (principio di inerzia): un corpo materiale permane nel suo stato di quiete o di moto rettilineo uniforme se non intervengono forze esterne ad alterarne lo stato; in altre parole, è la forza applicata a un corpo a modificare il suo stato dinamico, ovvero a generare su di esso un’alterazione del suo moto, che altrimenti procederebbe in linea retta e con velocità costante; questa formulazione qualitativa trova la sua quantificazione nella legge successiva. Seconda legge: la risultante delle forze esterne applicate a un corpo materiale è uguale al prodotto della massa del corpo per la sua accelerazione di moto; in formula questa legge si esprime come F=ma e significa che, se vogliamo accelerare un corpo, dobbiamo applicare a esso una forza tanto maggiore quanto maggiore è la sua massa (inerzia). Terza legge (principio di azione e reazione): a ogni forza (azione) applicata a un corpo, esso reagisce con una forza (reazione) uguale e contraria. La Terra, per esempio, applica al Sole una forza di identica intensità a quella che il Sole applica al nostro pianeta, a differire sono però le accelerazioni – come facile dedurre dal secondo principio – che subiscono i due corpi sotto l’azione di queste forze, essendo la massa della Terra molto minore di quella del Sole. Il computer appoggiato sul tavolo agisce su questo attraverso il suo peso, costringendo così il tavolo stesso a reagire con una forza applicata al computer di uguale intensità e di verso opposto: è proprio questa forza a equilibrare la forza di gravità generata dalla Terra sul computer, impedendogli di cadere. Con queste tre leggi, conoscendo le espressioni delle forze agenti su un certo sistema dalle caratteristiche fisiche note, è in linea di principio sempre possibile costruire l’evoluzione temporale del sistema stesso, ovvero come questo si muove nello spazio al trascorrere del tempo. L’accelerazione gravitazionale Per calcolare il peso di un corpo di massa nota occorre dunque conoscere l’intensità del campo gravitazionale nel punto in cui il corpo stesso si trova. Come si è detto, infatti, il campo gravitazionale riduce la propria intensità in ragione dell’inverso del quadrato della distanza dalla sorgente del campo così che, se alla superficie di un pianeta l’accelerazione di gravità ha un certo valore, a distanza doppia dal centro (di massa) dello stesso pianeta l’accelerazione avrà un valore pari a un quarto di quello originario. L’espressione che definisce l’accelerazione gravitazionale causata su un corpo di massa m dalla presenza di una massa M a una certa distanza r dal corpo stesso è infatti g=GM/r2 facilmente ricavabile dalle leggi della dinamica applicate nel caso di un campo gravitazionale (G indica come al solito la costante di gravitazione universale). 103 Come si vede, l’accelerazione di gravità dipende solo e soltanto dalla massa della sorgente del campo gravitazionale e dalla distanza a cui si trova il corpo di massa m rispetto alla sorgente. È evidente la totale indipendenza dell’accelerazione gravitazionale cui è sottoposto il corpo di massa dalla massa stessa del corpo, ovvero l’accelerazione di gravità ha esattamente lo stesso valore per qualunque oggetto posto a una certa distanza dalla sorgente del campo. Questo semplice fatto, ovvero l’indipendenza dell’accelerazione di gravità dalla massa del corpo che subisce l’accelerazione, spiega perché gli astronauti in orbita attorno alla Terra si dicono in “assenza di peso”. In realtà, infatti, pur essendo distanti dalla superficie del Pianeta, essi risentono ancora – e per loro fortuna! – della sua attrazione, seppure in misura ridotta (sempre in ragione dell’inverso del quadrato della distanza dal centro della sorgente, nella fattispecie la Terra). Quello che accade, però, è che qualunque altro corpo o oggetto – da un cacciavite a una gocciolina d’acqua – che si trovi nelle loro stesse condizioni risente della stessa accelerazione cui loro sono sottoposti, ragione per cui questi rimangono tutti nelle stesse posizioni relative. In pratica, durante il moto in caduta libera – caduta naturalmente generata proprio dall’attrazione della vicina Terra – tutto appare “galleggiare” perché in realtà tutto “cade” alla stessa maniera, ovvero con la stessa accelerazione. Nel nostro piccolo, anche noi, sulle torri di caduta del Luna Park, sperimentiamo proprio questo effetto. Quindi, sì, siamo davvero più leggeri. Peccato che l’effetto duri così poco! 104 LA FISICA DEL TANGO Non ci piacciono le attrazioni del Luna Park e preferiamo trascorrere una serata a ballare? Ora, se è vero che ballando si resta più con i piedi per terra che a salire sulle montagne russe, è anche vero che in alcuni casi si vedono letteralmente volare i ballerini, tanto che, assistendo a uno spettacolo di danza classica o di rock’n’roll acrobatico, a molti saranno venute in mente domande del genere: «Ma come fanno a restare per così tanto tempo in volo?» oppure «Come possono i ballerini ruotare su loro stessi così velocemente?». La risposta sta nello studio della fisica, alle cui leggi rigorose devono sottostare tutti, ballerini compresi (anche se a volte sembrano davvero non rispettarle). In particolare, quando si parla di ballo, entrano in gioco sia la statica, ovvero la disciplina che si occupa di studiare l’equilibrio dei corpi fermi nello spazio anche se su di essi agiscono delle forze, e la dinamica, ovvero la disciplina che invece studia come un corpo si muove quando è sottoposto a forze. E sui ballerini, che stiano fermi o che si muovano, di forze applicate ce ne sono diverse: da quella di gravità, che li attrae costantemente verso il centro della Terra e li richiama sul pavimento, a quella di attrito, che permette loro di camminare o correre, ma, soprattutto, di non scivolare. Concetti come il baricentro, la forza, l’impulso, la traslazione, la rotazione probabilmente sono ben chiari nel corpo dei ballerini anche se essi non sempre sanno dare il nome “scientifico” ai concetti che sperimentano. Chissà se la conoscenza della fisica può aiutare a ballare meglio... Il baricentro Il punto chiave del sistema fisico costituito dai due ballerini – il tango argentino è un ballo di coppia in cui ballerino e ballerina non possono mai staccarsi completamente l’uno dall’altra – è il baricentro, ovvero il punto in cui si può idealmente ipotizzare concentrato tutto il peso di un corpo, e quindi anche di una persona. Per esempio, per stare fermi in piedi, occorre che il nostro baricentro – o, meglio, la sua proiezione sul pavimento – cada all’interno della superficie delimitata dai due piedi. Analogamente, perché i due ballerini non perdano l’equilibrio durante i loro passi, devono descrivere con i piedi una superficie al cui interno cada il baricentro della coppia, altrimenti corrono il rischio di fare un capitombolo. Il movimento Ma se la posizione del baricentro è quella che ci garantisce dalle cadute, 105 causate naturalmente dall’azione della forza di gravità, sempre e comunque presente, il ballo è soprattutto fatto di movimenti di vario genere, tutti però riconducibili a due grandi tipologie: traslazioni e rotazioni. Secondo un importante teorema della fisica, il movimento di un corpo (rigido, ovvero non deformabile) può essere infatti descritto come la composizione di una traslazione del baricentro – cioè di uno spostamento lineare del baricentro nello spazio – e di una eventuale rotazione del corpo attorno a un asse. Un esempio di questa composizione si ha quando la coppia di ballerini attraversa in diagonale la pista da ballo e contemporaneamente ruota su se stessa. Le rotazioni La ballerina che ruota su se stessa stando sulle punte dei piedi è un’immagine tipica dei libri di fisica. Serve a rappresentare il principio di conservazione del momento angolare, una grandezza che, come l’energia, tende a conservarsi, ovvero a rimanere costante durante tutto il moto del sistema. In maniera molto semplificata, possiamo dire che, proprio in virtù della conservazione del momento angolare, quando la ballerina passa da una posizione a braccia allargate a una a braccia conserte, o disposte lungo il corpo, la sua velocità di rotazione (velocità angolare) deve aumentare, perché è variata la distribuzione della massa corporea attorno all’asse di rotazione. Naturalmente il principio vale anche quando a ruotare è un sistema costituito da due persone, come nel tango. La fisica, e in particolare il teorema di conservazione del momento angolare, spiega perché è opportuno eseguire i pivot (ovvero le rotazioni sul proprio asse eseguite su un piede) tenendo le gambe unite. L’attrito Noi pensiamo all’attrito come a una forza “negativa”, che ci limita nei nostri movimenti. È vero il contrario. Se possiamo camminare, o correre, o saltare (e molto altro ancora), è proprio grazie alla presenza della forza di attrito, elemento fondamentale della camminata: tutti sanno quanto sia difficile riuscire a camminare sul ghiaccio! Noi andiamo avanti solo perché, nel momento in cui il nostro piede di appoggio spinge indietro sul pavimento, il pavimento ci restituisce la spinta in direzione contraria (principio di azione e reazione), e noi possiamo approfittarne perché la presenza dell’attrito permette al piede di non scivolare mentre riceve questa spinta. In effetti molti usano come scusa la frase «non è venuto bene perché non ho le scarpe giuste», ma pavimento e calzature contano davvero molto nella riuscita dei passi. La forza di attrito che si genera fra la suola e il pavimento 106 varia moltissimo da scarpa a scarpa, da pavimento a pavimento e addirittura con l’umidità. Proprio per questo motivo, qualche tempo fa sono state inventate in Argentina delle scarpe (tra l’altro molto comode e belle esteticamente) nelle quali è possibile sostituire la soletta che sta sotto al metatarso (la zona del piede dove bisogna scaricare il peso nel tango). In questo modo, a seconda del pavimento che il tanguero incontra, e persino a seconda dell’umidità, può scegliere se usare la suola in cuoio, feltro o gomma. Ballare meglio conoscendo la fisica… e un po’ di storia! Ma allora conoscere la fisica può aiutare a imparare meglio le tecniche di ballo? Senza dubbio sì. In generale si può giungere alla conoscenza attraverso due strade: quella della teoria, dei modelli e della logica e quella dell’esperienza. Fisica e tango sono un esempio mirabile di queste due facce: alcuni maestri insegnano partendo dallo studio della struttura biomeccanica del corpo umano, mentre altri si affidano alla propria lunga esperienza nella milonga (il locale dove si balla il tango). Ed è interessante e a volte sorprendente seguire questi due percorsi e vedere dove e come confluiscono o si allontanano. Il tango argentino è un genere musicale con una lunga storia alle spalle. Un tempo suonato con strumenti tradizionali – primo fra tutti il bandoneón, una speciale fisarmonica a sezione quadrata – in questi ultimi anni si è diffusa una forma di tango suonata su una base ritmica dance, denominata “tango elettronico”. Altri strumenti impiegati sono il pianoforte, il violino, talvolta la chitarra. Curiosamente, nel tango delle origini non è presente una base ritmica, fatto che permette alla coppia di ballerini di gestire a proprio piacimento il tempo, restando ferma per alcune battute, accelerando improvvisamente o addirittura facendo brusche frenate. La storia del tango argentino è incerta e affascinante. Il tango nacque a Buenos Aires oltre cent’anni fa come fusione dei balli popolari degli emigranti italiani e spagnoli e dei ritmi africani, latini, argentini e uruguayani. La sua struttura armonica, però, è tipicamente italiana. Non è un caso che i nomi dei maggiori compositori di questo genere di musica a partire dai primi anni del Novecento al secondo dopoguerra siano tutti figli di italiani. Fra questi, oltre al francese Carlos Gardel (1890-1935), troviamo Aníbal Troilo (1914-1975), Juan D’Arienzo (1900-1976), Carlos Di Sarli (1903-1960), Osvaldo Pugliese (1905-1995), Francisco De Caro (1898-1976). E anche il famoso compositore Ástor Piazzolla (1921-1992) aveva il padre pugliese. I principali gruppi sono invece i Color Tango, i Gotan Project e i Narcotango, questi ultimi due 107 esponenti di spicco del filone elettronico. 108 DIAMO UN CALCIO… A EFFETTO! Talvolta, guardando una partita di calcio, capita di meravigliarci delle incredibili traiettorie che alcuni calciatori riescono a imprimere al pallone, come se fosse telecomandato. Naturalmente, a meno che la palla non sia “truccata” (non nel senso del calcio-scommesse, ma nel senso dell’usare un pallone non regolamentare, con caratteristiche tali da falsarne la traiettoria in volo), a decidere quale sarà la sua traiettoria è il piede del calciatore e il modo di calciarla. Pensando ai palloni non regolamentari, ad alcuni lettori potranno tornare in mente le partite disputate con gli amici con il “mitico” pallone “Super Tele” (prodotto dalla ditta italiana Mondo), una sfera di plastica particolarmente leggera e per questo molto usata da bambini, proprio per evitare rischi di infortuni o di danni a oggetti o persone derivanti da colpi male assestati. Tuttavia, proprio questa leggerezza del “Super Tele” – così chiamato perché inizialmente era prodotto in colore bianco, con una stampa a pentagoni neri che riprendeva il motivo dei palloni professionali (anche se in seguito vennero realizzate versioni con la base blu, rossa, verde e gialla, tutte sempre abbinate alla stampa in nero) – lo rendeva molto poco adatto nelle partite di calcio un po’ più serie: era molto difficile imprimergli una direzione precisa, che veniva sistematicamente influenzata anche da una finissima bava di vento, e il peso ridotto riduceva l’inerzia in favore dell’attrito aerodinamico, causando traiettorie imprevedibili e di gittata limitatissima. Tanto che tutti tiravamo un sospiro di sollievo quando finalmente arrivava l’amico con il “Super Santos”, un altro pallone prodotto dalla Mondo (era il fratello maggiore del “Super Tele”), che era più pesante, in gomma e di colore arancione con le finiture nere. Ma torniamo ai “tiri a effetto” voluti, non quelli casuali e determinati dal vento. Il calciatore che fece diventare leggendari questi tiri, almeno in Italia, fu Mario Corso, celebre ala sinistra dell’Inter degli anni Sessanta, che venne per questa sua abilità soprannominato “il piede sinistro di Dio”. I suoi tiri a effetto, che sembravano sfidare le leggi della fisica, presero il nome di “tiro a foglia morta”, poprio per la loro caduta improvvisa e imprevedibile. Effetto Magnus Naturalmente, se ne parliamo in un libro dedicato alla fisica, è chiaro che questi colpi – seppure magici, nel senso spettacolare del termine – sono 109 facilmente spiegabili in termini scientifici, e, in particolare, con la meccanica dei fluidi e con una legge che abbiamo già incontrato nel primo capitolo, parlando della portanza degli aerei: il principio di Bernoulli, secondo cui la pressione in un fluido decresce al crescere della velocità del fluido stesso. Ma procediamo con ordine. Il primo a notare questo fenomeno fu… (provate a indovinare chi?) il solito Isaac Newton. Ancora lui, già. Sembra in effetti che non gli sfuggisse proprio nulla. Fatto sta che il fisico inglese, assistendo a una partita di tennis nel lontano 1671, si accorse che la pallina colpita di taglio con la racchetta – e quindi in forte rotazione su se stessa – seguiva una traiettoria diversa da quella prevista dalle sue leggi della dinamica, spiazzando completamente l’avversario in attesa di riceverla. Tuttavia, nonostante l’osservazione, Newton non fu in grado di interpretare correttamente il fenomeno. Gli studi di meccanica dei fluidi andarono avanti, ma solo verso la fine del XIX secolo, il fisico e matematico scozzese Peter Tait (1831-1901) tornò a dedicarsi allo studio dell’argomento applicato allo sport, spinto soprattutto dalla sua passione per il golf, altra disciplina in cui i “tiri a effetto” sono all’ordine del giorno. In particolare, Tait notò le differenze di gittata del tiro a seconda del tipo di rotazione impressa alla pallina. Una rotazione retrograda, nota anche con l’espressione anglosassone back-spin, ovvero una rotazione in senso opposto a quello di moto della pallina, porta la pallina stessa a seguire una traiettoria più lunga rispetto a quella attesa. Viceversa, una rotazione in avanti (o anterograda, nota anche con l’espressione inglese di top-spin) porta la pallina a percorrere una traiettoria più breve, quindi con una gittata ridotta rispetto a quella calcolata senza prendere in considerazione la sua rotazione intrinseca. Anche il fisico scozzese si limitò però alle osservazioni e poco più. Non riuscì a comprendere appieno la natura del fenomeno, di cui si ebbe piena comprensione solo nel 1852, grazie agli studi e agli esperimenti del fisico tedesco Heinrich Gustav Magnus (1802-1870). Questo è il motivo per cui il fenomeno è diventato noto con il nome di “effetto Magnus”. Per risolvere il problema del “tiro a effetto”, il fisico tedesco eseguì una serie di esperimenti, fra i quali spicca l’osservazione del comportamento di un cilindro rotante attorno al proprio asse immerso in fluido in movimento. Giocando con il cilindro rotante, Magnus osservò gli stessi comportamenti studiati da Tait sulle palline da golf: nel caso di rotazione retrograda del cilindro rispetto al verso della corrente, emergeva la presenza di una forza che spingeva il cilindro verso l’alto (ricordate la portanza delle ali degli aerei?), mentre nel caso di rotazione anterograda faceva la sua comparsa una forza che 110 spingeva il cilindro verso il basso (classico esempio di portanza negativa). Fu grazie a questi studi che Magnus fu finalmente in grado di fornire la spiegazione fisica del fenomeno, che, in linea generale, consiste nella deviazione della traiettoria di un corpo rotante in un fluido in movimento, e si manifesta quindi in misura maggiore o minore – a seconda del tipo di palla impiegata e dello strumento usato per metterla in rotazione – in molti degli sport in cui si ha a che fare con palloni, palle e palline (calcio, pallavolo, baseball, tennis, ping pong, golf e così via). In tutti questi casi il fluido in movimento è ovviamente l’aria. Ma vediamo come funziona. Innanzi tutto, perché l’effetto Magnus si manifesti sono necessarie due condizioni: la presenza dell’aria e che la palla sia in rotazione su se stessa mentre è in volo. Ora, c’è da sapere che, a causa dell’attrito, una palla in rotazione nell’aria trascina con sé lo strato d’aria immediatamente a contatto con essa, e lo stesso accade a questo strato d’aria rispetto a quello contiguo. In pratica, attorno alla palla si formano degli strati sferici concentrici, ognuno in rotazione a una certa velocità. Consideriamo allora un pallone calciato da destra verso sinistra e ipotizziamo, per comodità, che stia viaggiando in orizzontale, ruotando in avanti su se stesso attorno a un asse di rotazione parallelo al campo di gioco (quindi in senso antiorario). Ora mettiamoci su un sistema di riferimento solidale al moto di traslazione del pallone (in questo sistema di riferimento il pallone è fermo e a muoversi è l’aria che gli viene incontro) e andiamo a misurare le velocità dell’aria che scorre sopra e sotto il pallone stesso. Nella parte in basso, dove la superficie del pallone – con l’aria che trascina con sé nella rotazione – e l’aria scorrono nello stesso verso, l’aria a contatto con la palla avrà dunque una velocità maggiore (le velocità si sommano, perché concordi) rispetto alla parte superiore, dove invece scorrono in direzione opposta (e quindi le velocità si sottraggono, perché discordi). In altre parole, nel momento in cui il pallone è dotato di moto sia rotatorio che traslatorio, la velocità dell’aria aumenta sopra o sotto al pallone in base al verso di rotazione del corpo, proprio a causa del trascinamento dell’aria attorno al pallone stesso (attenzione, quindi: senza attrito, questo ragionamento non sarebbe valido!). Ora, se ricordiamo il principio di Bernoulli, è facile dedurre che la differenza di velocità dell’aria che si trova a contatto con la parte superiore del pallone rispetto a quella a contatto con la parte inferiore crea una differenza di pressione fra i due lati della sfera. In particolare, sapendo che a minore velocità corrisponde maggiore pressione e viceversa, abbiamo che la pressione sopra il pallone è maggiore della pressione sotto. Il risultato netto è 111 che sul pallone agisce una forza, perpendicolare alla direzione di moto e orientata verso il basso. Fig. 4 L’effetto Magnus piega la traiettoria della palla in rotazione su se stessa. In pratica, la rotazione in avanti produce, come si è visto, una portanza negativa che fa abbassare il pallone più rapidamente rispetto alla traiettoria parabolica attesa in assenza di rotazione e dovuta alla sola azione della forza di gravità. È il classico effetto che si ottiene con un colpo top-spin giocando a tennis o a ping-pong, ovvero con il lato battente della racchetta inclinato verso il basso in modo da colpire la pallina dal basso verso l’alto, imprimendole così la rotazione in avanti. Oltre che dal già citato Mariolino Corso, tiri di punizione di questo tipo li abbiamo visti calciare anche da Andrea Pirlo che, in ambito nazionale, condivide con un altro grande del calcio italiano, Francesco Totti, il famoso “rigore a cucchiaio”, basato sullo stesso principio… ma con la rotazione del tipo back-spin. La palla, calciata da sotto, prende infatti una controrotazione che ne allunga la gittata, facendola rimanere in volo quel tanto che basta in più perché il portiere si tuffi da un lato e non riesca più a recuperare la posizione centrale, nonostante l’apparente lentezza del pallone. L’effetto Magnus può essere abilmente impiegato non solo per superare dall’alto la barriera di calciatori, ma anche per aggirarla quando questa copre la visuale della porta o, comunque, per effettuare i cosiddetti “tiri a giro”, di cui è stato maestro Alessandro Del Piero. Per ottere il “tiro a giro” è sufficiente (si fa per dire) colpire la palla di taglio, ovvero lateralmente, imprimendole così, oltre al movimento in avanti, anche una rotazione oraria o antioraria (se vista dall’alto), questa volta con asse di rotazione perpendicolare 112 al terreno di gioco. In questo caso, supponendo di assistere alla scena dall’alto, il pallone subirà una deviazione verso sinistra se in rotazione antioraria, mentre la sua traiettoria piegherà verso destra se il calciatore l’avrà messo in rotazione oraria. L’effetto dipende in particolare dalla velocità di rotazione della palla: tanto maggiore è questa, tanto maggiore è la deviazione dalla traiettoria senza rotazione. Attenzione: l’effetto Magnus si manifesta solo ed esclusivamente in presenza di attrito con l’aria. In assenza di attrito, infatti, si verificherebbe l’effetto opposto, ovvero che a una rotazione oraria del pallone corrisponderebbe una traiettoria piegata a sinistra e, viceversa, a una rotazione antioraria corrisponderebbe una traiettoria piegata a destra. Ecco perché le palline da golf hanno tutte quelle fossette e le palle da tennis sono ricoperte di stoffa: lo scopo è sfruttare appieno gli effetti dell’attrito, che va dunque ringraziato per la sua capacità di rendere così spettacolari le loro traiettorie! Con la tecnica appena descritta è anche possibile fare gol direttamente da calcio d’angolo o comunque da posizioni impossibili perché particolarmente angolate. Campione, in questo genere di giocate, è il brasiliano Roberto Carlos, che, nella sua lunga carriera, ha segnato gol a effetto incredibili, da calcio d’angolo, da posizioni angolatissime, su calci di punizione impensabili. Gli annali del calcio riportano un suo calcio di punizione come quello in cui si è visto uno degli effetti più ampi mai realizzati. Il 3 giugno 1997, in una partita contro la Francia valevole per il Torneo di Francia (competizione amichevole internazionale cui erano state invitate a partecipare le squadre nazionali di Italia, Inghilterra e Brasile), Roberto Carlos, che vestiva la maglia verde-oro della nazionale brasiliana, calciò da 34 metri di esterno sinistro, dopo una lunga rincorsa. Con una velocità di picco di 115 chilometri orari, il pallone, in forte rotazione antioraria (proprio causa del tiro di esterno sinistro) aggirò la barriera e si infilò nell’angolino basso alla sinistra di Fabien Barthez, il portiere francese, dopo aver colpito l’interno del palo. Al termine della partita Barthez, che era rimasto impietrito, ammise l’errore, dichiarando di aver valutato il pallone molto al di fuori dello specchio della porta, considerata la traiettoria iniziale. In effetti, il pallone deviò di quasi 6 metri rispetto alla sua ipotetica traiettoria rettilinea iniziale! Un divertissement: una partita di calcio… lunare Nel dicembre 1972, gli astronauti della missione Apollo 17 Eugene Cernan e Harrison Schmitt, gli ultimi uomini a mettere piede sulla Luna, si improvvisarono calciatori, passandosi di piede una pietra lunare che sulla 113 Terra sarebbe pesata oltre 90 kg. Ma quanto pesava sulla Luna? Con una massa 81 volte minore di quella della Terra e un raggio quasi 4 volte più piccolo, la Luna ha una gravità alla superficie pari a circa 1/6 di quella terrestre. Così, il “pallone di pietra lunare” pesava appena 15 kg: sufficientemente leggero per essere calciato da un uomo. Sarebbe possibile giocare a pallone sulla Luna? Certo, ma con alcuni accorgimenti. Proviamo allora a immaginare una partita sul nostro satellite, sfruttando le competenze che abbiamo ormai acquisito sulla forza di gravità e sulle leggi della dinamica. In teoria, un calciatore che vuol fare un lancio lungo sa che la massima distanza si raggiunge calciando la palla con un angolazione di 45° rispetto al terreno. Imprimendo alla palla una velocità di 20 metri al secondo (circa 70 km orari), sulla Luna questa viaggia per quasi 240 metri. Ma c’è di più. Sul nostro pianeta, quel calcio spedirebbe la palla ad “appena” 10 metri di altezza, ben poca cosa rispetto ai 60 metri che raggiungerebbe sulla Luna, oltre tutto percorrendo una parabola perfetta, a causa della totale assenza di atmosfera (non c’è resistenza dell’aria). D’altra parte, con la gravità così debole, un rilancio da fondo campo del portiere può far volare la palla per oltre 15 secondi: un’eternità, per il gioco del calcio (provate a contarli, uno a uno: sembrano non passare mai!). Sulla Terra, lo stesso tiro la farebbe volare per meno di 3 secondi – fortunatamente, aggiungiamo. Sulla Luna, un calciatore avrebbe tutto il tempo di piazzarsi per colpire al meglio di testa, ma la velocità del gioco ne risentirebbe assai. Consideriamo ora un portiere che si tuffi orizzontalmente per parare una palla insidiosa tirata verso l’angolino. Se la porta di un campo di calcio lunare avesse le stesse dimensioni di quelle terrestri (7,32 metri di lunghezza per 2,44 metri di altezza: queste misure sono state regolamentate in Inghilterra verso la fine del XIX secolo e corrispondono a una lunghezza di 8 iarde per un’altezza di 8 piedi!), sarebbe difficilissimo “dosare” i tiri e i movimenti. A meno che tutti i calciatori e la palla non fossero accuratamente zavorrati. In effetti, dandosi la stessa spinta che si darebbe sulla Terra per stendersi e parare la palla sul palo, un portiere atterrerebbe molto oltre il palo stesso, lasciando la porta scoperta. Saltando in alto, invece che a 2,5 metri arriverebbe a 15 metri di altezza! Una partita di calcio lunare richiede una preparazione atletica completamente diversa e degli allenamenti specifici per limitare, piuttosto che amplificare, le proprie capacità fisiche. Basti pensare che un contrasto o una spinta in area di rigore fra due giocatori farebbero atterrare la sfortunata vittima del fallo a diversi metri di distanza dal punto di impatto con 114 l’avversario. D’altra parte, un calciatore di 70 kg terrestri sulla Luna peserebbe meno di 12 kg! Non è un caso che il gruppo rock britannico Police, all’inizio nel brano intitolato Walking on the Moon (A passeggio sulla luna), canti la seguente frase: «Puoi fare passi giganteschi, camminando sulla Luna»: così giganteschi da percorrere oltre 5 metri a falcata, correndo lungo la fascia! Accennavamo al fatto che sulla Luna non c’è alcuna atmosfera (motivo per cui gli astronauti erano dotati di caschi, tute pressurizzate e respiratori). Ora, sappiamo che il suono viaggia in aria alla velocità di circa 340 metri al secondo… ma se non c’è aria, come fa a propagarsi il suono uscente dal fischio dell’arbitro? Non c’è alcuna possibilità che questo accada, ovviamente. Ecco perché l’arbitro dovrebbe dotarsi di un fischietto collegato via radio con tutti i calciatori… ed eventualmente con il pubblico! Oltre che senza atmosfera, la superficie lunare è però anche priva di acqua. Nessuna possibilità quindi di far crescere il manto erboso tipico dei campi da calcio. Si giocherà quindi sulla miscela di polvere fine e di detriti rocciosi, chiamata “regolite”. Un po’ come nei campetti di periferia… Ma attenzione, perché alcuni astronauti mostrarono reazioni allergiche! Allora, niente atmosfera né acqua, quindi niente suono, niente manto erboso, ma anche niente vento, niente resistenza dell’aria, nessuna possibilità di calciare con l’effetto, niente luce diffusa che rende il cielo diurno sulla Terra brillante e di un colore celeste uniforme. Il cielo lunare è completamente nero e pieno di stelle anche di giorno. Ma una di queste è brillantissima: il Sole. Dove potrebbe svolgersi una partita del genere? Perché i terrestri possano assistere al campionato lunare occorre che questo si giochi sulla faccia visibile della Luna, nei periodi in cui questa è illuminata dal Sole. Alcuni “mari” lunari, le zone scure della Luna, sono abbastanza estesi e pianeggianti per ricavarci campi da calcio. Le partite sarebbero trasmesse solo per mezzo di una rete di satelliti lunari. La ragione è semplice: il telescopio spaziale Hubble, che orbita attorno alla Terra a circa 400 km di altitudine, riesce a risolvere sulla superficie lunare dettagli di poco inferiori alle dimensioni di un campo da calcio (110 metri di lunghezza per 65 metri di larghezza). Ottimo per gli astronomi, ma inutile per gli appassionati di calcio lunare! Ora, mettere una flotta di satelliti in orbita attorno alla Luna non è particolarmente economico, come sanno bene per esempio alla NASA, (acronimo di National Aeronautics and Space Administration, in italiano “Ente Nazionale per le attività Spaziali e Aeronautiche”) l’agenzia spaziale statunitense che, oltre a mandare, prima e unica, l’uomo sulla Luna – fra il 115 luglio 1969 e il dicembre 1972, nell’ambito del progetto Apollo, sono state inviate sette missioni, di cui sei andate a buon fine, con dodici uomini in totale che hanno messo piede sul suolo lunare –, ha realizzato nel corso degli ultimi anni diverse missioni in orbita attorno al nostro satellite, per indagare più a fondo le sue caratteristiche superficiali e valutare su di essa la presenza o meno di acqua (naturalmente ghiacciata). Fra queste, una sonda robotizzata dotata di un’ottima “vista” è la Lunar Reconnaissance Orbiter (LRO), lanciata nel giugno del 2009 e attualmente in funzione, che è stata addirittura capace di produrre immagini degli equipaggiamenti abbandonati dagli astronauti sulla Luna (bandiere comprese!), smascherando definitivamente i sostenitori della “teoria del complotto”, secondo cui le missioni umane sulla Luna erano state solo una finzione cinematografica. CURIOSITÀ SCIENTIFICHE SUL CALCIO Oltre alle curiosità connesse all’effetto Magnus, il gioco del calcio offre altre innumerevoli curiosità scientifiche. Vediamone alcune, tanto per far capire come questo sport attiri l’interesse anche di fisici e matematici. Palla “lunga”… ma come? In tutti i trattati di fisica c’è scritto che un cannone, per raggiungere la gittata massima, ovvero per scagliare un proiettile il più lontano possibile, deve sparare con un angolo di alzo pari a 45°. Ma secondo Nicholas Linthorne e David Everett, ricercatori dello sport alla Brunel University di Uxbridge (Inghilterra), questa regola nel calcio non vale. Mettendo in relazione la lunghezza del lancio e il tempo di volo con l’inclinazione con cui la palla viene calciata i due sono infatti giunti alla conclusione, pubblicata nel 2006 su Sports Biomechanics, che un calciatore raggiunge la massima gittata tirando con un angolo compreso fra 20° e 35°. In altre parole, una palla calciata ad alzo di 45° in media vola meno e cade più vicina di una calciata con un alzo minore. Dunque il calcio viola le leggi della fisica? Ovviamente no. Più semplicemente, la struttura del nostro scheletro e la disposizione dei nostri muscoli sono tali che le gambe imprimono la loro forza massima calciando la palla con quella angolazione. Ed è proprio questa forza a far sì che la palla viaggi più veloce e più a lungo. Il numero perfetto? 22! Perché una squadra di calcio è composta da undici giocatori? La risposta l’ha trovata, nel 2006, Metin Tolan, professore di fisica sperimentale all’Università di Dortmund, in Germania. Secondo Tolan, infatti, ventidue è il numero perfetto perché una partita di calcio sia avvincente. Se escludiamo i portieri, venti persone rappresentano la “copertura” ottima per un’area di 7000 metri quadrati (è la superficie di un campo di calcio): non troppo densi e ravvicinati, né troppo distanti e rarefatti. «Fattori decisivi sono il tempo necessario a un giocatore per prendere una palla passata e continuare giocare e il tempo che l’avversario necessita per riconquistarla», spiega il fisico. Per entrambe queste reazioni occorrono in media tre secondi: il tempo giusto perché il gioco sia regolare ed entusiasmante, secondo Tolan. Ma perché ciò accada, occorre che fra un calciatore e un compagno di squadra ci sia sempre una distanza media confrontabile con quella che c’è fra lo stesso calciatore e un giocatore della squadra avversaria: cosa che si ottiene se in campo ci sono appunto venti giocatori, oltre ai portieri. La “girandola” delle sostituzioni Una squadra sta vincendo, ed ecco che l’allenatore sostituisce un attaccante con un difensore. In un’altra partita è sotto di un gol, e l’allenatore mette in campo un’altra punta per rinforzare l’attacco. Ma esiste una strategia vincente per le sostituzioni? Secondo Nobuyoshi Hirotsu e Mike Wright, dell’Università di Lancaster, Inghilterra, esiste, e l’hanno individuata nel 2002 studiando un intero 116 campionato di Premier League britannica. Inserendo nel modello la capacità di segnare, quella di non subire gol, quella di tenere palla e quella di riconquistarla, nonché i vari ruoli in campo, i due matematici hanno scoperto che, a seconda dei minuti restanti e del numero di sostituzioni disponibili, è possibile stimare i punti finali in classifica in base al tipo di sostituzione. Così, suddividendo i ruoli dei calciatori inizialmente in panchina in cinque categorie (difensori, difensori centrali, mediani, centrocampisti e attaccanti), più dettagliate della tradizionale suddivisione in tre ruoli, Hirotsu e Wright hanno calcolato che le migliori strategie di sostituzione si hanno se la configurazione iniziale per una squadra di casa è la 2-2-1-3-2 (una sorta di 4-4-2), mentre per la squadra in trasferta è la 1-2-2-3-2 (un 5-3-2). Ovviamente sempre in termini di probabilità… E comunque, anche se i lavori dei ricercatori non trovano diretta applicazione nella realtà, sono oltre dieci anni che i due continuano a sfornare ricerche sull’argomento, a dimostrazione che il gioco del calcio va ben oltre il gioco in sé! 117 V Fisica aliena ... e dell’impossibile! Fin qui abbiamo parlato di leggi e fenomeni che possiamo sperimentare tutti i giorni nelle nostre attività outdoor. Ma, come potete immaginare, c’è tanta fisica anche fuori dall’atmosfera terrestre! In proposito, abbiamo deciso di fare una selezione serratissima, e di ammettere in finale solo due argomenti “alieni”: gli asteroidi, che potrebbero caderci sulla testa, e i buchi neri, che invece potrebbero deglutirci. Così, tanto per rimanere su pensieri ottimistici – si fa per dire! – e collegare comunque i due temi a questioni che possano in qualche misura riguardarci direttamente (no, state tranquilli, un asteroide può caderci davvero sulla testa, ma che la Terra passi vicino a un buco nero e che questo ci deglutisca è davvero una possibilità remotissima). Però... manca ancora qualcosa. Non vogliamo farvi mancare un rapido cenno alla fisica dell’impossibile (o del possibile, ma con parecchie limitazioni). Allora chiudiamo il capitolo – e il libro – parlandovi dei wormhole, gallerie che ci permetterebbero di spostarci rapidamente nello spazio e nel tempo, e del fenomeno – questo sì, reale e sperimentato – del teletrasporto quantistico. Ma ricordate, se non volete fare la fine del protagonista del film L’esperimento del dottor K del 1958 (il titolo originale del film è The fly, La mosca), è meglio continuare a muoversi con i mezzi descritti nel primo capitolo! 118 GLI ASTEROIDI, CORPI MINORI DEL SISTEMA SOLARE Quando si pensa al Sistema Solare, la mente va subito al Sole e al suo ineguagliato corteo di pianeti: Mercurio, Venere, Terra, Marte, Giove, Saturno, Urano e Nettuno (Plutone è stato classificato come “pianeta nano” e non appartiene quindi più alla famiglia dei pianeti veri e propri). In realtà, però, al nostro sistema planetario non appartengono solo questi corpi maggiori, ma anche una miriade di corpi minori, che pure orbitano attorno alla stella Sole e le cui dimensioni possono andare dal frammento microscopico fino al planetoide sferico di qualche migliaio di chilometri di diametro, passando da corpi di dimensioni intermedie e forme più o meno irregolari. I corpi minori sono divisi in due grandi categorie, pur avendo molte caratteristiche in comune: le comete e gli asteroidi (detti anche “pianetini”). Questi ultimi, in particolare, sono sostanzialmente concentrati nella fascia orbitale compresa fra Marte e Giove, molti altri si trovano raccolti in un’ampia zona oltre l’orbita di Nettuno, ma altri ancora hanno orbite che svariano in pratica in tutto il Sistema Solare (alcuni anche interne all’orbita terrestre). CERERE, IL PRIMO ASTEROIDE Con un diametro di poco inferiore a 1000 km, Cerere è il più grande asteroide della cosiddetta “fascia principale”, ovvero quella zona del Sistema Solare compresa esattamente fra le orbite di Marte e Giove. Cerere è anche l’asteroide più massiccio della fascia, in quanto contiene circa il 30 per cento della massa di tutti gli altri asteroidi combinati. La sua scoperta si deve all’italiano Giuseppe Piazzi (1746-1826), che lo scorse casualmente la prima volta la notte del 1° gennaio 1801 dall’Osservatorio di Palermo, mentre era intento ad analizzare la posizione delle stelle di un catalogo. Confuso all’inizio per una stella, Cerere venne osservato da Piazzi nelle notti immediatamente successive, mostrando un evidente moto proprio rispetto alle stelle di sfondo. Fu così che Piazzi poté annotare sul suo Diario che: «La sera del tre [gennaio] il mio sospetto divenne certezza, essendomi assicurato che essa non era Stella fissa». Cerere fu considerato a lungo come pianeta, e rimase elencato come tale in tavole e libri astronomici per circa mezzo secolo, finché non furono scoperti ulteriori pianetini: fu William Herschel a coniare il termine “asteroide” (simile a stella) per descrivere questi oggetti. Fra i corpi della fascia principale, Cerere (il cui nome ufficiale è il latino Ceres, dal nome della dea romana protettrice del grano) è uno dei pochi ad avere forma praticamente sferica, grazie al fatto di avere una massa sufficiente a modellarlo gravitazionalmente: per questo motivo l’Unione Astronomica Internazionale lo ha promosso al rango di “pianeta nano”, insieme a Plutone, Eris (l’asteroide già noto come Xena), Haumea e Makemake. Così, Cerere è l’unico “pianeta nano” del Sistema Solare interno. Giuseppe Piazzi Giuseppe Piazzi nacque a Ponte in Valtellina nel 1746. Entrato nell’Ordine dei Teatini nel 1764, terminò il suo noviziato tre anni dopo, e si dedicò allo studio della matematica e dell’astronomia. Dopo alcuni anni dedicati all’insegnamento, nel 1780 Piazzi ottenne la concessione alla costruzione di un osservatorio astronomico a Palermo, che prese il nome di Osservatorio Nazionale del Regno delle Due Sicilie. Qui Piazzi scoprì l’asteroide Cerere, cui egli stesso dette il nome di “Cerere Ferdinandea”, in onore di re Ferdinando III di Sicilia (che nel 1816 divenne Ferdinando I delle Due Sicilie). In onore dell’astronomo 119 italiano, invece, venne battezzato “Piazzia” il millesimo asteroide scoperto (nel 1923). Rischi da impatto È noto che il nostro pianeta ha subito, nel corso della sua lunga storia, collisioni con altri corpi, molti di piccole dimensioni, altri notevoli. Ancora oggi, nonostante i dintorni dell’orbita terrestre siano “puliti”, l’atmosfera della Terra è quotidianamente bombardata da milioni di frammenti – per un totale di centinaia di tonnellate di massa – con le dimensioni tipiche del granello di sabbia (ma alcuni possono andare da pochi millimetri a qualche centimetro) che danno origine al fenomeno delle meteore, più noto con il nome di “stelle cadenti”. L’impatto più catastrofico è stato senz’altro quello che ha dato origine alla Luna che, secondo la teoria più accreditata, è una vera e propria “costola” della Terra: circa 50 milioni di anni dopo la formazione del Sistema Solare (avvenuta attorno a 4,6 miliardi di anni fa), un asteroide delle dimensioni di Marte impattò il nostro pianeta, ancora caldo, immettendo così in orbita una quantità di materiale sufficiente a dare origine alla Luna. Molto più di recente, anche se in tempi remoti, l’impatto con un grosso asteroide causò – o comunque innescò – la grande estinzione del Permiano (dal nome del periodo geologico al quale dette fine), circa 250 milioni di anni fa. Sicuramente meno nota dell’estinzione dei dinosauri (avvenuta “soltanto” 65 milioni di anni fa, anch’essa probabilmente innescata da un impatto cosmico), ma di sicuro più disastrosa, l’estinzione del Permiano vide la scomparsa di oltre il 90 per cento delle forme di vita marine e di oltre il 70 per cento di quelle terrestri. A quell’epoca i continenti della Terra non erano ancora separati e le terre emerse erano unite in un unico grande supercontinente, la Pangea. A causa dei grandi movimenti geologici successivi è praticamente impossibile trovare le tracce dell’immane cratere che l’impatto dell’asteroide, dal diametro stimato di una decina di chilometri, lasciò sulla crosta terrestre. Ma molti crateri da impatto sono ancora ben visibili, come per esempio il Meteor Crater, che si trova nel deserto dell’Arizona, a circa 50 km da Flagstaff. È uno dei crateri da impatto meglio conservati: circondato da una “corona” di materiale sollevato dall’impatto di 45 metri di altezza, ha un diametro di 1200 metri ed è profondo 170 metri. A generarlo, circa 50.000 anni fa, durante il Pleistocene, fu un meteorite metallico (nickel-ferro) di 50 metri di diametro, che doveva viaggiare a una velocità di diversi chilometri al secondo. L’impatto produsse un’esplosione con un’energia equivalente ad almeno 2,5 milioni di tonnellate di tritolo, pari a circa 150 volte l’energia delle 120 bombe atomiche impiegate a Hiroshima e Nagasaki. Al giorno d’oggi, il rischio che la Terra possa essere nuovamente bersaglio di un asteroide non è altissimo, ma non è nemmeno nullo. Per questo motivo esistono molti progetti dedicati alla ricerca e al controllo delle orbite di quegli asteroidi le cui orbite sono pericolosamente vicine a quella del nostro pianeta. Di questi, collettivamente chiamati NEO (dall’inglese Near-Earth Object; o anche NEA, dove la A sta per Asteroid), se ne conoscono già alcune migliaia. Sulla base delle dimensioni (almeno 150 metri di diametro) e dei parametri orbitali (minima distanza dall’orbita terrestre sotto 7,5 milioni di chilometri, 20 volte la distanza media Terra-Luna), già alcune centinaia sono classificati come PHO (Potentially Hazardous Object, oggetto potenzialmente pericoloso): è infatti sufficiente una piccola perturbazione gravitazionale perché uno di questi oggetti diventi un proiettile scagliato contro la Terra. Nel corso degli anni la Terra ha subito centinaia di incontri ravvicinati con piccoli asteroidi, l’ultimo dei quali è avvenuto il 15 febbraio 2013, quando 2012 DA14, un asteroide di 30 metri di diametro e una massa stimata di 40.000 tonnellate, è passato ad appena 27.700 km dalla Terra, molto meno di 1/10 della distanza Terra-Luna. A oggi, quello di 2012 DA14 è l’incontro più ravvicinato di un asteroide di queste dimensioni con il nostro pianeta. SPECIAL EFFECTS Il crollo del Muro di Berlino e dell’impero sovietico era ancora lontano e forse addirittura imprevedibile quando nel 1979 uscì il film Meteor. Uno scienziato statunitense (interpretato da Sean Connery) ha progettato un’arma nucleare appositamente ideata per respingere l’eventuale minaccia rappresentata da un asteroide in rotta di collisione con il nostro pianeta, ma temporaneamente puntata verso il territorio sovietico come ulteriore deterrente. Quando però una cometa appena scoperta impatta con l’asteroide Orpheus e un gigantesco frammento di questo sta per piombarci addosso, ci si rende conto che la potenza americana non può fare niente se non viene aiutata dai sovietici, anch’essi in possesso di un’arma equivalente (e parimenti illegale e segreta). Il disgelo fra le due superpotenze impedisce che l’umanità si estingua – anche se qualche frammento più piccolo che anticipa l’arrivo del corpo principale riesce a fare notevoli danni in molte parti del Pianeta –, ma il rischio corso è stato grande. L’idea di inviare testate nucleari contro asteroidi minacciosi è vecchia quanto il nucleare stesso, ma in realtà, fino a una ventina di anni fa non si pensava che la Terra potesse correre grossi pericoli in tal senso. Lo spazio interplanetario nei nostri dintorni appariva incredibilmente sgombro di detriti cosmici – a parte quelli prodotti da migliaia di satelliti artificiali messi in orbita dall’uomo – e l’oggetto astronomicamente più vicino era la pallida e silenziosa Luna, a ben 384.000 km di distanza e comunque in lento ma inesorabile allontanamento. Ma a partire dal 1991 la situazione cambiò drasticamente. Fu in quell’anno che lo Spacewatch Telescope, un piccolo strumento ubicato nel comprensorio di Kitt Peak vicino a Tucson, Arizona, e appositamente dedicato alla ricerca e all’osservazione di asteroidi con orbite potenzialmente pericolose per il nostro pianeta, scoprì il primo oggetto fra quelli che vennero in seguito catalogati come “NEO”, ovvero Near Earth Objects: un meteoroide che sfiorò la Terra (in termini astronomici), passando a soli 170.000 km di distanza, ovvero a meno della metà della distanza che ci separa dalla Luna. Da quel momento la popolazione di questi oggetti è aumentata di anno in anno tanto che adesso il “vicinato” della Terra è considerato troppo affollato e minaccioso e noi non dormiamo sonni tranquilli. Perciò una 121 rete di ricerca internazionale si dedica esclusivamente all’attività di monitoraggio dello spazio circostante la Terra. E sono stati forse gli annunci periodici di probabili futuri rischi di impatto fra questi oggetti e il nostro pianeta – oltre, soprattutto, alla grande risonanza mass-mediatica avuta dall’impatto fra i frammenti della cometa Shoemaker-Levy 9 e il pianeta Giove nel 1994 – a convincere qualche sceneggiatore e regista cinematografico che il filone catastrofico degli impatti interplanetari a rischio di estinzione era da sviluppare, magari ben condito da effetti speciali di sicura presa sul pubblico, sempre molto affascinato dall’idea di un’esplosione nucleare nello spazio o dalla visione di una città come New York distrutta da una “pietra cosmica”. Nel 1998, nel giro di pochi mesi, sono uscite le pellicole hollywoodiane Deep Impact e Armageddon, ambedue nel filone “fine del mondo per cause naturali” e i cui protagonisti hanno il compito di evitare l’estinzione di massa dell’uomo causata dal terrificante impatto di un corpo di grandi dimensioni – in questi casi una cometa – con la Terra. La soluzione prospettata è quella di bombardare con testate nucleari il meteoroide inviando una missione di salvataggio (in Armageddon facendo atterrare sul nucleo cometario una squadra di esperti trivellatori, guidati da Bruce Willis, per inserire le cariche esplosive in profondità). Entrambe, infine, mostrano incredibili effetti speciali: distruzioni di città, onde di maremoto, piogge di meteore, esplosioni nucleari e via dicendo. Ma in Deep Impact c’è qualcosa di più, forse anche di più preoccupante: la possibilità che il disastro diventi inevitabile e che ci si trovi costretti a scegliere chi salvare, magari con una “lotteria”, invitandolo a ritirarsi in rifugi sotterranei appositamente realizzati e attrezzati insieme a medici, artisti, scienziati e – potevano mancare? – militari. Insomma, una sorta di Arca di Noè per l’umanità, soggetta a un’inquietante “selezione artificiale” dai criteri tutt’altro che ovvi. Ed è piuttosto questa che dà da pensare, non la consueta e ormai abusata visione di immani distruzioni. All’uscita dal cinema ci domandiamo se quella del salvataggio dall’estinzione con estrazione a sorte – questo sì che è un “effetto speciale” – sia un’idea originale dello sceneggiatore o piuttosto un documento segreto del Pentagono di cui qualcuno ha spifferato qualcosa all’esterno. E la preoccupazione che sia vera questa seconda ipotesi è tutt’altro che remota. Ma più in generale, alla visione di questi film, ma anche di altri di argomento vagamente scientifico, viene da pensare se sia una notizia o una scoperta scientifica, anche rilevante per il futuro dell’umanità, e il conseguente dibattito nell’opinione pubblica a stimolare la realizzazione di un certo tipo di pellicola o se non avvenga il contrario. Ovvero, che sia l’uscita di un film di successo ad aprire gli occhi dell’opinione pubblica sensibilizzandola su quel determinato problema. Pensiamo a film come Philadelphia (1993) sul dramma dell’AIDS, Risvegli (1990) sul mistero di alcune patologie neurologiche (protagonista Robert De Niro), Coma profondo (1978) sul problema dei trapianti, Extreme Measures (1996, con Hugh Grant e Gene Hackman) sulle chirurgie riabilitanti o, magari, anche Contact (1997) sulla ricerca di vita intelligente nell’Universo, fino al celebre The Day After Tomorrow (2004), sui rischi dell’effetto serra e del cambiamento del clima. Se quest’ipotesi fosse vera dovremmo preoccuparci: certamente non per l’atto di sensibilizzazione provocata dai film su un certo argomento (anzi, ben vengano!), ma perché un argomento su cui non venga realizzato almeno un film di successo rischia di non essere seriamente preso in considerazione dall’opinione pubblica. Forse è questo l’unico grande, incredibile “effetto speciale” del cinema. Curiosità... La missione Deep Impact è esistita davvero. Non stiamo scherzando. Il 4 luglio 2005 (non è una data scelta a caso!) la cometa Tempel 1 è stata “bombardata” con un proiettile lanciato dalla sonda Deep Impact, appunto, appositamente progettata per «vedere l’effetto che fa», come cantava il nostro Enzo Jannacci (1935-2013). Alla velocità di impatto di circa 37.000 km/h, ha prodotto sul nucleo cometario un bel cratere con un diametro che raggiunge i 200 metri e una profondità di oltre 30 metri, mentre il “fuoco d’artificio” è stato addirittura visibile dai telescopi al suolo, pur avvenendo a circa 430 milioni di chilometri di distanza. Un’altra curiosità è che la cometa Tempel 1 è stata visitata nuovamente il 14 febbraio 2011 dalla sonda Stardust nell’ambito di una missione volta a osservare meglio il cratere creato dalla Deep Impact. La Tempel 1 è stata la prima cometa a essere visitata due volte da una sonda spaziale. L’estinzione dei dinosauri Per molto tempo l’estinzione dei dinosauri è stata un mistero. I primi a collegare questo evento con l’impatto di un meteorite furono il fisico 122 californiano Luis Alvarez e suo figlio Walter, geologo, i quali basarono la loro ipotesi sulla scoperta di un sottile strato geologico con un’anomala abbondanza di iridio, molto raro sulla Terra, ma presente in alcuni tipi di asteroidi. Tale strato si trova esattamente in corrispondenza del confine fra i periodi Cretaceo e Terziario ed è quindi datato a circa 65 milioni di anni fa. Secondo molti ricercatori furono le gravi alterazioni del clima planetario conseguenti all’impatto a causare la rapida scomparsa di molte specie viventi, fra cui, appunto, i dinosauri. In realtà, adesso sembra accertato che l’estinzione fosse già iniziata per altre cause, come la riduzione del livello di ossigeno dovuta all’aumento dell’attività vulcanica. Tuttavia, la scoperta, nella penisola messicana dello Yucatan, del cratere di Chicxulub, largo oltre 170 chilometri, sembra confermare a quella data l’impatto distruttivo di un meteorite di oltre 10 chilometri di diametro. Le Scale Torino e Palermo Imitando i geologi che, per valutare un terremoto, impiegano la scala Mercalli – dal nome del vulcanologo Giuseppe Mercalli (1850-1914), che la propose nel 1884 –, basata sulla fenomenologia osservata, e la scala della magnitudo Richter – dal nome del fisico e sismologo statunitense Charles Francis Richter (1900-1985), che per primo la propose nel 1935 –, basata sull’energia rilasciata dall’evento tellurico, anche gli astronomi che si occupano di NEO hanno creato due scale per la valutazione del rischio da impatto di un NEO con il nostro pianeta. Curiosamente, le due scale prendono il nome di Scala Torino e di Scala Palermo (in inglese, rispettivamente Torino Scale e Palermo Technical Impact Hazard Scale; dai nomi delle città in cui sono state presentate per la prima volta). Mentre la prima – nata originariamente come A Near-Earth Object Hazard Index – è una scala a passi discreti (da 0 a 10) ideata per comunicare con il pubblico i rischi associati a un possibile impatto, la seconda è una scala continua di tipo logaritmico che, come suggerisce anche l’attributo technical nel nome completo in inglese, è ad esclusivo uso degli addetti ai lavori. 123 METEOROIDI, METEORE, METEORITI Il fenomeno delle “stelle cadenti”, nome popolare con cui sono note le meteore – questo è invece il termine scientifico corretto – è originato dall’ingresso nella nostra atmosfera di grani di polvere di varie dimensioni che, incontrando le molecole di aria, bruciano per attrito lasciando una scia luminosa che, se osservata di notte, può diventare anche visibile ai nostri occhi. L’atmosfera che avvolge il nostro pianeta è bombardata di continuo da materiale interplanetario che incrocia l’orbita della Terra, e questi impatti possono avvenire naturalmente anche durante il giorno (le piogge diurne vengono rivelate con tecniche radar). Il fenomeno però diventa visibile e talvolta assume aspetti spettacolari soltanto di notte, quando appunto la scia luminosa solca il nero cielo notturno. Le dimensioni di questi grani di polvere sono spesso molto ridotte (dell’ordine dei millimetri o dei centimetri), ma se uno di questi frammenti ha dimensioni e massa leggermente maggiori può originare un fenomeno luminoso ancor più spettacolare che prende il nome di bolide e può diventare visibile anche di giorno: la scia di un bolide può infatti per un breve intervallo di tempo essere tanto luminosa da “fare ombra” (come per esempio la Luna piena) e persistere in cielo anche per lungo tempo dopo l’evento meteorico, come è accaduto nei cieli russi il 15 febbraio 2013. Per esempio, un grano di due soli grammi di massa è sufficiente a generare una meteora della stessa luminosità di Sirio, la stella più brillante del cielo. Le stelle cadenti quindi non sono stelle nel senso proprio del termine, tutt’altro. Esse hanno un’origine assolutamente interna al Sistema Solare: il loro comportamento e il loro destino sono infatti legati a un altro genere di corpi minori del nostro sistema planetario, anch’essi ben noti per la spettacolarità e il fascino delle loro apparizioni, le comete. Sono queste le responsabili degli sciami meteorici: a ogni loro passaggio al perielio (il punto di massimo avvicinamento al Sole), le comete perdono materiale abbandonandolo lungo la loro orbita. Questo materiale poi, perturbato gravitazionalmente dal Sole e dai pianeti, si distribuisce in un ampio spazio lungo questa orbita, potendo così anche intersecare l’orbita terrestre. I grani che, al momento in cui la Terra ne attraversa l’orbita, entrano in atmosfera prendono il nome di meteore – meteora è definito tale fenomeno atmosferico –, altrimenti sono genericamente chiamati meteoroidi. I meteoroidi più grandi, la cui orbita li porta a impattare la superficie terrestre prima che si consumino completamente per l’attrito, prendono il nome di meteoriti. Attenzione a 124 distinguere i vari nomi: meteoroide è il generico grano orbitante, meteora è il fenomeno legato all’ingresso in atmosfera di un meteoroide, meteorite è un meteoroide che riesce a raggiungere la superficie del nostro pianeta senza disintegrarsi nell’attraversamento dello strato d’aria che ci sovrasta. Lo studio delle orbite dei meteoroidi costituenti i diversi sciami conosciuti ha permesso di determinare che tutti hanno una cometa come progenitrice. Per lo sciame delle Perseidi, per esempio, è la P/Swift-Tuttle, mentre per le Leonidi è la cometa P/Tempel-Tuttle, così chiamate dai nomi dei loro scopritori (la P indica che sono comete periodiche). I vari frammenti percorrono infatti orbite molto vicine a quella della cometa progenitrice, per cui si ha la certezza che la pioggia di meteore sia costituita proprio da materiale abbandonato da questa cometa durante i suoi vari passaggi ravvicinati con il Sole: sono questi ultimi la causa della progressiva disintegrazione del nucleo cometario da cui si staccano i frammenti che generano poi gli sciami di meteore. Ma che cosa accade quando uno di questi frammenti entra in atmosfera? I grani penetrano negli strati più esterni di questa alla velocità di qualche decina di chilometri al secondo. Le piogge più spettacolari si hanno quando gli impatti sono frontali, ovvero quando i frammenti entrano in collisione diretta con l’atmosfera, sommando così le due velocità (quella della Terra e quella dei frammenti che le vengono incontro). Il fenomeno luminoso inizia a un’altezza di 110-115 km ed è dovuto alla scia di gas ionizzati generata dall’impatto dei meteoroidi con le molecole di aria. Il fenomeno si conclude generalmente dopo un breve lasso di tempo (qualche decimo di secondo) a un’altezza di circa 90 km dal suolo, quando il frammento viene completamente vaporizzato. Le migliori condizioni di visibilità del fenomeno si verificano quando il radiante, ovvero la zona di cielo da cui sembrano “irradiarsi” le scie luminose per un semplice effetto prospettico, è ben alto sopra l’orizzonte, cioè nel periodo in cui gli impatti sono proprio frontali. La costellazione in cui si trova il radiante dà il nome allo sciame: le Perseidi hanno il loro radiante nella costellazione di Perseo, le Leonidi in quella zodiacale del Leone e così via. Occorre quindi capire qual è il momento in cui la costellazione dove è situato il radiante dello sciame è meglio visibile nell’arco della nottata. Il motivo per cui lo “sciame delle Perseidi” ha i suoi picchi di intensità sempre nella seconda parte della nottata, cioè molto dopo la mezzanotte, è dovuto al fatto che la costellazione di Perseo, verso la metà di agosto, comincia a diventare meglio visibile a partire dalla mezzanotte ed è poi osservabile per tutto il resto 125 della notte. Analoghi ragionamenti valgono per tutti gli sciami. In genere non è facile prevedere il numero di meteore all’ora che daranno vita alla pioggia, ma un tasso orario (tecnicamente si parla di Zenithal Hourly Rate, o ZHR, tasso orario zenitale, che rappresenta il numero di meteore appartenenti a uno sciame osservate in condizioni standard ideali di visibilità) di circa cinquanta-cento meteore è una buona stima per il massimo annuale di attività delle Perseidi, mentre per le Leonidi, negli anni intorno al passaggio al perielio della cometa progenitrice (la Tempel-Tuttle ha un periodo di 33 anni circa), si può arrivare anche a diverse migliaia di meteore l’ora. 126 BUCHI NERI, MISTERI DEL COSMO Bene, sin qui abbiamo parlato di asteroidi e dei potenziali rischi connessi alla loro caduta sul nostro pianeta. Ma chiunque si avvicini all’astronomia prima o poi sente forte la curiosità verso gli oggetti più misteriosi dell’Universo: i buchi neri. Veri e propri “signori dell’oscurità”, in grado di mangiare qualunque atomo passi nelle loro vicinanze e di non lasciare uscire nemmeno la luce, tanto intensa è la loro gravità, questi oggetti sono un vero problema per i fisici, che ancora non sanno capire che cosa può succedere alla materia una volta che vi sia caduta dentro, e per gli astronomi, che spiegano i fenomeni più energetici del cosmo proprio invocando la loro presenza, senza però avere mai la possibilità di osservarne uno direttamente. Cerchiamo di capire qualcosa di più di questi affascinanti oggetti celesti, parlando di quanto è stato scoperto grazie agli studi teorici e alle osservazioni dallo spazio, e quanto ancora resta da svelare del loro mistero. Che cos’è un buco nero Il nome buco nero (in inglese black hole) fu coniato nel 1967 dall’astrofisico teorico statunitense John Archibald Wheeler (1911-2008) per riferirsi a un corpo celeste la cui gravità era così intensa da non lasciar scappare nemmeno la luce. “Nero” perché non emette luce. Ecco il motivo di tanto mistero: poiché i buchi neri non sono luminosi, non possiamo vederli mai direttamente e siamo costretti a cercarli e studiarli solo attraverso gli indizi indiretti che la loro presenza lascia nell’ambiente circostante. In altre parole, se un buco nero mangia una stella, noi non “vediamo” il buco nero, ma possiamo osservare comunque gli effetti devastanti del suo intenso campo gravitazionale. Nonostante sia stato Wheeler a coniare l’espressione “buco nero” riferendosi al possibile stadio finale di una stella collassata su se stessa sotto l’effetto della gravità, l’idea che potessero esistere corpi simili – almeno dal punto di vista teorico – risale a oltre due secoli fa. Furono l’inglese John Michell (17241793) e il francese Pierre-Simon de Laplace a ipotizzare, l’uno indipendentemente dall’altro, l’esistenza di “stelle invisibili”, semplicemente usando le leggi della dinamica e la legge di gravitazione universale di Newton (adesso i buchi neri sono correttamente descritti utilizzando la teoria della relatività generale di Einstein). In Esposizione del sistema del mondo (1798), Laplace scrisse: «Una stella luminosa, della stessa densità della Terra, e con un diametro pari a 250 volte quello del Sole, non permetterebbe, a causa della 127 sua attrazione gravitazionale, ai suoi raggi luminosi di raggiungerci; è dunque possibile che i corpi celesti più grandi e più luminosi siano, per questo motivo, invisibili». Il concetto che sta alla base dell’idea di Laplace è quello di velocità di fuga. Un buco nero, infatti, è un oggetto così compatto che la sua gravità è in grado di trattenere anche la luce, che ha la massima velocità possibile (pari a circa 300.000 km/s). In pratica, per fuggire dal buco nero occorrerebbe una velocità superiore a quella della luce, ma ciò è impossibile! È chiaro che un astro del genere cessa di essere visibile, perché nemmeno la luce riesce a sfuggire dalla sua intensa gravità. Fu Einstein a spiegarlo con la deflessione della luce da parte di un campo gravitazionale. In pratica, nelle vicinanze di un buco nero, lo spazio-tempo è così incurvato che anche le traiettorie dei raggi luminosi si ripiegano su loro stesse senza via di scampo. (Un esempio: per trasformare il Sole in un buco nero dovremmo concentrare tutta la sua massa in una sfera di 3 km di raggio, mentre la Terra dovrebbe diventare una pallina con una raggio di appena 9 mm!) Oggi non siamo in grado di sapere che cosa accada davvero alla materia e all’energia che vi cadono dentro. Una sorta di lieto fine, però, può esistere anche cadendo in un buco nero. Sì, perché i buchi neri, anche se molto lentamente, “evaporano”. Ovvero, riemettono tutta la materia e l’energia da cui sono composti. In altre parole, non sono così neri come li dipinge la relatività generale. A dimostrarlo fu, negli anni Settanta, l’inglese Stephen Hawking (1942), applicando le leggi della meccanica quantistica. Prima o poi, quindi, la materia caduta nei buchi neri uscirà nuovamente fuori. Basterà attendere qualche migliaio di miliardi di miliardi di miliardi di miliardi di miliardi di miliardi di miliardi di anni! (In confronto, l’età del nostro universo è di circa 13,7 miliardi di anni). LA VELOCITÀ DI FUGA Se lanciamo un sasso verso l’alto, per la forza di gravità, esso rallenta sempre di più fino a raggiungere un’altezza massima e poi ricade a terra. Con una spinta maggiore della precedente, il sasso raggiungerà un’altezza maggiore, ma invertirà sempre il suo moto. Solo imprimendogli una certa velocità limite, saremmo in grado di farlo sfuggire definitivamente dal campo gravitazionale della Terra. Tale velocità limite, detta appunto velocità di fuga, dipende solo dalla massa e dalle dimensioni dell’astro da cui si vuole sfuggire. Per la Terra, per esempio, vale 11,2 km/s, mentre per il Sole è pari a 618 km/s. Per le nane bianche, di massa simile al Sole, ma molto più piccole (hanno diametri di poche decina di migliaia di chilometri), la velocità di fuga è di circa 7000 km/s, per le stelle di neutroni, con masse non molto superiori e dimensioni pari a quelle di una grande metropoli, arriva a 150.000 km/s. I tre (o quattro) tipi di buco nero 128 Fino a una quindicina di anni fa, le osservazioni davano conto di due soli tipi di buco nero: quelli stellari, ovvero con masse confrontabili con quella del Sole o non molto superiori, e quelli supermassicci, con masse che vanno da qualche centinaio di migliaia a molti milioni di masse solari. Ma da qualche tempo, grazie alle immagini e agli spettri ad alta risoluzione di satelliti per raggi X come Chandra e XMM-Newton, un terzo tipo ha fatto la sua apparizione sulla scena: il buco nero di massa intermedia, con masse tipiche di migliaia di volte quella del Sole. Ma andiamo con ordine. I buchi neri stellari sono quelli noti da più tempo. Essi si originano quando una stella di grande massa, al termine della sua evoluzione, esaurisce tutto il suo combustibile nucleare e collassa su se stessa per effetto della propria gravità. L’evento, un’esplosione che squassa l’astro – è il fenomeno noto come supernova – è catastrofico: se il nucleo della stella supera la decina di masse solari, nessuna forza nucleare è in grado di contrastare il collasso gravitazionale e il risultato finale è un buco nero. Tutt’altra origine hanno i buchi neri supermassicci, individuati per la prima volta nei nuclei attivi di alcune galassie. Diverse sono le ipotesi sulla loro formazione: dal buco nero stellare che in milioni di anni mangia tutte le stelle che lo circondano, all’ammasso di buchi neri che si fondono insieme, a, infine, un’enorme nube di gas che collassa direttamente in un buco nero supermassiccio. I buchi neri supermassicci sono fra gli oggetti più energetici del cosmo. Si trovano al centro di moltissime galassie (se non di tutte; anche la nostra ne ha uno), talvolta rendendo i loro nuclei luminosissimi. Le galassie con il buco nero centrale ancora avvolto da una grande quantità di materiale in caduta e quindi in grado di produrre grandissime quantità di energia sono dette attive, e i loro nuclei sono appunto detti nuclei galattici attivi. I quasar, per esempio, ovvero gli oggetti più distanti del cosmo che noi siamo in grado di osservare, sono galassie attive in cui solo il nucleo, brillantissimo, è visibile da miliardi di anni-luce di distanza. Ancora un mistero restano invece i buchi neri di massa intermedia, che secondo alcune ricerche sarebbero stati individuati in alcune galassie o al centro di ammassi stellari particolarmente densi (ammassi globulari). Su questo tipo di oggetti incombe però lo scetticismo di molti astronomi, anche se alcune recenti ricerche ipotizzano la presenza di buchi neri di taglia intermedia anche in prossimità del centro della nostra galassia. Stephen Hawking ha anche teorizzato l’esistenza di un quarto tipo di buco nero, quello mini, o micro, con masse di appena un miliardo di tonnellate 129 (circa la massa di una grande montagna). Dovrebbero essere oggetti primordiali, ovvero nati nei primi istanti di vita dell’Universo, quando la pressione era elevatissima. Ma di questi non si è ancora trovata alcuna traccia. Come funziona un buco nero supermassiccio? All’origine delle incredibili luminosità dei nuclei galattici attivi ci sono le altissime temperature raggiunte dal gas in caduta a spirale verso il buco nero supermassiccio. La materia forma un disco di accrescimento o, meglio, una ciambella (“toro”) che avvolge il “mostro”. Il gas, riscaldato a milioni di gradi, emette radiazione praticamente a tutte le lunghezze d’onda, dalle onde radio ai raggi X. L’accrescimento di materia è una fonte molto efficiente di energia: ne produce a un tasso 10 volte superiore a quello in funzione nelle stelle (reazioni nucleari). In circa il 10 per cento dei casi, si osservano anche dei violenti getti di materia fuoriuscire in direzioni opposte. In questi getti, probabilmente causati dagli intensi campi magnetici presenti nelle vicinanze del buco nero, la materia si allontana dal buco nero viaggiando a velocità molto prossime a quella della luce. Perché l’Universo non è risucchiato dai buchi neri? La sorte ultima dell’Universo è oggetto di discussione da secoli, ma il suo studio assunse una prima formulazione scientifica solo dopo la scoperta della legge di gravitazione universale da parte di Isaac Newton, nel 1687. Il quesito fu posto così dal canonico Richard Bentley in una lettera indirizzata allo scienziato: se tutto si attrae, come fa l’Universo a non crollare su se stesso? In realtà, due corpi celesti attratti reciprocamente dalla gravità, possono, dopo un primo avvicinamento, addirittura allontanarsi indefinitamente, oppure orbitare uno attorno all’altro senza mai cadersi addosso l’un l’altro. Anche ipotizzando che ogni galassia dell’Universo contenga un buco nero massiccio al suo interno, le zone “a rischio” sono quelle centrali, mai quelle periferiche (il Sole non cadrà mai nel buco nero centrale della nostra galassia). Quindi difficilmente vedremo il nostro universo, oltre tutto in espansione, interamente fagocitato dai propri buchi neri. C’è però chi ipotizza che l’Universo stesso sia un enorme buco nero: ma allora noi saremmo già al suo interno! 130 CYGNUS X-1: IL PRIMO (E UNICO?) CANDIDATO La nostra galassia non è immune dalla presenza di potenziali candidati a buco nero. Per fortuna nessuno è così vicino a noi da rappresentare una minaccia per la sopravvivenza della Terra o del Sistema Solare. Nonostante l’elevato numero di sorgenti di raggi X compatte osservate (le candidate migliori per ospitare un buco nero), non esiste infatti ancora alcuna certezza su nessun candidato. Fra questi, l’unico che ancora resiste strenuamente a ogni possibile altra interpretazione delle osservazioni è il sistema binario compatto noto come Cygnus X-1, ovvero la sorgente X più luminosa della costellazione del Cigno. Questo sistema, con un periodo orbitale di circa cinque giorni e mezzo, è composto da una stella blu molto calda e di grosse dimensioni (circa 30 masse solari, di diametro circa 20 volte quello solare) facilmente visibile anche con un binocolo o con un telescopio amatoriale e da una secondaria invisibile la cui massa stimata è di una quindicina di masse solari, fatto che lo rende uno dei buchi neri di tipo stellare più massicci finora conosciuti nella nostra galassia. A una distanza di 6100 anni luce, se la secondaria fosse una stella normale, sarebbe anch’essa facilmente visibile. Misure molto accurate hanno permesso di determinare la rotazione del buco nero, che si stima abbia “appena” 6 milioni di anni, un tempo relativamente breve dal punto di vista astronomico, ma sufficiente per farlo “ingrassare” a spese della stella compagna, da cui risucchia continuamente gas: l’“orizzonte degli eventi”, che è proprio il punto di non ritorno per il materiale in caduta dal disco di accrescimento verso il buco nero, ruota più di 800 volte al secondo. Contrariamente alla teoria dell’evoluzione stellare sulla formazione dei buchi neri stellari, sembra che questo “mostro del cielo” non sia nato dall’esplosione di una supernova, ma da un collasso stellare verificatosi senza passare per quella fase. Gli astronomi ipotizzano che l’astro progenitore del buco nero fosse una stella con una massa iniziale molto grande, addirittura maggiore di 100 masse solari, che si sarebbe poi drasticamente ridotta grazie all’azione di intensi venti stellari, che avrebbero spazzato via gran parte degli strati esterni della stella. La sua invisibilità, l’intensa emissione X prodotta dal sistema e, infine, la stima della massa hanno indotto la maggioranza degli astronomi a pensare di essere davanti al primo caso accertato di buco nero stellare. Ma per lungo 131 tempo c’è stato qualche scettico: e fra questi troviamo anche l’inglese Hawking, uno dei maggiori studiosi di buchi neri e protagonista, nel 1974, di una curiosa scommessa con il collega statunitense Kip Thorne (1940), che invece era già all’epoca un deciso sostenitore della candidatura di Cygnus X-1 a buco nero. Hawking riconobbe la sconfitta solo nel 1990, davanti a dati che non permettevano più dubbi sulla natura dell’oggetto. Quella sulla natura di Cygnus X-1 non è l’unica scommessa di Hawking. Dopo decenni di studi teorici sui buchi neri, lo scienziato, famoso anche per i suoi libri divulgativi sull’argomento, ha scoperto che quello che aveva sempre pensato su questi misteriosi oggetti non era vero. In particolare, Hawking aveva ipotizzato che la materia, una volta caduta nel buco nero, sarebbe scomparsa per sempre, e con essa tutto il suo contenuto di informazione. Era così certo di questo che nel 1997 ci scommise sopra con il collega statunitense John Preskill. Ma il 21 luglio 2004, in un congresso sulla relatività a Dublino, Hawking ha dato ragione a Preskill (inviandogli l’enciclopedia promessa). I buchi neri non fanno proprio sparire tutto, anzi, hanno una sorta di “memoria”. Al loro interno, infatti, potrebbero ancora conservare tracce di ciò che hanno ingoiato. Cosicché, “evaporando” (cioè, come si è detto, emettendo lentamente radiazione per effetto quantistico), restituirebbero questa informazione al nostro Universo. Ma, nonostante la fama di Hawking, c’è ancora molto scetticismo. 132 COME SI INDIVIDUA UN BUCO NERO Naturalmente, non avremo mai alcuna possibilità di individuare un buco nero isolato nello spazio. Sono solo gli effetti sulle stelle e sulla materia che lo circondano a fornirci indizi sull’eventuale presenza di uno di questi oggetti. Per spiegarlo, l’astrofisico John Archibald Wheeler ideò una curiosa analogia. Supponiamo di trovarci in una sala da ballo scarsamente illuminata dove tutte le donne siano vestite di bianco e gli uomini abbiano invece abiti scuri. Guardando le coppie ballare, vedremo le donne muoversi in una coreografia che ci farà con facilità intuire la presenza dei partner maschili, seppure invisibili. In effetti, solo da qualche anno si è “accesa una luce” sui buchi neri. Grazie a strumenti e tecniche sempre più sofisticate da terra e dallo spazio i buchi neri sono meno misteriosi, o almeno è meno misterioso l’ambiente che li circonda. Un buco nero infatti non è visibile direttamente, e l’unico modo per individuarne uno, di qualsiasi tipo, è che sia circondato da una sufficiente quantità di materia (stelle e gas caldo) che gli orbita attorno a distanza ravvicinata. Per i buchi neri stellari, per esempio, significa osservare il moto orbitale di una stella attorno a una compagna invisibile in un sistema binario. I sistemi binari compatti – composti da due astri molto vicini fra loro di cui uno è invisibile – sono in effetti un obiettivo privilegiato degli astrofisici in cerca di buchi neri. L’indizio della presenza di un buco nero (o di una stella di neutroni) è la forte emissione nei raggi X. Il motivo è il seguente. Il buco nero, con la sua intensa attrazione gravitazionale, può strappare materia dalla stella compagna. Questo gas si dispone su un disco appiattito, cadendo a spirale verso il buco nero. È l’attrito prodotto dalle collisioni fra le particelle del gas in caduta a riscaldare gli strati più interni del disco fino a temperature di alcuni milioni di gradi, producendo l’intensa emissione di raggi X. Grazie alle osservazioni in banda X, svolte nel corso di molti decenni, sia nella nostra che in alcune galassie vicine sono state scoperte sorgenti binarie compatte, fra cui una decina di sistemi contenenti potenziali candidati a buco nero. Il problema più grande per sciogliere il nodo è infatti quello di determinare la massa dell’astro invisibile. Questa, anche se con grande approssimazione, è determinabile studiando il moto della compagna o, con ancora maggiore difficoltà, misurando la luminosità X della materia in caduta, legata da una relazione alla massa del corpo su cui cade. 133 Discorso analogo vale per i buchi neri supermassicci osservati nei nuclei di molte galassie e le cui masse vengono stimate misurando le velocità orbitali dei gas in caduta nel “mostro”. In questo caso sono proprio le osservazioni svolte nel visibile (con telescopi da terra e dallo spazio) e in banda radio (con radiotelescopi a terra) a mostrare ripidi aumenti di velocità delle nubi di gas orbitanti al centro delle galassie. La spiegazione è che queste alte velocità orbitali vengono causate dall’intenso campo gravitazionale di un oggetto massiccio. L’osservazione in banda X serve poi a confermare l’elevata produzione di energia causata dalla materia in caduta verso il buco nero. Fu l’italiano Riccardo Giacconi a intraprendere, all’inizio degli anni Sessanta, le ricerche nell’astronomia X (lavorando però negli Stati Uniti). Il premio Nobel assegnatogli nel 2002 è il riconoscimento per i suoi «contributi pionieristici all’astrofisica, che hanno portato alla scoperte delle sorgenti X nel cosmo». Negli ultimi anni le scoperte sui buchi neri si sono moltiplicate. Autori di importanti osservazioni, oltre all’osservatorio orbitante per raggi X Chandra della NASA, sono stati i due satelliti europei XMM-Newton e Integral, il primo lanciato dall’agenzia spaziale europea ESA alla fine del 1999, il secondo attivo dall’ottobre del 2002. Entrambi scrutano il cielo con occhi “speciali”. Il primo ha infatti un telescopio per raggi X, mentre il secondo è dedicato in particolare allo studio dei raggi gamma. E rapide e intense emissioni di raggi X e gamma sono proprio le “tracce” che gli astrofisici cercano quando vanno a caccia di buchi neri. A emettere raggi X è infatti la materia caldissima in caduta verso il “mostro” che la sta fagocitando. I raggi gamma sono invece l’indizio della nascita di un nuovo buco nero. A emetterli sono stelle di grandissima massa che esplodono come supernovae. E quello che resta di queste immani esplosioni è proprio un buco nero. 134 IL TELETRASPORTO: FANTASIA O REALTÀ? Gallerie di tarli e paradossi del nonno Nel 1957, lavorando a degli sviluppi matematici della teoria della relatività generale, John Archibald Wheeler introdusse il concetto di wormhole – letteralmente “buco di verme”, ma tradotto in italiano con l’espressione “galleria di tarlo” –, per descrivere degli ipotetici tunnel nello spazio-tempo, ovvero delle gallerie gravitazionali (in realtà l’idea era stata già teorizzata nel 1921 dal matematico e fisico teorico tedesco Hermann Weyl, 1885-1955). Noti con il termine tecnico di “ponti di Einstein-Rosen”, in onore dei due scienziati che nel 1935 pubblicarono un articolo sull’argomento (Nathan Rosen, 19091995, è stato un fisico israeliano, già collaboratore di Albert Einstein), sarebbero essenzialmente delle “scorciatoie” per spostarsi rapidamente da un punto a un altro dell’Universo, in quanto permetterebbero di viaggiare tra di essi più velocemente di quanto la luce impiegherebbe a percorrere la distanza attraverso lo spazio normale. Per spiegare il concetto di wormhole si pensi a come può muoversi un verme che voglia andare da una parte all’altra di una mela (che è il suo “universo”). Se viaggia sulla sua superficie, il verme è costretto a percorrere metà della sua circonferenza per muoversi fra due punti opposti della mela, mentre se decide di scavare un cunicolo direttamente attraverso il frutto, la distanza che deve percorrere è ovviamente inferiore (è infatti pari al diametro). Ebbene, il foro attraverso la mela rappresenta proprio il cunicolo spazio-temporale. Purtroppo ancora non ci è dato di sapere se i wormhole esistano davvero e se sia possibile viaggiare nello spazio-tempo come in tanti film di fantascienza. Un celebre esempio di wormhole cinematografico è quello del già citato film Contact (1997), tratto dall’omonimo romanzo del famoso astronomo e divulgatore statunitense Carl Sagan (1934-1996), autore della celebre trasmissione televisiva di divulgazione scientifica Cosmos (1980). Ma le “gallerie di tarlo”, oltre a garantire viaggi nello spazio – non solo fra due punti dello stesso Universo, ma addirittura mettendo in comunicazione due universi separati –, permetterebbero anche viaggi nel tempo! Tuttavia molti fisici, fra cui il solito Stephen Hawking, ritengono che la Natura, attraverso le leggi della fisica, impedisca tali fenomeni (è l’ipotesi della “censura cosmica”), proprio a causa dei paradossi che sarebbero implicati da un viaggio nel tempo, sapientemente mostrati nel romanzo La macchina del 135 tempo (1895) dello scrittore inglese Herbert George Wells (1866-1946) o nel film Ritorno al futuro (1985) del regista statunitense Robert Zemeckis (1951) e nei due capitoli successivi. Il problema tipico è quello noto con il nome di “paradosso del nonno”: se, viaggiando indietro nel tempo, uccidessimo nostro nonno prima che lui possa avere figli (ovvero uno dei nostri genitori!), noi non potremmo nascere, quindi nemmeno viaggiare nel tempo né uccidere il nonno… rendendo di nuovo possibile la nostra nascita, e quindi il viaggio nel tempo, e l’uccisione… e così via, in un ciclo infinito! Questo paradosso e alcune sue suggestive varianti, come quella in cui un viaggiatore nel tempo uccide se stesso da giovane, vengono utilizzati per dimostrare l’impossibilità logica dei viaggi a ritroso nel tempo. Allora, se i wormhole non esistono, forse non ci resta altro che il teletrasporto. «Beam me up, Scotty!» (Tirami su, Scotty!) I cultori di Star Trek, una delle serie TV più longeve e famose della storia, avranno certamente riconosciuto l’ordine con cui il comandante dell’astronave Enterprise, il leggendario Capitano Kirk, chiedeva al suo ufficiale Montgomery “Scotty” Scott, ingegnere capo della nave e gestore del sistema di teletrasporto, di venire “tirato su” a bordo dell’Enterprise da qualunque altro luogo si trovasse in quel momento (la superficie di un pianeta, un’altra astronave ecc.). Solo fantascienza o il teletrasporto è veramente possibile? Nei termini in cui si realizza il teletrasporto alla Star Trek, dove a venire trasferita è la materia di cui il Capitano Kirk è composto, siamo sicuramente nel campo della fantascienza, ma è anche vero che esperimenti su un particolare tipo di teletrasporto, noto come “teletrasporto quantistico”, sono stati realizzati in varie parti del mondo, anche in Italia, con risultati molto promettenti. Nel teletrasporto quantistico però non si trasferisce a distanza materia reale, ma viene esclusivamente trasferita l’“informazione” che ne descrive esattamente lo stato fisico in cui si trova. Con questa tecnica non si teletrasporta un corpo o un oggetto materiale, bensì la “funzione d’onda” matematica relativa a quel corpo o quell’oggetto. L’informazione sullo stato fisico della particella è infatti tutta contenuta nella sua funzione d’onda, che esprime, in termini probabilistici, qual è la sua posizione, a che velocità si muove, se è dotata di spin (cioè se ruota su se stessa come una trottola e in quale verso), quanta energia ha e altro ancora. È proprio questa funzione 136 d’onda a raccogliere tutta l’informazione possibile per ricostruire altrove quel corpo o quell’oggetto. I primi esperimenti di teletrasporto vennero fatti nel 1997: il primo da un gruppo di ricercatori dell’Università di Innsbruck guidato dall’austriaco Anton Zeilinger, oggi all’Università di Vienna, l’altro, pubblicato immediatamente dopo, ma più complesso, da un gruppo di fisici guidato da Francesco De Martini, dell’Università “La Sapienza” di Roma. Sono loro i veri pionieri degli esperimenti sul teletrasporto quantistico. Entrambi riuscirono a trasportare a distanza le informazioni quantistiche – ovvero dati come l’energia o lo spin della particella – per riprodurre esattamente lo stato di un fotone, una particella di luce. Solo pochi anni prima, nel 1993, Charles Bennett e collaboratori erano riusciti a dimostrare presso il centro di ricerca dell’IBM di Yorktown (Stati Uniti) che era possibile teletrasportare stati quantistici attraverso canali di comunicazione classici – come una telefonata o un messaggio di posta elettronica, fatto che garantisce che non vi sia alcun superamento della velocità della luce, limite invalicabile della “trasmissione di informazioni” – rispettando certe condizioni imposte dalla meccanica quantistica, la scienza dell’infinitamente piccolo che sta alla base di questi studi. In pratica, De Martini e Zeilinger misero alla prova le ricerche teoriche di Bennett, aprendo così la strada allo studio sperimentale del teletrasporto quantistico. Entanglement, il magico intreccio fra particelle Ma che cosa succede veramente in un esperimento di teletrasporto quantistico? Alla base del fenomeno del teletrasporto si ha l’effetto a distanza che si manifesta fra due particelle quantisticamente correlate o intrecciate, dette entangled, evidenziato per la prima volta in un celebre articolo firmato da Einstein, Podolsky e Rosen nel 1935 (Einstein e Rosen li abbiamo già incontrati parlando dei wormhole, Boris Podolsky, 1896-1966, fu un fisico russo naturalizzato statunitense). L’entanglement, termine inglese usato appunto per definire questa proprietà, consiste proprio nell’“intreccio”, quantisticamente inestricabile, di più particelle, i cui stati non possono più essere descritti singolarmente: in estrema sostanza, due particelle entangled si comportano come se fossero un tutt’uno, anche se si trovano molto distanti l’una dall’altra. Se guardiamo le due particelle singolarmente otteniamo che i risultati di misure ripetute si presentano con valori casuali, cioè da queste non si ricava nessuna informazione utile, mentre se eseguiamo misure sulle due particelle e 137 le confrontiamo si osservano delle correlazioni che si mantengono anche se cambiamo tipo di misura. Ovvero, se eseguiamo una certa misura su una particella intrecciata, la particella gemella ne subirà l’effetto, e collasserà in uno stato ben preciso (che dipende dal risultato ottenuto dalla misura sulla prima particella), anche se le due particelle si trovano a notevole distanza. In altre parole, dal risultato di una misura sullo stato di una particella appartenente a una coppia entangled è possibile conoscere immediatamente lo stato della seconda particella, quand’anche quest’ultima si trovasse a distanze astronomiche. Consideriamo il caso in cui Alice desidera teletrasportare una particella all’amico Bob, che si trova distante da lei. Ora, in base alle “regole” del teletrasporto, Alice non può “consegnare” a Bob la particella vera e propria, ma solo le informazioni che servono per ricrearne una esattamente identica all’originale e, soprattutto, indistinguibile da quella. Alice e Bob si dividono la coppia di particelle intrecciate (nel caso in cui le due particelle intrecciate sono fotoni, uno viene spedito ad Alice e l’altro a Bob), a questo punto Alice fa interagire la particella che vuole teletrasportare con la particella intrecciata a sua disposizione. Ne ottiene un certo risultato che poi comunica a Bob attraverso un canale classico, per esempio la linea telefonica o internet. Quando Bob riceve da Alice il risultato della misura esegue una certa operazione (il tipo di operazione dipende dal risultato ottenuto) sulla particella intrecciata da lui posseduta, ottenendo così la stessa particella che inizialmente era di Alice. 138 Fig. 5 Modello schematico di un sistema per il teletrasporto quantistico. Sembra tutto molto semplice, ma le condizioni a cui il teletrasporto può realizzarsi sono assolutamente vincolanti, come appunto dimostrato da Bennett: Alice non può conoscere lo stato della particella teletrasportata; lo stato di partenza viene perso nel processo, ovvero la particella viene distrutta dal processo di misura e “ricostruita” da Bob in un posto lontano; il teletrasporto richiede comunque un canale di comunicazione classico fra Alice e Bob. «Si-può-fare!» (Frankenstein Junior) La domanda allora sorge spontanea: il teletrasporto quantistico può avere applicazioni pratiche? Certamente sì. Intanto occorre considerare che il teletrasporto è un protocollo appartenente alla “teoria dell’informazione quantistica”, che è un’estensione della “teoria dell’informazione classica”, quella che sta alla base di ogni trasmissione significativa di segnali tramite telefoni, radio, TV. Ma, soprattutto, lo studio del teletrasporto porterà in un futuro lontano alla realizzazione di un nuovo tipo di elaboratore, il computer 139 quantistico, per mezzo del quale saremo in grado di risolvere problemi attualmente impossibili da affrontare da un normale computer, come, per esempio, la “fattorizzazione in numeri primi” di un numero molto grande, oggi fondamento di ogni cifratura criptata, per usi di segreto bancario, militare e altro ancora. Intanto, nel gennaio del 2009 un gruppo di fisici guidato da Christopher Monroe dell’Università del Maryland (Stati Uniti) ha teletrasportato lo stato di un atomo di itterbio a un secondo atomo identico che si trovava a un metro di distanza. Non sarà il teletrasporto di Star Trek ma, considerata la complessità di un atomo rispetto a un fotone, è un altro bel passo in avanti verso il computer quantistico. Il teletrasporto di fotoni è andato indubbiamente molto avanti rispetto ai primi esperimenti, tanto che a settembre 2012 un gruppo internazionale di ricercatori, fra cui ritroviamo Anton Zeilinger (che nel 2004 era riuscito a teletrasportare le proprietà di alcuni fotoni per 600 metri, scavalcando il Danubio attraverso un sottopassaggio dove passa la rete fognaria di Vienna), ha pubblicato un articolo in cui dichiara di aver “teletrasportato” dei fotoni dall’isola di Tenerife all’isola di Las Palmas, nell’arcipelago delle Canarie (luogo senz’altro più ameno delle fogne della capitale austriaca), distanti ben 143 chilometri, stracciando ogni record precedente di distanza. A novembre 2012, invece, un altro gruppo di fisici guidato dal cinese Jian-Wei Pan, dell’Università della Scienza e della Tecnologia di Hefei (Cina), ha pubblicato una ricerca dove mostra di aver applicato per la prima volta il teletrasporto quantistico a un oggetto macroscopico, costituito da un gruppo di 100 milioni di atomi di rubidio delle dimensioni complessive di 1 millimetro. Il gatto di Schrödinger e il computer quantistico I computer attuali basano il loro funzionamento sulla codifica dell’informazione mediante l’uso di bit, dove ogni bit può assumere il valore 0 o 1. Nei computer quantistici si sfrutta invece il principio di sovrapposizione valido per i sistemi quantistici: al bit si sostituisce così il “quantum-bit” o “qubit”, che può trovarsi anche in uno stato in cui vale sia 0 che 1. Proprietà che permetterebbe di aumentare la potenza di calcolo in maniera drammatica: basti pensare che un’operazione che oggi richiede anni di calcolo potrebbe essere risolta in pochi secondi. La paradossalità del principio di sovrapposizione quantistico è descritta dal famoso “esperimento concettuale” noto con il nome di “gatto di Schrödinger”, dal nome del fisico austriaco Erwin Schrödinger (1887-1961), che lo propose. 140 In questo esperimento un gatto – o un qualunque altro essere vivente – può trovarsi in uno stato in cui è simultaneamente sia vivo che morto. Uno stato impossibile per la fisica classica dei corpi macroscopici, ma comune nel mondo microscopico, governato dalla meccanica quantistica. 141 Ringraziamenti Lo so, forse è un ringraziamento anomalo, ma prima di tutto vorrei ringraziare la casa editrice: per aver creduto in me sin dalla prima proposta (era La fisica in casa) e per avermi nel corso degli anni rinnovato stima e fiducia. La ringrazio anche per l’ottimo e puntuale lavoro di revisione del testo (ma se trovate errori, la responsabilità è ovviamente mia). Voglio infine manifestare tutta la mia gratitudine a chi, con la propria presenza costante, mi aiuta ogni giorno della mia vita. Sono sempre loro, attenti, comprensibili, disponibili, i componenti della mia splendida famiglia: mia moglie Ester e i miei figli Giulia e Leonardo. È soltanto grazie alla loro pazienza e alla loro capacità di sopportare le mie prolungate latitanze perché curvo sulle pagine di questo libro che sono riuscito a completarlo e a consegnarlo alle stampe nei tempi previsti dall’editore. Ma soprattutto perché, grazie a loro, la vita è divertente e degna di essere vissuta. 142 Bibliografia Gli scaffali delle librerie sono pieni di libri che trattano la fisica in maniera divulgativa. Molti però affrontano soprattutto la fisica cosiddetta “di frontiera” (o Big Science), ovvero quella dell’infinitamente grande o dell’infinitamente piccolo, la cui ricerca si conduce tipicamente con grandi progetti e altrettanto grandi (e costosi) strumenti, come telescopi orbitanti, missioni interplanetarie e acceleratori di particelle. Ma, se si esclude l’ultimo capitolo, in questo libro abbiamo trattato la fisica della nostra quotidianità, quella che spiega come funzionano i fenomeni cui assistiamo (consapevoli o no) tutti i giorni. Per questo motivo, a parte alcuni necessari riferimenti bibliografici a libri che affrontano temi astronomici e di meccanica quantistica, abbiamo voluto limitarci a quei titoli che, per livello di approfondimento e per argomenti trattati, più si avvicinano a questo che avete appena finito di leggere. I libri che trovate nell’elenco che segue sono frutto di una selezione molto personale. Alcuni ci hanno guidato nell’esposizione, altri ci hanno ispirato nella scelta degli argomenti, altri ancora li abbiamo segnalati semplicemente perché ci sembrano buone (talvolta ottime) letture per chi vuole avvicinarsi alla comprensione di questa splendida disciplina che è la fisica. Naturalmente, per raccontarvi di alcuni argomenti un po’ più specialistici, abbiamo fatto riferimento ad articoli scientifici originali (spesso in inglese). Abbiamo tuttavia ritenuto non opportuno riportarli in questo elenco, perché sono pubblicazioni specialistiche e quindi dense di formule. Ma sappiate che se navigate un po’ in Rete e cercate alcuni dei nomi che abbiamo citato in queste pagine, troverete anche i relativi riferimenti bibliografici. Buone letture, dunque. Le date di pubblicazione dei libri in elenco si riferiscono alle edizioni da noi consultate. Di alcuni testi, soprattutto di quelli più datati, è possibile che esistano ristampe o edizioni più recenti. Aczel A., Entanglement. Il più grande mistero della fisica, Cortina, Milano 2004. Atkins P.W., Le regole del gioco. Come la termodinamica fa funzionare 143 l’universo, Zanichelli, Bologna 2010. Caprara G., Belloni L., La scienza divertente, Rizzoli, Milano 2002. Corbò G., Il fisico in salotto, Salani, Milano 2010. Ekeland I., Come funziona il caos. Dal moto dei pianeti all’effetto farfalla, Bollati Boringhieri, Torino 2010. Feynman R. P., Sei pezzi facili, Adelphi, Milano 2000. Filocamo G., Mai più paura della fisica, Kowalski, Milano 2011. Filocamo G., La fisica in ballo, Liberodiscrivere, Genova 2005. Fiolhais C., Fisica per tutti, Tropea, Milano 2008. Fiolhais C., Nuova fisica per tutti, Tropea, Milano 2010. Franklin B., Autobiografia, Garzanti, Milano 1999 (trad. it. Giuseppe Lombardo). Frova A., Perché accade ciò che accade, Rizzoli, Milano 1995. Frova A., La fisica sotto il naso, Rizzoli, Milano 2001. Frova A., Ragione per cui, Rizzoli, Milano 2004. Frova A., Se l’uomo avesse le ali, Rizzoli, Milano 2007. Frova A., La scienza di tutti i giorni, Rizzoli, Milano 2010. Giuffrida A., Sansosti G., Manuale di meteorologia, Gremese, Roma 2006. Gleick J., Caos. La nascita di una nuova scienza, Rizzoli, Milano 2000. Hawking S., Dal Big Bang ai buchi neri, Rizzoli, Milano 1988. Krauss L., La fisica di Star Trek, Longanesi, Milano 1996. Ludwig N., Guerrerio G., La scienza nel pallone. I segreti del calcio svelati con la fisica, Zanichelli, Bologna 2011. Marenco M., La fisica della domenica. Brevi escursioni nei quattro elementi, Sironi, Milano 2011. Masci S., Peres E., Pulone L., Fisica. La scienza che ci spiega come funziona il mondo, Ponte alle Grazie, Milano 2004. 144 Prigogine I., Le leggi del caos, Laterza, Bari 2003. Ricci E., Fisica, Giunti, Firenze 2007. Ricci E., Atlante di fisica, Giunti, Firenze 2011. Ricci E., La fisica in casa, Giunti, Firenze 2013 (seconda edizione). Rigutti A., Meteorologia, Giunti, Firenze 2007. Rigutti M., Comete, meteoriti e stelle cadenti, Giunti, Firenze 1997. Rivieccio G., Dizionario delle scoperte scientifiche e delle invenzioni, Rizzoli, Milano 2001. Vacca R., Anche tu fisico, Garzanti, Milano 2008. Walker J., Il luna park della fisica, Zanichelli, Bologna 1981. Wheeler J.A., Gravità e spazio-tempo, Zanichelli, Bologna 1993. Zeilinger A., La danza dei fotoni. Da Einstein al teletrasporto quantistico, Codice, Torino 2012. 145 Argomenti trattati A Accelerazione - accelerazione di gravità - accelerazione gravitazionale - accelerazione negativa Accensione - accensione comandata - accensione spontanea Acido nitrico Acqua - bomba d’acqua - acquaforte Aeriforme Aeroplano Aerosol - aerosol atmosferico Alcool - alcool etilico - alcool metilico Aliante Alisei Alvarez - Luis Alvarez Ammasso - ammasso globulare - ammasso stellare Ammoniaca Anidride carbonica Annals of Improbable Research Antartide Anticiclone Apollo Archimede di Siracusa Arcobaleno Argento Argon 146 Aria - circolazione verticale dell’aria - aria ionizzata - massa d’aria - trascinamento dell’aria Aristotele Asse - asse di figura - asse di precessione - asse giroscopico - tenacia dell’asse Assorbimento Asteroide - 2012 DA14 - Cerere - Xena Astronauta Atmosfera - assenza di atmosfera - circolazione complessiva dell’atmosfera - elementi minoritari dell’atmosfera Attrattore - attrattore strano Attrito - attrito aerodinamico - coefficiente di attrito - forza di attrito Avancorsa Azoto - composti dell’azoto - molecola di azoto - ossidi di azoto B Back-spin Banda X Bandoneón Baricentro - proiezione del baricentro Barsanti - Eugenio Barsanti Barthez - Fabien Barthez Bennett - Charles Bennett Bentley - Richard Bentley Benzina 147 Bernoulli - Daniel Bernoulli Bicicletta Biomasse - combustione delle biomasse Biossido (o diossido) di carbonio Bit Black hole Bolide - scia del bolide Bosone di Higgs Bottiglia di Leida Brecht - Bertolt Brecht Brinamento Buco nero - buco nero di massa intermedia - buco nero mini (o micro) - buco nero stellare - buco nero supermassiccio - tipi di buco nero Buys Ballot - legge di Buys Ballot C Calciatore Calcio Calore - conduttori di calore - flusso di calore - trasmissione del calore Camera - camera di combustione - camera stagna Campo - campo elettrico - campo elettrostatico - campo gravitazionale Candela Carbone Carlos - Roberto Carlos Cella - cella convettiva - cella polare Censura cosmica 148 Centro - centro di gravità - centro di spinta Cerere Ceres Cernan - Eugene Cernan Cervello Chaptal - Jean-Antoine Chaptal Chilogrammo-massa Chilogrammo-forza (kg) Chilometro lanciato Ciclo - ciclo biologico - ciclo dell’acqua - ciclo Otto - ciclo termodinamico Ciclone - occhio del ciclone - ciclone tropicale Cielo Filho - César Cielo Filho Cilindro rotante Clausius - Rudolf Clausius Cloro Clorofluorocarburi Coalescenza Collasso gravitazionale Collisione Colloide Colombo - Cristoforo Colombo Color Tango Combustibile fossile Cometa - cometa di Halley - P/Swift-Tuttle - P/Tempel-Tuttle - Shoemaker-Levy Comportamento tissotropico Compressione adiabatica Condensatore 149 Condensazione - nucleo di condensazione Conduzione Connery - Sean Connery Controller Controrotazione Convezione - flusso di convezione Coriolis - Gaspard-Gustave de Coriolis Corrente - ascensionale - convettiva - verticale Corso - Mario Corso Costa Concordia Cratere di Chicxulub Cretaceo Cristallo Curva - curve “in conduzione” Cygnus X D D’Arienzo - Juan D’Arienzo Dalton - John Dalton De Caro - Francisco De Caro De Martini - Francesco De Martini De Niro - Robert De Niro Decelerazione Deep Impact - missione Deep Impact Deforestazione Del Piero - Alessandro Del Piero Densità Di Sarli - Carlos Di Sarli 150 Dielettrico Diffusione - diffusione di Rayleigh - teoria sulla diffusione Dimensione frazionaria Dinamica - dinamica caotica - leggi della dinamica - prima legge della dinamica - seconda legge della dinamica - terza legge della dinamica - tre leggi della dinamica Dinosauro - estinzione dei dinosauri Dipendenza sensibile dalle condizioni iniziali Dirigibile Dispersione eterogenea DNA Drenaggio E Effetto - effetto serra - effetto Coriolis - effetto farfalla - effetto giroscopico - effetto Magnus - effetto Tyndall Einstein - Albert Einstein Elastam (elastan) Elettrone Elicottero Elio Emisfero - emisfero australe - emisfero boreale Energia - energia chimica - energia cinetica - energia di movimento - energia di posizione - energia elastica - energia eolica - forme dell’energia - energia meccanica - energia nucleare - energia potenziale - energia raggiante 151 - energia solare - energia termica Entanglement Entropia Enunciato - enunciato di Clausius - enunciato di Kelvin Eolo Epilessia Equazione - equazione di Bernoulli - equazione di Van der Waals Equilibrio termico Eris (già noto come Xena) Eruzione vulcanica ESA Escursione termica Espansione adiabatica Etere Everett - David Everett F Fase - fase disperdente - fase dispersa - spazio della fase Feedback - feedback positivo Fenomeno elettrico atmosferico Ferdinando III (poi Ferdinando I) Ferrel - William Ferrel - celle di Ferrel FINA Fisica aliena Fissione nucleare Fluido - fluido newtoniano - fluido non newtoniano - fluido refrigerante Fluidodinamica Formula Forza - forza aerodinamica 152 - forza centrifuga - forza centripeta - forza conservativa - forza di attrazione gravitazionale - forza di attrazione - forza di attrito - forza di coesione - forza di Coriolis - forza di galleggiamento - forza di gravità - forza di trascinamento - forza elettrica - forza fittizia - forza gravitazionale - forza impulsiva - forza inerziale - forza interatomica - forza intermolecolare - forza meccanica - forza peso - forza reale Foschia Fotosintesi Franklin - Benjamin Franklin Frattale - geometria del frattale - frattale naturale Freccia del tempo Frenata Freon Fulmine Fusione nucleare G Galassia - galassia attiva Galilei - Galileo Galilei Galleggiamento Galleria di tarlo Gardel - Carlos Gardel Gas - gas attivo - gas ideali - gas inattivo - gas inerte - gas ionizzati - moli del gas - gas naturale 153 - gas nobile - nube di gas - gas perfetti - equazione di stato dei gas - gas rarefatto - gas reale - gas semipermanente - gas serra - temperatura del gas (T) Gasolio Gel idrocolloidale Ghiaccio - strato opaco di ghiaccio(o bianco) - strato trasparente di ghiaccio Giacconi - Giuseppe Giacconi Giocatore Giove Pluvio Giro della morte Giroscopio - giroscopio elettronico Golf Gotan Project GPL Gradiente del flusso Graham Bell - Alexander Graham Bell Grandinata Grandine Grant - Hugh Grant Gravitazione Guinness Book of Records H Hamilton - William Rowan Hamilton Hindenburg - Paul von Hindenburg Halley - Edmond Halley Hadley - celle di Hadley - George Hadley - John Hadley Hirotsu - Nobuyoshi Hirotsu 154 Hiroshima Herschel - William Herschel Hackman - Gene Hackman Haumea Hawking - Stephen Hawking I Idrogeno Ig Nobel Impulso Inerzia Inversione termica Ionizzazione Ipotesi del continuo Iridio Irraggiamento Isocora - isocora di combustione - isocora di scarico Isolante termico Istiophorus platypterus J Jacobi - Carl Gustav Jacob Jacobi Jannacci - Enzo Jannacci Joule - James Prescott Joule L Lagrange - Joseph-Louis Lagrange Lampo Laplace - Pierre-Simon de Laplace Latini - Brunetto Latini Lattice naturale Lavoro - lavoro meccanico Lavoisier - Antoine-Laurent Lavoisier Legge 155 - legge di Avogadro - legge di Boyle e Mariotte - legge di Charles - prima legge di Gay-Lussac - seconda legge di Gay-Lussac - legge di gravitazione universale Leonardo da Vinci Leonidi Linea della massima pendenza Linthorne - Nicholas Linthorne Liquido LRO (Lunar Reconoissance Orbiter) Luna Park Luna - faccia della Luna Lycra M Magnus - Heinrich Gustav Magnus Makemake Mandelbrot - Benoît Mandelbrot Mappa meteorologica Massa - massa gravitazionale - massa inerziale Materia - cambiamenti di stato della materia - quarto stato della materia - stati della materia - stato aeriforme della materia - stato liquido della materia - stato solido della materia Materiale interplanetario Matteucci - Felice Matteucci Meccanica - meccanica dei fluidi - leggi della meccanica - meccanica quantistica - meccanica statistica Mercalli - Giuseppe Mercalli Metano Meteor Crater 156 Meteore Meteorite - meteorite metallico Meteoroide - orbita del meteoroide Meucci - Antonio Meucci Michell - John Michell Mie - Gustav Mie Migliacci - Franco Migliacci Milonga Modugno - Domenico Modugno Mole Momento - momento angolare - conservazione del momento angolare - momento meccanico Mondo sublunare Mongolfiera Monossido di carbonio Monroe - Christopher Monroe Mont Saint-Michel Montagne russe Motilità Moto - moto accelerato - moto ascendente - moto atmosferico - moto caotico - moto di precessione - moto discendente - moto in caduta libera - moto periodico - moto rettilineo uniforme - moto rotatorio - moto smorzato - traiettoria di moto - moto traslatorio - moto trasversale Motore - motore a carburazione - motore a combustione interna 157 - motore a due tempi - motore a iniezione - motore a scoppio - motore a quattro tempi - motore a scoppio - motore ad accensione comandata - motore ad accensione spontanea - motore Diesel Mulinello di Joule Muro di Berlino Musschenbroek - Pieter van Musschenbroek N N (azoto) Nagasaki Narcotango NASA (National Aeronautics Administration) Near-Earth Asteroid (NEA) Nebbia Near-Earth Object (NEO) Nernst - Walther Nernst Nettuno Neve - neve “calda” - neve “fredda” Newton (N) - Isaac Newton Nitrati Nitrogène Norton - Lorenz Edward Norton Nucleo - nucleo cometario - nucleo di ghiacciamento - nucleo galattico attivo - nucleo igroscopico Nuotare O O (ossigeno) Onda - onda elettromagnetica - funzione d’onda - onda luminosa - onda sonora 158 and Space Opera - opera morta - opera viva Ossigeno - livello di ossigeno - molecola di ossigeno Otto - Nikolaus August Otto Ozono - buco dell’ozono - ozono stratosferico - ozono troposferico P Palermo Technical Impact Hazard Scale Pallone - pallone lunare Pan - Jian-Wei Pan Pangea Parabola Paradosso del nonno Paraffina Parafulmine Parametro orbitale Parapendio Parnell - Thomas Parnell Pascoli - Giovanni Pascoli Pendio Pendolo - pendolo invertito - moto del pendolo Perielio Periodicità spaziale Perlage Permiano Perseidi Perturbazione gravitazionale Pesce vela Peso - peso apparente - peso specifico Petrolio 159 Phelps - Michael Phelps Pianeta nano Pianetino Piano inclinato Piazzi - Giuseppe Piazzi Piazzia Piazzolla - Ástor Piazzolla Piogge acide Pioggia - goccia di pioggia Pirlo - Andrea Pirlo Pistone Pivot Planetoide Plasma Pleistocene Plutone (pianeta nano) Podolsky - Boris Podolsky Poincaré - Jules-Henri Poincaré Police Poliuretano Ponte - ponte capillare - ponte di Einstein-Rosen Portanza - portanza negativa Portiere Poseidone Posizione idrodinamica Potassio - isotopo radioattivo del potassio Potentially Hazardous Object Potenza Potenziale elettrico Potere delle punte Precipitazione 160 Premier League Preskill - John Preskill Pressione (P) - pressione barometrica Principio - principio d’inerzia - principio di Archimede - principio di azione e reazione - principio di Bernoulli - principio di conservazione dell’energia - principio di conservazione dell’energia meccanica - principio di conservazione del momento angolare - principio di galleggiamento Processo - processo di evaporazione - processo fotosintetico Propano Propulsione Pugliese - Osvaldo Pugliese Pulviscolo atmosferico Q R Quantum-bit Quasar Radiante Radiazione - radiazione infrarossa - radiazione solare - radiazione ultravioletta - radiazione visibile Radiotelescopio Raggi X Raggio di curvatura Rame Rayleigh - John William Strutt Rayleigh Razzo Reazione - reazione vincolare Regione - regione equatoriale - regione polare Regolite Reologia 161 Reopessia Resistenza - resistenza dell’aria - resistenza idrodinamica - misura della resistenza Respirazione Reticolo - reticolo cristallino - reticolo ordinato Retroazione - retroazione positiva Reversibilità Rice Burroughs - Edgar Rice Burroughs Richter - Charles Francis Richter Rigidità Rigore a cucchiaio Rischio da impatto Roller coaster Rosen - Nathan Rosen Rotazione - rotazione anterograda - rotazione antioraria - asse di rotazione - moto di rotazione - rotazione oraria - rotazione retrograda - velocità di rotazione Rugiada - punto di rugiada S Sabbia - cascata di sabbia - castelli di sabbia - sabbia idrofobica (o idrorepellente) - proprietà meccaniche della sabbia - scienza della sabbia Sabbie mobili Saetta (o folgore) Sagan - Carl Sagan Satellite - “Chandra” - XMM-Newton Saturazione 162 - punto di saturazione Scacchi Scala - scala della magnitudo Richter - scala Mercalli - scala Palermo - scala temporale climatica - scala Torino Scalmo Schmitt - Harrison Schmitt Schrödinger - Erwin Schrödinger - gatto di Schrödinger Schulz - Charles M. Schulz Sci - sci “a clessidra” - sci alpino - sci carving (o carve) Sciame - sciame delle Perseidi - sciame meteorico Sciancratura Scienza - scienza del caos - scienza meteorologica Sciolina - sciolina dura - sciolina morbida Scorrevolezza Scott - Gordon Scott Sestante Sforzo di taglio Shoemaker-Levy 9 (cometa) Sistema - sistema binario compatto - sistema caotico - sistema colloidale - sistema complesso - sistema di riferimento - sistema di riferimento inerziale - sistema di riferimento non inerziale - sistema dinamico complesso - sistema planetario - retroazione del sistema - Sistema Solare - traiettoria del sistema 163 Ski-men Slalom speciale Smartphone Smog Soletta Solido - solido amorfo - solido meccanico Soluzione omogenea Sommerfeld - Arnold Sommerfeld Sommergibile Sostanza reopessica Sostituzione Spacewatch Telescope Spandex Special effect Spinta - spinta aerostatica - spinta di Archimede - spinta idrostatica Statica Stato - stato aeriforme - stato di quiete - stato fluido - funzioni di stato - stato gassoso - stato solido Stella - stella cadente - stella invisibile - stella polare Stratosfera Struttura - struttura biomeccanica - struttura frattale Sublimazione Super Santos Super Tele Superficie lunare Supernova Tablet 164 T Tait - Peter Tait Tangente Tango - tango elettronico Tarzan Tasso di umidità Telescopio Hubble Teletrasporto - teletrasporto di fotoni - teletrasporto quantistico Temperatura (T) - temperatura ambiente - temperatura critica - temperatura di combustione Tempo - tempo di residenza - tempo meteorologico - previsioni del tempo Teorema delle forze vive Teorema di Nernst Teoria - teoria dei quattro elementi - teoria dell’informazione classica - teoria dell’informazione quantistica - teoria della relatività - teoria delle incursioni multiple - teoria delle stringhe Termodinamica - prima legge della termodinamica - princìpi della termodinamica - principio zero - secondo principio della termodinamica - terzo principio della termodinamica Termometro Terziario Thomson - William Thomson (Lord Kelvin) Thorne - Kip Thorne Tiro - tiro a effetto - tiro a giro - gittata del tiro Tissotropia Titanic Tolan 165 - Metin Tolan Top-spin Torino Scale Toro Torre di caduta Torsione Totti - Francesco Totti Trade wind Trail Trasformatore di energia Trasformazione - trasformazione a pressione costante - trasformazione a volume costante - trasformazione adiabatica - trasformazione isobara - trasformazione isocora - trasformazione isoterma - trasformazione termodinamica Traslazione - moto di traslazione Troilo - Aníbal Troilo Troposfera Tuono Tyndall - John Tyndall U Uragano - uragano Katrina - uragano Sandy Urto V Vapore - vapore acqueo - condensazione del vapore Velocità - velocità angolare - velocità della luce - velocità di fuga - quadrato della velocità Vento stellare Vescica natatoria Vetro Vibrazione 166 Vincolo [Publio] Virgilio [Marone] Viscosità - viscosità della pece Volume (V) Vulcano W Wells - Herbert George Wells Weyl - Hermann Weyl Wheeler - John Archibald Wheeler Willis - Bruce Willis Wilson - David Gordon Wilson Wormhole Wright - Mike Wright - Orville Wright - Wilbur Wright Z Zeilinger - Anton Zeilinger Zemeckis - Robert Zemeckis Zenithal Hourly Rate Zero - zero assoluto - zero centigrado Zeus Zolfo - ossido di zolfo 167