2
Emiliano Ricci
La fisica fuori casa
Un fantastico viaggio
alla scoperta delle leggi della natura
3
Illustrazioni a cura di Lorenzo Ghignone
www.giunti.it
© 2013 Giunti Editore S.p.A.
Via Bolognese 165 - 50139 Firenze - Italia
Via Borgogna 5 - 20122 M ilano - Italia
ISBN: 9788809788039
Prima edizione digitale: giugno 2013
4
A Giulia e Leonardo, piccoli cultori di scienza;
a Ester, grande cultrice del “pensiero razionale”;
ai miei maestri, ovunque essi siano,
nel tempo e nello spazio.
5
Introduzione
Cinque anni fa pubblicammo La fisica in casa con l’intento di avvicinare i
lettori alla fisica in maniera un po’ meno tradizionale. Soddisfatto di
quell’esperimento, l’editore ha accolto la proposta di questo sequel, come
direbbero i cultori del cinema. Ed eccoci qua.
La fisica fuori casa riprende lo stile e la struttura che in certa misura hanno
decretato il successo del titolo che l’ha preceduta. Quindi niente ordine
tradizionale nella discussione dei vari argomenti di fisica. Si parla di
meccanica, fluidodinamica, gravitazione, termodinamica e altro ancora
quando occorre parlarne per descrivere il fenomeno fisico incontrato, e
sempre in maniera la più possibile leggera (ma non per questo meno
rigorosa). Capita quindi di incontrare gli argomenti in una sequenza diversa
da quella dei libri di scuola o dei classici trattati sull’argomento e, soprattutto,
di vederli trattati più volte perché utili a spiegare fenomeni diversi. Così si
ottengono due risultati: da un lato la ripetizione dell’argomento aiuta a
comprenderlo meglio (repetita iuvant, dicevano i latini), dall’altro vedere le
stesse leggi utilizzate per spiegare due (o più) fenomeni completamente diversi
mette in evidenza l’universalità di queste leggi e la vastità del loro campo
d’azione.
Ma La fisica fuori casa porta con sé anche qualche differenza. Intanto nella
scelta degli argomenti. Mentre il libro precedente rimaneva nell’ambito della
fisica trattabile all’interno delle quattro mura domestiche, quello che avete in
mano racconta la fisica che vi capita di incontrare nelle vostre attività
quotidiane all’aperto, quando vi muovete con i mezzi di trasporto, fate sport,
consultate le previsioni meteo e altro ancora.
Una seconda differenza con l’altro titolo è che qui, volutamente, abbiamo
limitato il numero di argomenti affrontati in ogni capitolo, dando anzi loro più
spazio, per offrire al lettore un livello soddisfacente – almeno per noi, si
intende – di approfondimento. L’idea- guida è stata quella di presentare un
quadro sufficientemente completo, nei limiti del possibile, ovviamente, dei
temi toccati. Mentre nella Fisica in casa abbiamo affrontato un ventaglio
molto ampio di argomenti, alcuni dei quali trattati in maniera piuttosto
6
essenziale, qui si è privilegiata la profondità, a scapito naturalmente
dell’estensione (il numero di pagine era fissato dall’editore!). Due
impostazioni diverse e in un certo senso complementari: speriamo che vi
piacciano entrambe.
La terza importante differenza con il precedente titolo è che qui si parla
molto meno di tecnologia e di fisica moderna, avendo preferito lo studio e
l’osservazione di fenomeni che si spiegano con la fisica classica (pur con
qualche eccezione). Immaginiamo la delusione di qualche lettore, ma
proviamo a motivare la nostra scelta. Innanzi tutto siamo convinti che per
comprendere i temi di fisica avanzata sia opportuno avere una buona
infarinatura degli argomenti di fisica classica. Termini come attrito,
accelerazione, forza, energia, pressione e molti altri che incontrerete in queste
pagine, trovano la loro spiegazione proprio nella fisica classica. È impossibile
parlare di energia di una particella se prima non si sa che cosa si intende per
energia di un corpo macroscopico, perché quella è l’estensione (a livello
microscopico) di questa. Meglio dunque avere chiara questa, piuttosto che
avere idee confuse su entrambe. Lo stesso ragionamento vale per
innumerevoli altri concetti. Inoltre abbiamo deciso di non illudere i lettori
facendo finta di spiegare loro concetti astrusi, come accade in tanti libri che
parlano di fisica “di frontiera”, e lasciandoli nell’illusione di averli compresi.
Abbiamo preferito, seppure con qualche “divagazione” (in particolare
nell’ultimo capitolo), rimanere nel concreto dell’esperienza quotidiana. La
quale si spiega in massima parte con poche semplici leggi, molte delle quali
risalenti a Newton e poco oltre.
Ovviamente ci siamo presi la libertà assoluta di scegliere gli argomenti da
affrontare, senza alcuna pretesa di completezza (non ne avremmo avuto la
possibilità). I temi trattati in queste pagine riflettono quindi un po’ il gusto
personale dell’autore e un po’ il fatto di essere stati scelti perché utili a
spiegare una certa legge o un dato principio. Siamo consapevoli che avremmo
potuto scrivere altrettante pagine – anzi, molte di più – toccando tanti altri
fenomeni fisici che si incontrano nelle nostre attività outdoor. Li teniamo da
parte per un’eventuale altra pubblicazione. Speriamo soltanto che quelli che
trovate qua siano sufficienti a solleticare la vostra curiosità per la scienza e per
la fisica in particolare, e che vi stimolino ad approfondirle con altre e più
ampie letture.
Se fossimo riusciti nel nostro intento, potremmo ritenerci soddisfatti. Ma
ancora più soddisfatti saremmo se i nostri lettori comprendessero la
meraviglia della ragione umana, grazie alla quale noi siamo in grado di
7
applicare un metodo, quello scientifico, che ci permette di capire come
funziona la Natura, andando anche oltre il senso comune, addirittura
superando le illusioni che ci costruiamo per spiegare fenomeni che non
conosciamo. Un metodo che, tracciato dal nostro Galileo Galilei, permette agli
scienziati di migliorare sempre la conoscenza del mondo che ci circonda,
offrendo al contempo le contromisure per evitare errori o, comunque, per
riconoscerli e circoscriverli. Un metodo che si applica alla scienza, ma che
gioverebbe assai applicare anche in altri ambiti. Perché, come il poeta e
commediografo tedesco Bertolt Brecht (1898-1956) fa dire a Galileo nel suo
celebre dramma teatrale Vita di Galileo, «scopo della scienza non è tanto
quello di aprire una porta all’infinito sapere, quanto quello di porre una
barriera all’infinita ignoranza».
8
I
La fisica dei trasporti
... ovvero di biciclette, motori, navi
L’uomo ha sempre desiderato muoversi, spostarsi dal suo luogo d’origine
per scoprirne e conquistarne di nuovi (dall’invasione dell’America allo sbarco
sulla Luna) o anche solo visitarli, come facciamo noi da turisti. Uno dei più
grandi sforzi dell’ingegno umano è stato da sempre rivolto all’ideazione di
mezzi che potessero agevolare e rendere sempre più veloci questi spostamenti.
Nell’arco dei millenni sono stati inventati migliaia di mezzi di trasporto, alcuni
impossibili da usare – come il progetto di elicottero, o “vite aerea”, disegnato
da Leonardo da Vinci (1452-1519) – o caduti rapidamente in disuso, altri
ancora oggi diffusissimi e impiegati quotidianamente da milioni di persone.
Tutti questi mezzi sottostanno a precise leggi fisiche, anzi sono proprio queste
a garantire il loro funzionamento. Ciò che segue è una rassegna di certi
princìpi fondamentali della fisica prendendo spunto da alcuni mezzi di
trasporto come la bicicletta, l’automobile, l’aereo e la nave.
9
UN GIRO IN BICICLETTA
Una versione un po’ più evoluta della celebre frase «facile come bere un
bicchier d’acqua» è «facile come andare in bicicletta». Tutti sanno che, una
volta che si è imparato ad andare in bicicletta, è quasi impossibile disimparare.
Anche se non salite su una bicicletta da anni, provateci alla prossima
occasione: vi accorgerete subito che dei graffi sulle ginocchia accumulati in
gioventù avete fatto ampiamente tesoro e non sarà un problema restare in
equilibrio… a patto di pedalare, ovviamente, perché una bicicletta in piedi da
sola non riesce a stare, a meno che non abbia le ruotine (quelle che si mettono
alle bici dei bambini) o sia appoggiata al cavalletto!
Che cosa rende stabile una bicicletta? Ovvero, come è possibile restare in
equilibrio quando siamo in movimento, mentre è praticamente impossibile
farlo quando la bicicletta è ferma? Per quanto possa sembrarvi incredibile,
ancora oggi la scienza non è in grado di dare risposte definitive a queste
domande, benché la fisica che riguarda l’equilibrio e la stabilità della bicicletta
sia la cara, vecchia meccanica classica, quella avviata dal britannico Isaac
Newton (1643-1727) nella seconda metà del XVII secolo e sviluppata nei due
secoli successivi da studiosi come l’italo-francese Joseph-Louis Lagrange
(1736-1813), il tedesco Carl Gustav Jacob Jacobi (1804-1851), l’irlandese
William Rowan Hamilton (1805-1865) e altri matematici e fisici di varie
nazionalità.
Insomma, benché il problema della stabilità della bicicletta sia affrontabile
con i (relativamente) semplici strumenti della fisica newtoniana, la sfida –
raccolta nel corso del XX secolo da molti matematici e fisici, taluni anche
celebri, come per esempio il tedesco Arnold Sommerfeld (1868-1951), fra i
fondatori della meccanica quantistica – di comprendere il motivo per cui non
si cade quando si va in bicicletta non è ancora stata vinta. Sorprendente, vero?
Sappiamo descrivere con estrema precisione l’evoluzione dell’Universo e gli
urti fra particelle subatomiche e non sappiamo ancora spiegare come si fa ad
andare in bicicletta – almeno dal punto di vista della fisica. In pratica, se
qualcuno ce lo chiedesse, non saremmo in grado di fornirgli il manuale di
istruzioni!
Una questione di equilibrio
Gli studi sulla stabilità della bicicletta sono innumerevoli, dicevamo, e sono
anche incredibilmente densi di formule abbastanza complicate. Alcuni partono
10
anche da ipotesi divertenti, necessarie per semplificare il sistema da studiare,
come per esempio considerare il ciclista e la bicicletta come un corpo unico o
bloccare lo sterzo con la ruota anteriore perfettamente in asse con la bicicletta
– situazione in cui la caduta è certa. Non dovete stupirvi di queste
semplificazioni. Sono una pratica che i fisici applicano sin dai tempi dello
scienziato pisano Galileo Galilei (1564-1642), il quale, per studiare il moto del
pendolo e scoprirne la periodicità in funzione della lunghezza ipotizzò che il
pendolo stesso non fosse sottoposto né all’attrito del vincolo (il punto in cui il
pendolo si aggancia) né alla resistenza dell’aria, forze capaci di rallentarne e,
infine, di fermarne l’oscillazione. Una volta affrontato il problema
“semplificato”, lo si può complicare a piacimento, aggiungendo forze,
perturbazioni, azioni esterne e quant’altro serva a trasformare il “modello
ideale” (non esistente nella realtà) in un modello – perché sempre di modello
si tratta – il più vicino possibile al fenomeno reale che vogliamo descrivere.
Tornando al nostro problema, i modelli semplificati dicono che se il ciclista
mantiene una velocità costante e il sistema bicicletta-ciclista rimane
perfettamente verticale, ovvero senza oscillazioni né curve, la bicicletta si
“auto-stabilizza” – cioè riesce a stare in equilibrio in posizione verticale – in
un intervallo di velocità compreso fra 14 e 20 chilometri orari, mentre per
velocità al di fuori di questo intervallo, senza il controllo del ciclista, ovvero
senza che il ciclista applichi delle “correzioni” sterzando leggermente e
alternativamente a destra e a sinistra, la bicicletta è destinata a cadere a terra
sotto l’inesorabile azione della gravità.
Resta dunque da capire quali manovre debba praticare il ciclista per non
cadere e se sia o meno importante la forma della bicicletta perché questa sia
effettivamente stabile, anche perché è stato dimostrato che una bicicletta con
la ruota anteriore bloccata è instabile a qualunque velocità, quindi anche
nell’intervallo di “auto-stabilizzazione” sopra citato. In questo caso i fisici
dicono che la bicicletta si comporta come un “pendolo invertito”, cioè come
un pendolo in cui il peso sia posto in alto sulla verticale del punto di
aggancio: è ovvio che in queste condizioni un minimo spostamento
dall’equilibrio (che per questo si dice “instabile”) porta il peso a cadere. Come
la bicicletta, appunto.
Alla luce dei vari modelli teorici, fra i matematici e i fisici interessati alla
stabilità della bicicletta si sono nel tempo sviluppate due “scuole di pensiero”,
più complementari che in contrapposizione. Secondo i seguaci della prima
scuola, una bicicletta in movimento è intrinsecamente stabile. In altre parole,
con la presenza o meno del ciclista, una bicicletta è in grado di “reggersi in
11
piedi” da sola, almeno per un certo intervallo di tempo. In effetti non è
difficile provare la veridicità di questa affermazione. Tutti sappiamo che una
bici ferma abbandonata a se stessa in posizione verticale cade, ma è anche
vero – se non ci credete, provate voi stessi! – che una bici lanciata in avanti
da sola (quindi ancora senza ciclista) a una certa velocità lungo una strada in
pianura e sufficientemente liscia è in grado di percorrere una certa quantità di
metri senza problemi, restando in equilibrio anche per una ventina di secondi.
A rendere possibile questa “magia” è il cosiddetto “effetto giroscopico” (vedi
L’effetto giroscopico): in pratica, in maniera del tutto automatica, nell’istante
in cui la bicicletta “sente” di essere instabile, la ruota anteriore sterza
leggermente – grazie appunto alle forze giroscopiche – per riportare il mezzo
in equilibrio.
Per i seguaci della seconda scuola questo non è vero, almeno non del tutto.
Per loro, infatti, la maggior parte del merito nella stabilità di una bicicletta in
movimento è sicuramente da attribuire al ciclista. Sarebbero le sue continue e
impercettibili correzioni allo sterzo a tenere in equilibrio il mezzo. In effetti,
quando un ciclista, anche principiante, sente che la bicicletta sta cadendo da
un lato, inizia a piegare – in maniera del tutto istintiva – la ruota anteriore
proprio nella direzione di caduta, producendo così quella forza centrifuga
capace di “raddrizzare” la bicicletta e di riportarla in equilibrio. La prova di
questa affermazione sta nell’osservazione di chi monta per la prima volta in
bicicletta: le rapide e continue sterzate a destra e a sinistra rappresentano il
modo in cui il ciclista principiante cerca di mantenersi in equilibrio – e con le
ginocchia integre!
L’EFFETTO GIROSCOPICO
Chiunque abbia afferrato con le mani le estremità del mozzo di una ruota di bicicletta in rapida rotazione
ha sperimentato direttamente l’effetto giroscopico, cioè la difficoltà di far variare l’inclinazione all’asse di
rotazione della ruota. L’effetto giroscopico nasce infatti ogni volta che una forza esterna sollecita uno
spostamento dell’asse di rotazione di un corpo: si definisce giroscopio un qualsiasi corpo con
simmetria di rotazione rispetto a un asse, detto asse giroscopico, che può essere messo in rapida
rotazione: una ruota di bicicletta è quindi a tutti gli effetti un giroscopio. È facile osservare che, in
maniera del tutto controintuitiva, lo spostamento dell’asse – che, per inerzia, non si verificherebbe
senza alcuna sollecitazione esterna – non avviene in direzione della forza applicata, ma in una direzione
perpendicolare alle direzioni dell’asse e della forza stessa. Così, mentre in condizioni di quiete di un
corpo rotante è possibile spostarne l’asse di rotazione con relativa facilità, nel momento in cui questo si
trova in rapida rotazione l’operazione diventa molto complicata; anzi, tanto più complicata quanto
maggiore è la velocità di rotazione attorno all’asse: l’intensità della forza da applicare è infatti
direttamente proporzionale alla velocità di rotazione. Questa proprietà caratteristica dei corpi in
rotazione è nota con il nome di “tenacia dell’asse giroscopico”, dove l’asse giroscopico è appunto l’asse
attorno al quale si svolge la rotazione.
Oltre a manifestare questa “tenacia”, si osserva che l’asse di rotazione di un giroscopio comporta
anche un particolare tipo di moto, il “moto di precessione”, caratterizzato dal cambiamento della
12
direzione dell’asse di rotazione durante il suo moto. Anche se non lo sapevate, lo avete sicuramente
osservato centinaia di volte, guardando la rotazione di una trottola. Ma cerchiamo di capire di che cosa
si tratta. Si definisce moto di precessione quello manifestato da un corpo in rotazione attorno a un asse,
detto nella circostanza “asse di figura”, e in cui tale asse ruota a sua volta attorno a un asse diverso,
detto “asse di precessione”. Per esempio, nel caso della trottola, l’asse di figura è quello di rotazione del
corpo, mentre l’asse di precessione è un asse perpendicolare al suolo, passante per il punto di
appoggio della trottola, attorno al quale ruota il baricentro della stessa e quindi il suo asse di figura (il
baricentro è il punto di un corpo esteso nel quale si può immaginare concentrato il suo peso). È
d’obbligo ricordare che il moto di precessione è sempre causato dall’azione sul corpo in rotazione di
una forza esterna.
Su scala molto più grande, anche la Terra si comporta esattamente come una trottola. Il suo asse di
rotazione è solo apparentemente orientato in maniera fissa nello spazio, ma anch’esso è soggetto a un
moto di precessione, causato dall’azione gravitazionale congiunta di Sole, Luna e pianeti. Un intero ciclo
di precessione dura per il nostro pianeta circa 26.000 anni. Un moto molto lento e quasi impercettibile,
dunque, ma non altrettanto per gli astronomi. Questo fa sì, per esempio, che quella che per noi adesso
è la Stella polare, ovvero la stella che indica quasi esattamente la direzione dell’asse di rotazione
terrestre, non fosse tale duemila anni fa e non sarà tale fra duemila anni.
Avancorsa, chi era costei?
Ma, allora, chi ha ragione fra le due “scuole di pensiero”? Entrambe, in una
certa misura. A dimostrarlo sono state le simulazioni realizzate. Messi alla
prova del computer, i vari modelli semplificati del sistema “bicicletta più
ciclista” hanno dimostrato la loro seppure limitata efficacia e gli ambiti in cui
sono invece del tutto inefficaci. Evidenziando l’importanza di un aspetto a
lungo tenuto in scarsa considerazione: le caratteristiche costruttive della
bicicletta, ovvero la sua forma, il suo peso, l’altezza da terra del baricentro del
sistema, il diametro e la larghezza delle ruote, la distanza degli assi e così via.
Ma, forse sorprendentemente, le simulazioni al calcolatore, per quanto
approssimate, hanno permesso di individuare uno dei parametri costruttivi
fondamentali nella stabilità del sistema: l’avancorsa (in inglese detta trail),
ovvero la distanza tra la proiezione a terra della perpendicolare passante per il
centro della ruota anteriore e l’asse di rotazione della forcella, quello a cui è
fissato il manubrio.
13
Fig. 1 Schema di bicicletta in cui è evidenziata l’avancorsa.
Anche se siete persone distratte, vi sarete certamente accorti che la forcella di
una bicicletta non è mai perfettamente dritta, ma, in prossimità del mozzo
della ruota anteriore, al quale va naturalmente a fissarsi, forma una curva, che
non è un mero abbellimento, ma uno degli elementi più delicati per la stabilità
della bicicletta stessa. È sufficiente modificare anche di poco l’avancorsa di
una bicicletta per renderla praticamente non manovrabile. Potete
sperimentarlo anche voi: se la vostra bicicletta lo permette, ruotate di 180° lo
sterzo, in modo che la curva sia diretta indietro invece che in avanti. Bene, ora
provate a percorrerci qualche metro e ritenetevi fortunati se non vi fate male
cadendo!
Gli studi sull’avancorsa dei mezzi a due ruote – non l’abbiamo detto
esplicitamente, ma le considerazioni fatte fino qui per le biciclette valgono in
generale per i mezzi a due ruote, quindi ovviamente anche per i ciclomotori e i
motocicli – hanno dimostrato che un indice di avancorsa elevato determina
una minore sensibilità alle imperfezioni del terreno su cui ci muoviamo e,
14
soprattutto, una maggiore stabilità direzionale, perché, come abbiamo detto
sopra, facendo inclinare il mezzo da un lato lasciando la forcella libera, il
mezzo a due ruote tenderà a ritornare automaticamente dritto. Un indice di
avancorsa ridotto porta invece a effetti opposti, ma anche a una migliore
maneggevolezza, precisione e scioltezza nell’inserimento in curva, perché
garantisce una maggiore velocità nel cambio di direzione.
Mentre molti fisici sono occupati a studiare stringhe e buchi neri o
indaffarati a cercare bosoni di Higgs o particelle supersimmetriche, alcuni
cercano, molto più umilmente, ma con la stessa passione e curiosità per le
leggi della natura, di comprendere i meccanismi di funzionamento di
fenomeni e oggetti molto più vicini a noi, com’è appunto una bicicletta, che si
rivela un sistema davvero complesso e difficile da “modellare”, tanto che la
sua forma nasce sostanzialmente dall’esperienza dei costruttori anziché da
progetti sviluppati a tavolino.
Nel libro considerato la “Bibbia” per la scienza della bicicletta, intitolato
Bycicling Science – ora alla sua terza edizione (2004), pubblicato dalla MIT
Press, la casa editrice del prestigiosissimo Massachusetts Institute of
Technology di Boston negli Stati Uniti – l’autore David Gordon Wilson
sostiene che la complessità del sistema uomo-bicicletta risulta cosı̀ elevata che
«risolvere il problema dell’interazione uomo-macchina nel caso del volo è di
gran lunga più facile che studiare l’equilibrio di una bicicletta, dal momento
che nel primo caso il pilota è molto più leggero dell’aereo». Progettisti da un
lato e fisici e matematici dall’altro devono ancora pazientare: esiste la “teoria
delle stringhe”, ma la “teoria della bicicletta” è ancora lontana dall’essere
sviluppata.
Momenti angolari e momenti meccanici
All’origine di tutti questi fenomeni connessi all’effetto giroscopico c’è una
legge fondamentale della natura: il principio di conservazione del momento
angolare, una grandezza fisica che dipende in maniera direttamente
proporzionale dal raggio del corpo ruotante, dalla sua velocità e dalla quantità
e distribuzione della sua massa. In generale, per variare il momento angolare
di un corpo in rotazione è necessario applicare un momento meccanico
generato da due forze non aventi la stessa retta d’azione. In pratica, il
momento meccanico è la capacità di una forza di mettere un corpo in
rotazione attorno a un punto o a un asse. Ma perché una forza induca in un
corpo una rotazione è necessario che si dia una condizione fondamentale: che
essa venga applicata con un “braccio”, ovvero che il punto di applicazione
15
della forza non si trovi sull’asse di rotazione, ma che abbia una certa distanza
da questo. Solo così, la forza produce un momento, che è l’azione necessaria
per mettere in rotazione il corpo. In altre parole, le rotazioni sono generate da
momenti di forze.
Giroscopi ovunque, non solo in bicicletta
Torniamo alla nostra bicicletta. Se ci muoviamo a velocità ridotte l’asse
giroscopico – che, in questo caso, come abbiamo visto, è individuato dal
mozzo della ruota – è meno tenace e una piccola inclinazione può far sì che il
momento della forza di gravità ci faccia cadere praticamente indisturbato
(proprio perché l’asse è meno tenace). A velocità alte, viceversa, il momento
angolare è grande e la tenacia dell’asse giroscopico ci permette di restare in
sella, resistendo così alle continue sollecitazioni della forza peso. Tutto chiaro,
a questo punto: una bicicletta in corsa sta in equilibrio proprio grazie alle
ruote che sono a tutti gli effetti dei giroscopi che vogliono mantenere il più
possibile fissa la direzione del loro asse di rotazione!
Ma la notevole inerzia dell’asse giroscopico e la sua capacità di conservare
immutata la direzione di rotazione è sfruttata in tantissime altre applicazioni
pratiche e anche in oggetti di uso quotidiano: dalla stabilizzazione di aerei,
navi, razzi e satelliti, ai giochi (aeroplani ed elicotteri telecomandati ne fanno
largo uso, ma giroscopi sono presenti anche nei controller di console per
videogiochi), fino al controllo dell’orientamento orizzontale o verticale di
molti smartphone e tablet di ultima generazione, all’interno dei quali si
trovano particolari giroscopi elettronici, grazie ai quali è possibile far svolgere
a questi dispositivi funzioni impensate, trasformandoli con applicazioni
dedicate in livella da muratori, in teodolite o – semplicemente, si fa per dire –
in videogiochi a controllo tridimensionale!
16
MOTORI, CHE PASSIONE
La bicicletta è certamente un mezzo di trasporto molto efficiente, ma richiede
un discreto sforzo muscolare e provoca un certo affaticamento fisico.
Fortunatamente, però, c’è chi ha inventato anche metodi per risparmiarci
questa fatica, realizzando macchine in grado di muoversi sfruttando altri tipi
di energia, diversa da quella immagazzinata nei nostri muscoli. Fra le
macchine più utilizzate nei mezzi di trasporto che usiamo quotidianamente
(motocicletta, automobile, autobus, anche alcuni treni) ci sono i cosiddetti
“motori a combustione interna”, noti anche come “motori a scoppio”.
In generale, un motore può essere definito come l’insieme delle parti
meccaniche in grado di trasformare una fonte di energia (chimica, elettrica
ecc.) in lavoro meccanico. In particolare, un motore è una macchina motrice
termica all’interno della quale viene prodotta energia termica bruciando un
combustibile gassoso o liquido facilmente nebulizzabile (e infiammabile). È
l’energia interna contenuta nei prodotti di combustione che, ceduta
direttamente agli organi della macchina, viene trasformata in lavoro
meccanico e quindi in energia cinetica, che è l’energia di movimento (vedi Le
“forme” dell’energia). In poche parole, un motore serve a sfruttare l’energia
immagazzinata da qualche parte e a utilizzarla per mettere alcuni elementi in
movimento. In estrema sostanza, quindi, un motore è un “trasformatore di
energia”.
A seconda della fonte di energia, della modalità di funzionamento e del
lavoro meccanico prodotto, si distinguono varie tipologie di motore, ma tutti i
motori a combustione interna di cui sono dotati motociclette e automobili
sono dotati di un pistone che può scorrere all’interno di un cilindro, nel quale
avviene appunto la combustione, grazie all’immissione di un’opportuna
quantità di carburante miscelata con l’aria necessaria alla combustione del
carburante stesso. Il pistone, in virtù della combustione, viene messo in
movimento e trasmette questo movimento ad altri organi di moto ai quali è
collegato per mezzo di una leva che si chiama biella. La miscela carburantearia, infatti, giunta a una certa temperatura (detta temperatura di
combustione), esplode determinando un ulteriore aumento della temperatura e
quindi una notevole espansione dei gas presenti nel cilindro. La conseguente
pressione spinge verso la parte opposta del cilindro il pistone e anche la biella,
inducendo in questo modo la rotazione di un organo detto albero motore.
Una classificazione più raffinata dei motori a scoppio li distingue: a) in base
17
alle modalità di accensione nella camera di combustione (motori ad
accensione comandata, come quelli a benzina, o ad accensione spontanea,
come i motori Diesel); b) in base al ciclo di lavoro (motori a quattro tempi o a
due tempi); c) in base al tipo di combustibile (benzina, gasolio, metano, GPL,
alcool metilico o etilico). Dei vari tipi di motori a combustione interna, quelli
più diffusi sono i motori a carburazione – sono quelli più propriamente detti a
scoppio – e i motori a iniezione, come quelli Diesel. Nei primi, il combustibile
liquido nebulizzato viene mescolato con l’aria comburente formando una
miscela gassosa che viene introdotta nel cilindro: quando la miscela è
compressa, una scintilla generata da un dispositivo chiamato candela ne
provoca la combustione. Questi motori sono anche detti ad accensione
comandata. Il secondo tipo di motore non sfrutta l’azione di scariche elettriche
da parte delle candele d’accensione, ma semplicemente il principio della
compressione per ottenere l’accensione del combustibile. In altre parole la
miscela aria-gasolio viene fortemente compressa dal movimento del pistone,
che così si riscalda ulteriormente e infine si accende. In questo caso, quindi, il
combustibile a contatto con l’aria comburente calda si incendia
spontaneamente: i motori di questo genere sono detti ad accensione
spontanea.
LE “FORME” DELL’ENERGIA
Sui testi di fisica si legge spesso che l’energia si presenta sotto varie “forme”. Così, accanto alle
tradizionali definizioni di energia cinetica (legata al movimento di un corpo) ed energia potenziale (legata
alla sua posizione), troviamo anche l’energia elastica, quella eolica, quella chimica, quella nucleare,
quella solare, quella termica e via dicendo, senza che poi ci si preoccupi di approfondirne la definizione.
In realtà, tutte queste “forme” sono comunque riconducibili all’energia cinetica, che è poi la “forma”
fondamentale di energia. Anche quando si parla di energia potenziale, infatti, si parla di energia
“immagazzinata”, pronta a convertirsi in energia cinetica. Trattandosi di “lavoro eventuale delle forze
conservative”, l’energia potenziale è, come suggerisce il nome, energia cinetica (in più o in meno) in
potenza, ovvero allo stato di possibilità.
L’energia eolica è in fin dei conti l’energia cinetica del vento. L’energia termica è, come ci spiega la
termodinamica, l’energia interna di un corpo, che è data dall’energia cinetica delle particelle da cui è
costituito. In altre parole, quando si parla di energia termica di un gas, per esempio, si fornisce soltanto
una misura macroscopica dell’energia cinetica dei singoli atomi o delle singole molecole che lo
compongono. Anche l’energia solare è energia cinetica delle particelle di radiazione elettromagnetica (i
fotoni, che, pur non avendo massa, hanno un’energia direttamente proporzionale alla loro frequenza di
oscillazione).
Passiamo quindi all’energia potenziale, considerando per esempio l’energia elastica di una molla.
Questa altro non è che energia potenziale legata all’interazione elettromagnetica fra gli atomi e le
molecole che compongono i materiali, che si converte immediatamente in energia cinetica della molla
stessa una volta che venga lasciata libera di oscillare. Pure l’energia chimica dei legami fra atomi e
molecole, anch’essa riconducibile all’interazione elettromagnetica, è energia potenziale pronta a
trasformarsi in energia cinetica quando i legami chimici vengono spezzati.
Una parola in più va detta sull’energia nucleare. È la fisica moderna, e in particolare la teoria della
relatività, a introdurre il concetto di equivalenza fra massa ed energia. In pratica questa significa che un
18
corpo, per il semplice fatto di essere dotato di massa, ha un suo contenuto energetico “intrinseco”, dato
proprio dal prodotto della massa del corpo per la velocità della luce al quadrato (è la celebre formula di
Einstein). Ma anche questa, in ultima analisi, non è altro che energia potenziale immagazzinata nel
corpo che può trasformarsi, entro certi limiti, in energia cinetica delle particelle di materia o delle
particelle di radiazione, come accade per esempio nelle reazioni di fusione o di fissione nucleare.
Questa energia potenziale, a differenza di quelle precedenti, che dipendono dalla posizione che un
corpo possiede in quanto localizzato in un campo di forze, è in pratica un’energia potenziale “intrinseca”
che un corpo possiede per il solo fatto di avere una massa.
Dunque, in conclusione, possiamo affermare che, quando i fisici parlano di energia, in ultima analisi
parlano di energia cinetica, la quale può essere in atto (quando un corpo è in movimento con una certa
velocità) o in potenza (quando un corpo è dotato di massa e si trova in una certa posizione). In fondo, il
concetto di energia è molto più semplice delle innumerevoli “forme” in cui si manifesta.
Una storia (in parte) italiana
La storia dell’invenzione del motore a scoppio ricorda un po’ quella
dell’invenzione del telefono. In entrambe il protagonista è stato un inventore
italiano, che per primo lo ha realizzato, ma a cui però non viene attribuita
l’invenzione… perché il brevetto definitivo viene acquisito – solo
successivamente, però – da un inventore straniero. Nel caso del telefono la
vicenda vide il nostro Antonio Meucci (1808-1889), incapace di rinnovare il
proprio brevetto per mancanza di soldi, opposto allo scozzese Alexander
Graham Bell (1847-1922). Solo nel 2002, il Congresso degli Stati Uniti,
entrando nel merito della questione del brevetto, con una risoluzione ha
accreditato la paternità dell’invenzione a Meucci. Nel caso del motore a
scoppio fu Eugenio Barsanti (1821-1864; in realtà si chiamava Niccolò, ma
cambiò nome al momento di prendere i voti religiosi), padre scolopio, a
realizzare per primo – in collaborazione con l’ingegnere Felice Matteucci
(1808-1887) – un modello funzionante della macchina, prendendo spunto
dall’osservazione di alcuni esperimenti svolti con i propri alunni in una scuola
elementare di Volterra, dove insegnava matematica e fisica. Tuttavia, anche in
questo caso l’invenzione è attribuita ad altri, sempre per motivi di validità dei
brevetti: l’ingegnere tedesco Nikolaus August Otto (1832-1891). Nel 1877
Felice Matteucci, quando l’invenzione del motore a scoppio fu attribuita a
Otto, rivendicò l’invenzione a sé e a Barsanti, avvalendosi dei diversi brevetti
depositati sia in Italia che all’estero. Ma senza successo, benché il disegno di
Otto fosse palesemente simile al loro. La specificità del motore a combustione
interna sviluppato da Otto è che, a differenza di quello realizzato dalla coppia
Barsanti-Matteucci, aveva un ciclo a quattro tempi, da cui deriva anche il
nome di “ciclo Otto” (che ancora oggi è il principio di funzionamento della
quasi totalità dei motori a benzina del mondo).
Cicli termodinamici
19
Il nome di ciclo sta a indicare che è composto da una successione finita di
trasformazioni termodinamiche (quattro, nella circostanza), al termine delle
quali il sistema torna al suo stato iniziale. In fisica, per trasformazione
termodinamica si intende il passaggio del sistema da uno stato termodinamico
– caratterizzato da alcune proprietà termodinamiche, come temperatura,
pressione e volume, dipendenti solo ed esclusivamente da quello stato – a uno
diverso, caratterizzato quindi da valori distinti di alcune di quelle proprietà.
Per esempio, si può variare lo stato di un gas tenendolo a temperatura costante
(in questo caso la trasformazione viene detta isoterma), oppure si può
modificare il suo stato senza che il sistema scambi calore con l’ambiente
esterno (trasformazione adiabatica), oppure mantenendolo a volume costante
(trasformazione isocora) o a pressione costante (trasformazione isobara). Nel
dettaglio, il ciclo Otto è caratterizzato dalle seguenti quattro trasformazioni:
una compressione adiabatica, un’isocora di combustione, un’espansione
adiabatica e, infine, un’ulteriore isocora di scarico.
In ogni caso la prima legge della termodinamica (vedi I princìpi della
termodinamica) impone che, in una qualsiasi trasformazione di un sistema
termodinamico, la quantità di calore scambiata con l’esterno del sistema sia
uguale alla somma della variazione di energia interna del sistema con il lavoro
da esso compiuto, come venne dimostrato dal fisico britannico James Prescott
Joule (1818-1889) con un celebre esperimento – il mulinello di Joule – che gli
permise di dimostrare l’equivalenza fisica fra calore e lavoro.
Per la sua enunciazione può essere utile far riferimento a un sistema mentre
compie un processo in cui, alla fine della trasformazione, si trova nel
medesimo stato in cui si trovava all’inizio, ossia un processo ciclico, proprio
come accade nel ciclo di un motore a combustione interna. In questo caso le
osservazioni sperimentali mostrano che la somma degli scambi di calore e la
somma degli scambi di lavoro tra sistema e ambiente sono uguali. In altre
parole, in un processo ciclico, le quantità di calore e di lavoro scambiate tra
sistema e ambiente (prese ognuna con il segno convenuto, per esempio
positivo se vanno dal sistema all’ambiente, negativo se viceversa), sono
uguali: questa è quindi una formulazione alternativa del primo principio della
termodinamica. E così abbiamo scoperto che un motore a combustione
interna è una bella macchina termodinamica!
I PRINCÌPI DELLA TERMODINAMICA
A fondamento della termodinamica ci sono quattro postulati, detti “princìpi della termodinamica”,
numerati curiosamente da 0 a 3 per ragioni storiche. Il principio zero riguarda la possibilità di definire la
20
temperatura di un oggetto. Esso afferma che un corpo caldo ha una temperatura più alta di un corpo
freddo e che se fra due corpi posti a contatto non c’è passaggio di calore allora essi hanno la stessa
temperatura. Più rigorosamente: se due corpi A e B sono in equilibrio termico con un terzo corpo C
(termometro), allora lo sono anche fra loro. È su questo principio che si fonda la nostra possibilità di
misurare la temperatura di un corpo e quindi di sapere se noi abbiamo o meno la febbre: è sufficiente
che il termometro raggiunga l’equilibrio termico con il nostro corpo!
Il primo principio afferma, nella sua estrema sostanza, che l’energia si conserva. Considerando infatti
tutti i contributi dati dal flusso di calore, dall’energia interna di un sistema e dal lavoro compiuto su o dal
sistema, la variazione di energia che ha luogo nel sistema stesso, durante una trasformazione
qualsiasi, è uguale alla quantità di energia che il sistema riceve dall’ambiente (o gli cede) che lo
circonda. Il primo principio è pertanto un’estensione del principio di conservazione dell’energia
meccanica: una parte di questa viene sempre dissipata in calore, ma l’energia complessiva sistemaambiente rimane comunque costante.
Il secondo principio afferma che certe trasformazioni avvengono preferenzialmente in un verso piuttosto
che nell’altro. La sua prima enunciazione, detta enunciato di Kelvin (dallo scienziato nord-irlandese
William Thomson, 1824-1907, nominato Lord Kelvin per i suoi meriti scientifici), afferma che non è
possibile realizzare una trasformazione nella quale il solo risultato sia l’assorbimento di calore da una
riserva termica e la sua completa conversione in lavoro. Essa sancisce in pratica l’impossibilità di
convertire completamente il calore in lavoro: proprio in questa impossibilità sta una fondamentale
asimmetria della Natura. L’altra, nota come enunciato di Clausius (dal nome del fisico tedesco Rudolf
Julius Emmanuel Clausius, 1822-1888), afferma che: non è possibile realizzare una trasformazione
nella quale il solo risultato sia il trasferimento di calore da un corpo più freddo ad uno più caldo.
L’enunciato di Clausius esprime l’ovvia osservazione, basata sull’esperienza quotidiana, che una
qualunque trasformazione esistente in natura che implichi trasferimento spontaneo di energia (in
assenza cioè di un intervento esterno) va nel seguente verso: il calore fluisce spontaneamente dal
corpo caldo al corpo freddo, non viceversa. Si può dimostrare che i due enunciati sono equivalenti.
Il secondo principio della termodinamica può essere espresso matematicamente facendo ricorso ad
una grandezza termodinamica, l’entropia, la quale fornisce, in un certo senso, la misura del disordine di
un sistema o, in altre parole, della qualità dell’energia in esso contenuta: qualunque trasformazione
spontanea è accompagnata da un aumento dell’entropia complessiva del sistema e dell’ambiente
circostante (enunciato formale del secondo principio della termodinamica). I due precedenti enunciati
sono così riassunti in questo, più sintetico, ma anche più formale.
Benché la quantità totale di energia, come stabilisce il primo principio, si conservi, ciò che invece si
modifica irreversibilmente è la sua qualità. L’energia non si crea né si distrugge, ma si deteriora, nel
senso che della stessa quantità di energia una frazione sempre minore rimane utilizzabile. Il secondo
principio indica proprio la direzione verso la quale si muovono i vari processi di trasformazione naturale
dell’energia affinché essa si deteriori sempre più. È questa la freccia del tempo: esso scorre
inesorabilmente nella direzione in cui l’energia si degrada.
Infine il terzo principio, che in realtà non è un vero e proprio principio in quanto la sua validità non è
assunta a priori, ma può essere dimostrata a partire da altri princìpi, in particolare dal secondo principio
appena citato. Per questo motivo, il terzo principio è anche noto come “teorema di Nernst”, dal nome
del chimico e fisico tedesco Walther Nernst (1864-1941) che lo formulò nel 1905, lo stesso anno in cui
Albert Einstein (1879-1955) rendeva nota la sua teoria della relatività ristretta. Il teorema di Nernst si
occupa del comportamento della materia alle basse temperature, affermando in particolare che non è
possibile raggiungere lo zero assoluto di temperatura con un numero finito di passaggi. Più
semplicemente, volendo raffreddare la materia indefinitamente, solo dopo un tempo infinitamente lungo
la vedremo raggiungere lo zero assoluto.
21
VOLARE, OH OH
Chissà se Franco Migliacci, quando scrisse il testo della celebre canzone Nel
blu dipinto di blu, portata al successo al Festival di Sanremo nel 1958 da
Domenico Modugno (autore della musica), aveva in mente le incredibili
difficoltà che gli uomini hanno dovuto affrontare prima di potersi librare in
volo, come fanno gli uccelli. Certamente, però, quelle parole ben
rappresentano il sogno atavico dell’umanità di poter guardare la terra dall’alto.
Dal mito di Icaro al primo volo dei fratelli statunitensi Wilbur (1867-1912) e
Orville (1871-1948) Wright del 1903, passarono molti secoli in cui i vari
tentativi – come gli studi sul volo del già citato Leonardo da Vinci – si
dimostrarono purtroppo vani. La capacità di volare è una prerogativa
acquisita solo in tempi recenti dagli uomini che, però, l’hanno sviluppata e
portata ben oltre il sogno iniziale, arrivando addirittura a esplorare lo spazio
entrando in orbita attorno alla Terra e a mettere piede su un altro corpo
celeste.
Adesso l’uomo si alza in volo con una quantità incredibile di tipologie di
veicoli – dalla mongolfiera, il cui primo volo con equipaggio risale al 1783, al
dirigibile, all’aliante, al parapendio, all’elicottero, fino appunto al razzo – ma il
re incontrastato dell’aria è sicuramente l’aeroplano. L’aspetto rilevante
dell’aereo è che, a dispetto del fatto di essere assai più pesante dell’aria, riesce
lo stesso a volare, proprio grazie all’applicazione di alcune importanti leggi
fisiche tratte dagli studi della fluidodinamica, un capitolo importante della
fisica classica riguardante lo studio dei fluidi in movimento.
Quando si descrive un fluido, liquido o gas che si muove nello spazio, si
impiegano sempre grandezze macroscopiche quali pressione, temperatura,
densità, velocità, naturalmente espresse come variabili in funzione dello
spazio (ovvero della posizione del volume di fluido in esame rispetto a un
determinato sistema di riferimento) e del tempo. D’altra parte, dallo studio
della struttura della materia sappiamo che questa è composta da atomi e
molecole, ovvero da unità discrete, che interagiscono fra loro e con
l’ambiente circostante. Ecco, in fluidodinamica si trascurano queste interazioni
per descrivere il comportamento collettivo del fluido in esame: per farlo, si
considera il fluido come un continuo. Con questa ipotesi, detta appunto
“ipotesi del continuo”, si suppone che le proprietà intensive sopra citate
(pressione, densità ecc.) variino con continuità da un punto a un altro
all’interno del fluido. Tuttavia è sempre e comunque possibile descrivere le
22
proprietà e il comportamento del fluido anche con metodi statistici partendo
dal livello microscopico: la disciplina che se ne occupa è la meccanica
statistica.
Il principio di Bernoulli
Una delle leggi fondamentali della fluidodinamica è il principio di Bernoulli,
dal nome del matematico e fisico svizzero di origini olandesi Daniel Bernoulli
(1700-1782): la pressione in un fluido decresce al crescere della velocità del
fluido stesso. Il principio di Bernoulli è in realtà una diretta conseguenza del
principio di conservazione dell’energia. Esso è infatti una forma semplificata
di un’equazione, detta ancora di Bernoulli, la quale afferma che, nel caso in
cui un fluido si trovi in condizioni di flusso stazionario (ovvero non
dipendente dal tempo) e a viscosità pari a zero, la somma di tutte le forme di
energia di un fluido – il lavoro compiuto dal fluido, la sua energia cinetica e la
sua energia potenziale – che scorre lungo una linea di corrente ha lo stesso
valore qualunque punto del flusso si prenda in considerazione.
Ora, a rigor di logica, il principio di Bernoulli vale solo nell’ipotesi che il
fluido in questione sia incomprimibile, ovvero che la sua densità sia costante
(fatto assolutamente falso per l’aria, come è facile dimostrare giocando con
una pompa da bicicletta, per esempio), ma, come dicevamo all’inizio del
capitolo, queste semplificazioni sono molto utili ai fisici per arrivare poi a
comprendere il comportamento dei fluidi reali, che in pratica sono tutti, chi
più (gli aeriformi come i gas e i vapori) chi meno (i liquidi), ovviamente,
comprimibili.
Se volete dimostrare la validità del principio di Bernoulli, potete realizzare
un semplice esperimento soffiando aria a una certa velocità (per esempio con
una cannuccia) fra due fogli di carta messi parallelamente l’uno di fronte
all’altro. In tal modo si crea fra i due fogli un’area di bassa pressione, che li
porta a muoversi l’uno verso l’altro come se si attraessero, contrariamente a
quanto forse vi aspettereste applicando le regole ingenue del senso comune.
Ebbene, alla base del volo degli aeroplani si trova proprio il principio di
Bernoulli. Le ali degli aerei sono infatti progettate in modo tale da avere un
profilo particolare, che fa sì che l’aria che fluisce sotto l’ala si muova a una
velocità inferiore rispetto a quella dell’aria che fluisce sopra. In tal modo,
grazie alla differenza fra la pressione che si misura sotto l’ala (alta, perché il
flusso è più lento) e sopra (bassa, perché il flusso è più veloce), si crea una
spinta netta verso l’alto, detta portanza, che permette all’aereo di vincere la
forza di gravità.
23
La prossima volta che sarete a 10.000 metri di quota, sgranocchiando
serenamente noccioline e guardando un film incomprensibile in lingua
originale sul visore posto davanti al vostro sedile, pensate che a tenervi lassù
c’è una forza aerodinamica – la portanza, appunto – che nasce grazie al moto
relativo dell’aria lungo la superficie fissa dell’ala. Ha del miracoloso, non
credete? E, a proposito, se una barca a vela è capace di muoversi di bolina,
ovvero andando praticamente controvento, è ancora una volta grazie al
principio di Bernoulli e alle diverse velocità di scorrimento dell’aria ai due lati
della vela!
24
MOSTRI DI FERRO GALLEGGIANTI
Parlando di imbarcazioni, le tragedie del Titanic (1912) e quella assai più
recente della Costa Concordia (2012) – per non parlare delle varie petroliere
che nel corso degli ultimi decenni hanno causato diversi disastri ambientali –
possono far pensare che le capacità di galleggiamento di queste navi
pesantissime siano piuttosto limitate e che basti poco a farle affondare. In
realtà è vero il contrario: le navi sono progettate per restare a galla anche con
falle di grosse dimensioni… a patto, ovviamente, di saper gestire l’emergenza!
L’eventualità di una falla a bordo di una nave – ovvero di una qualsiasi via
d’acqua che mette in comunicazione il mare con l’interno dello scafo – va
sempre presa in seria considerazione, in quanto l’allagamento di locali interni
alla nave, attraverso occasionali aperture prodotte nell’“opera viva” (o carena,
così si chiama tecnicamente la parte immersa dello scafo, in contrapposizione
con l’“opera morta”, che è invece la parte dello scafo posta al di sopra della
linea di galleggiamento) può provocare danni gravissimi, fino alla stessa
perdita della nave per capovolgimento o affondamento. Ora, contro il grave
pericolo rappresentato da una falla, i progettisti e i costruttori di navi
prevedono sempre la realizzazione di un’adeguata compartimentazione stagna
(e anche di altri strumenti e tecniche di bilanciamento), in maniera tale che
l’imbarcazione anche parzialmente allagata possa mantenersi a galla.
Bene, ma allora come fanno le navi a galleggiare? Qual è il principio fisico
su cui si basa il galleggiamento di mezzi così enormi e incredibilmente
pesanti? La risposta è semplicissima: il principio di Archimede, così chiamato
perché scoperto dal celebre matematico e fisico greco Archimede di Siracusa,
vissuto nel III secolo a.C. Nel suo trattato dal titolo Sui galleggianti, troviamo
scritto che: 1) qualsiasi solido più leggero di un fluido, se collocato nel fluido,
si immergerà in misura tale che il peso del solido sarà uguale al peso del
fluido spostato; e 2) un solido più pesante di un fluido, se collocato in esso,
discenderà in fondo al fluido e se si peserà il solido nel fluido, risulterà più
leggero del suo vero peso, e la differenza di peso sarà uguale al peso del
fluido spostato. Narra la leggenda che la deduzione del principio che regola il
comportamento dei corpi galleggianti abbia portato Archimede a uscire dalla
vasca da bagno e a correre in strada gridando a squarciagola la celebre parola
Eureka! (“Ho trovato”, in greco). Non sappiamo se sia vero, ma una scoperta
del genere avrebbe davvero meritato una simile esultanza!
25
IL PRINCIPIO DI ARCHIMEDE
È esperienza comune che i corpi immersi nell’acqua sembrano pesare meno. Ciò è dovuto a una forza
verticale, rivolta verso l’alto, che l’acqua esercita sul corpo stesso. Tale forza è appunto detta “spinta di
Archimede”, o spinta idrostatica. Essa trae origine dal fatto che sulla superficie di un corpo immerso in
un liquido, il liquido stesso esercita una pressione che dipende dalla quota. In altre parole, la spinta di
Archimede è dovuta al fatto che la pressione di un fluido cresce al crescere della profondità del fluido.
Così, la parte inferiore del corpo sentirà una pressione maggiore della parte superiore (le forze laterali si
annullano reciprocamente). In altre parole, le forze verso l’alto esercitate dal liquido sulla superficie
inferiore del corpo in immersione sono maggiori delle forze verso il basso esercitate sulla superficie
superiore. Sommando tutte queste forze, si ottiene una forza risultante netta orientata verso l’alto: la
spinta di Archimede, appunto.
D’altra parte, un corpo completamente immerso in un liquido sposta sempre un volume di fluido uguale
al proprio volume. Da questa osservazione discende il principio di Archimede: un corpo immerso in un
liquido riceve una spinta dal basso verso l’alto pari al peso del liquido spostato. Una formulazione un po’
più rigorosa di questo principio può essere la seguente: un corpo immerso, totalmente o parzialmente,
in un fluido riceve una spinta, detta forza di galleggiamento, verticale, dal basso verso l’alto, di intensità
pari al peso di una massa di fluido di forma e volume uguale a quella della parte immersa del corpo. È
importante sottolineare che il punto di applicazione della forza di Archimede, detto “centro di spinta”, è
sulla stessa linea verticale su cui si trovava il centro di massa della porzione di fluido che prima
riempiva il volume, ora occupato dalla parte immersa del corpo. In altre parole, è vero che la spinta c’è,
ma se il corpo è asimmetrico o sbilanciato, il rischio che questa non garantisca il suo galleggiamento è
forte, perché la spinta si applica in un punto (il centro di spinta, appunto) diverso da quello (il baricentro
del corpo immerso) in cui si applica la forza di gravità, ovvero il peso del corpo.
Il principio di galleggiamento è quindi una diretta conseguenza del principio di Archimede: per
galleggiare, è sufficiente che un corpo immerso in un fluido sposti un volume di fluido il cui peso sia
uguale al peso del corpo stesso. È la risultante di queste due forze – spinta idrostatica e peso del corpo
– a definire il “peso apparente” del corpo immerso nel fluido, cioè la forza risultante che agisce su di
esso. Così, una palla di ferro pieno affonda, ma se la modelliamo in maniera tale da farle occupare un
volume maggiore, riusciamo a farla galleggiare. Ecco perché le navi con lo scafo di metallo galleggiano,
nonostante il loro peso enorme.
Galleggia o va a fondo?
È molto semplice stabilire se un corpo è in grado di galleggiare in un
determinato liquido: è sufficiente confrontare le rispettive densità. Perché il
ghiaccio galleggia nell’acqua anche nella forma di un gigantesco iceberg?
Perché la densità del ghiaccio è minore di quella dell’acqua. Da questi
confronti si scopre anche, per esempio, che un pezzo di ferro affonda
nell’acqua, ma riesce a galleggiare nel mercurio, che è molto più denso.
Una nave, allora, che per la maggior parte è fatta di acciaio (che è una lega di
ferro e carbonio) e altri materiali più densi dell’acqua, non affonda perché
contiene enormi quantità di spazi vuoti e, grazie alla sua forma, sposta tanta
acqua da equilibrare il proprio gran peso. Quello che conta, infatti, è la
densità media del materiale della nave e dell’aria, che deve naturalmente
risultare inferiore a quella dell’acqua.
Il motivo per cui il corpo umano galleggia, ma resta in gran parte immerso, è
dovuto al fatto che la densità del nostro corpo è di poco inferiore a quella
26
dell’acqua. Questa è anche la ragione che spinge i sommozzatori – che
possono avere necessità di lavorare a una certa profondità senza dover
continuamente pinneggiare per mantenere la quota – a portare una cintura con
dei piombi. Se vi è capitato di fare il bagno in un lago o anche in un fiume vi
sarete accorti che facciamo un po’ più di fatica rispetto a quella che facciamo
per restare a galla in mare: l’acqua dolce ha una densità inferiore a quella
dell’acqua salata, e quindi la spinta di Archimede che ne riceviamo è minore.
Un altro caso interessante di galleggiamento sono i sommergibili che, non
soltanto sono in grado come le navi di galleggiare, ma hanno anche la
straordinaria capacità di affondare o fermarsi a una determinata quota a
piacimento. Questo è reso possibile dal fatto che nello scafo dei sommergibili
esistono alcuni locali particolari, le cosiddette camere stagne, che
all’occorrenza possono essere riempiti, o svuotati, d’acqua. Così, quando
nelle camere stagne entra l’acqua, il peso del sommergibile aumenta e la spinta
idrostatica non è più in grado di sostenerlo, per cui il sommergibile andrà in
immersione. Viceversa, svuotando le camere stagne, il peso del sommergibile
diminuisce nuovamente, ed esso è in grado di tornare a galla. Per stabilizzarlo
a una certa profondità, si dovrà semplicemente espellere solo una parte di
quest’acqua, in modo da raggiungere una densità pari a quella dell’acqua in
cui si trova immerso.
Anche i pesci fanno come i sommergibili. La loro densità media è in effetti
leggermente superiore a quella dell’acqua, e perciò tenderebbero a scendere
verso il fondo, ma grazie a un particolare organo, detto vescica natatoria,
riescono a gestire abilmente il loro galleggiamento. Con questo organo, di cui
è dotata la maggior parte di essi, controllano la loro spinta idrostatica. In
pratica, la vescica natatoria, posta sopra l’intestino dell’animale, è una specie
di camera d’aria che può essere riempita con diverse quantità di aria, a
seconda della necessità, e che permette loro di mantenere un ottimo assetto
anche durante la sosta a qualsiasi profondità.
A maggiore profondità corrisponde una maggiore pressione, che tende a
“schiacciare” il pesce e a diminuirne il volume. Se ciò in realtà accadesse,
restando la massa del pesce sempre la stessa, la spinta idrostatica agente su di
esso diminuirebbe, facendo affondare il pesce. Per evitare ciò il pesce riempie
la propria vescica natatoria – che è un vero e proprio organo idrostatico –
producendo gas, in modo non solo da raggiungere la profondità desiderata,
ma, soprattutto, di mantenerla.
Naturalmente il principio di Archimede non vale solo se i corpi immersi
sono solidi, ma funziona anche nel caso di masse liquide o gassose. In
27
particolare tutti i gas hanno densità inferiori a quelle dei liquidi e perciò,
quando vengono liberati in un liquido, salgono verso la superficie sotto forma
di bollicine. Ecco svelato l’arcano del fine perlage dei vini spumanti e
dell’effervescenza delle bibite frizzanti. (Occorre però ricordare che i gas sono
parzialmente solubili nei liquidi, perciò una parte di essi rimane sempre in
soluzione: i pesci possono respirare proprio grazie alla presenza di ossigeno
disciolto nell’acqua!).
Nell’acqua funziona, ma nei gas?
Poiché il principio di Archimede non vale solo per i liquidi ma per i fluidi in
generale, è ovvio che trovi ampia applicazione anche la sua formulazione in
“versione per gli aeriformi”, ovvero: «un corpo immerso in un aeriforme (gas
o vapore) riceve una spinta verso l’alto pari al peso dell’aeriforme (gas o
vapore) spostato». In questo caso, la forza che spinge il corpo verso l’alto non
si chiama più spinta idrostatica, ma viene detta spinta aerostatica. La maggior
parte dei corpi, avendo una densità molto superiore a quella dell’aria, riceve
una spinta aerostatica praticamente trascurabile. Possono infatti restare sospesi
nell’aria, o addirittura muoversi verso l’alto, soltanto i corpi che hanno una
densità inferiore a quella dell’aria, come per esempio i palloncini per bambini
– il cui involucro di gomma ha un peso minimo – riempiti con elio, che è un
gas addirittura sette volte meno denso dell’aria che ci circonda.
Ecco dunque spiegato come fanno le mongolfiere, i dirigibili e i palloni a
librarsi in aria: grazie alla spinta aerostatica dell’aria in cui sono immersi. Un
tempo dirigibili e palloni erano riempiti di idrogeno, il gas più leggero
esistente in natura. Tuttavia l’idrogeno, essendo facilmente infiammabile, è
molto pericoloso da usare. Dopo una serie di incidenti gravissimi, come il
disastro del dirigibile tedesco Hindenburg nel 1937, il più grande oggetto
volante mai costruito, che portava il nome dell’allora presidente della
Germania, Paul von Hindenburg, si decise perciò di sostituirlo con elio
mescolato ad azoto (due gas inerti).
Le mongolfiere, il tipo più comune di pallone aerostatico, sono invece
gonfiate con l’aria calda – riscaldata da un apposito bruciatore – sfruttando il
fatto che, con l’aumentare della temperatura, l’aria si dilata e diminuisce la sua
densità (diventando quindi un gas più leggero dell’aria circostante), facendo
così diminuire il peso del pallone a parità di spinta. Le moderne mongolfiere
in realtà non sono riempite solo di aria calda, ma anche di gas prodotti dalla
combustione del propano, un gas conservato allo stato liquido in apposite
bombole. Il risultato non cambia: l’esperienza di un viaggio in mongolfiera è
28
sempre esaltante!
29
II
Al mare e in montagna
... ovvero la fisica del nuoto,
dello sci... e della sabbia
Quando si avvicinano i periodi di ferie, diventa un problema scegliere il
luogo di villeggiatura. «Al mare o in montagna?», con i cultori del primo in
perenne battaglia con gli amanti della seconda. Abbronzatura da spiaggia
tropicale o silenzi da vette inesplorate? Belle nuotate in acque trasparenti o
spericolate discese lungo montagne innevate? Pennichelle pomeridiane
all’ombra delle palme, dopo un doveroso spaghetto allo scoglio, o lunghe
passeggiate in valli verdeggianti, dopo una pausa davanti a un gustoso piatto
di polenta e funghi?
Ognuno, naturalmente, ha le sue ragioni per scegliere l’una o l’altra, ed è
effettivamente un peccato dover scegliere, perché sia il mare che la montagna
offrono alle persone curiose di fisica interessantissimi spunti di discussione,
dalla fisica del nuoto a quella degli sci, fino allo strano comportamento della
sabbia, che è un solido che si comporta come un fluido. Insomma, perché
non trascorrere un po’ di tempo al mare e un po’ in montagna?
30
GALLEGGIARE, OK, MA NUOTARE?
Siete sdraiati al sole, per abbronzarvi e fare invidia ai vostri amici rimasti a
casa. Il caldo è diventato quasi insopportabile e sentite il bisogno di
rinfrescarvi. Ecco, è finalmente arrivato il momento di tuffarsi in acqua e fare
una bella nuotata. La fisica del galleggiamento ormai non ha più segreti per
voi (l’avete imparata nel capitolo precedente!), ma per nuotare non basta
galleggiare, bisogna anche muoversi nell’acqua, ovvero in un mezzo fluido…
che quindi non offre alcun punto di appoggio.
Un bel problema, in effetti. Ma ecco che, ancora una volta, ci viene in
soccorso la fisica. In fondo, tutti gli sport hanno a che fare con la fisica, e il
nuoto non può ovviamente sfuggire a questa regola, ferrea e incontrovertibile.
Fra l’altro la fisica del nuoto è molto ricca e complessa, tanto che c’è anche
chi la studia a fondo, come i produttori dei cosiddetti “supercostumi”, che
permettono al nuotatore di andare molto più veloce rispetto a quelli
tradizionali (il loro uso nel nuoto professionistico è stato vietato, perché
“falsavano” la prestazione sportiva).
Ma come funziona un supercostume da nuoto? In estrema sostanza, questi
particolari indumenti riducono le asperità del corpo, ne arrotondano le curve,
avvicinando il corpo del nuotatore a quello del pesce, la cui forma affusolata
consente una bassa resistenza idrodinamica – in pratica l’acqua “scorre”
intorno al pesce senza incontrare ostacoli, pinne a parte – rendendone più
efficiente il movimento. Tanto per dare un’idea della fatica di un uomo che
nuota rispetto a un pesce, basti pensare che per attraversare il canale della
Manica a nuoto un uomo consuma circa 12.000 chilocalorie, circa cinque
volte il suo fabbisogno quotidiano medio, mentre a un pesce dello stesso peso
ne bastano appena 200. Ecco perché, mentre per volare vorrebbe assomigliare
a un uccello, per nuotare vorrebbe trasformarsi in pesce!
Quando si parla di fisica, una delle domande fondamentali da porsi è quali
siano le forze in gioco. Innanzi tutto, nel nuoto come in qualunque altra
attività umana (e disumana!), c’è sempre la forza di attrazione gravitazionale
che ci tira verso il basso, perché ci muoviamo sulla superficie del nostro
pianeta che ci attrae inesorabilmente verso il suo centro di gravità. Ma in
acqua, come abbiamo detto nel precedente capitolo, c’è il vantaggio di
ricevere una spinta verso l’alto pari al peso del volume di acqua spostato dal
corpo immerso nell’acqua stessa, ovvero la famosa spinta di Archimede.
Quando ci immergiamo il nostro corpo occupa infatti quel volume in
31
precedenza occupato dall’acqua. L’acqua ci spinge verso l’alto – come se
volesse farci uscire e tornare a occupare nuovamente quel volume –
“alleggerendo” il nostro peso e permettendoci di galleggiare. A farci avanzare,
invece, è il celebre “principio di azione e reazione”, ovvero la terza legge della
dinamica, formulata dal grande fisico inglese Isaac Newton nel 1686. Il punto
focale, nel nuoto, è proprio lo sfruttamento di questo principio: la spinta
muscolare sull’acqua produce un avanzamento del corpo, che deve vincere la
forza resistente opposta dal fluido stesso. Nuotando, noi applichiamo
all’acqua una forza diretta in un certo verso (azione), e l’acqua “reagisce”
(reazione) applicando a noi una forza esattamente identica, ma nel verso
opposto. Così, l’acqua da un lato ci oppone resistenza, dall’altro ci spinge.
Ecco perché riusciamo ad avanzare nell’acqua!
È esattamente ciò che accade anche quando remiamo, a patto di sapere
remare bene, ovvero di massimizzare la spinta della pala – la parte piatta del
remo – quando è immersa in acqua! Il remo è una leva che spinge l’acqua
indietro per provocare l’avanzamento della barca proprio in virtù del
principio di azione e reazione appena citato. È dunque grazie al moto
impresso al remo, in particolare quando è immerso, che riusciamo a dare una
spinta in avanti alla nostra imbarcazione. Una semplice analisi della leva
costituita dal remo ci permette di dire che la forza applicata (detta potenza) è
quella con cui il rematore agisce sull’impugnatura del remo, mentre la
resistenza – che è all’origine della spinta in avanti impressa all’imbarcazione –
è data dall’opposizione dell’acqua che, nonostante sia in grado di “scivolare”
sui materiali, preme sulla pala del remo, avendo questa una superficie
relativamente ampia. Il fulcro della leva è costituito dallo scalmo, il punto in
cui il remo fa perno rispetto alla barca.
Nuotare è come volare?
Studiando la dinamica del nuoto, ad alcuni potrebbe venire in mente che il
nuoto e il volo abbiano diverse caratteristiche in comune. Entrambi
riguardano il movimento di un corpo all’interno di un fluido, l’acqua nel caso
del nuoto, l’aria per il volo. Tuttavia le differenze sono molte di più delle
analogie. Infatti, se, come abbiamo osservato, in entrambi i casi per
l’avanzamento si applica il principio di azione e reazione, esiste una differenza
importante e sostanziale fra il nuoto e il volo: nel primo, infatti, il
galleggiamento è dovuto alla spinta di Archimede, mentre nel secondo alla
portanza dell’ala, generata dalla differenza di pressione tra la superficie
superiore – bassa pressione – e inferiore – alta pressione – dell’ala stessa.
32
Mentre possiamo costruire navi dal dislocamento enorme, come quelle da
crociera o le superpetroliere, non è possibile fare lo stesso con le dimensioni
degli aerei. La portanza, infatti, determina anche un limite per il peso che può
mantenersi sollevato nell’aria: questo è per esempio il motivo per cui non si
osservano uccelli oltre i 15 kg di peso.
D’altra parte, l’acqua è oltre 700 volte più densa e 55 volte più viscosa
dell’aria, ragione per cui il moto al loro interno deve avere caratteristiche
sostanzialmente diverse. Tuttavia sia la densità che la viscosità dipendono
dalla temperatura. E se l’acqua fredda, più densa, “sostiene” il nuotatore
favorendone il galleggiamento, l’acqua calda, più fluida e meno viscosa,
scorre meglio lungo il corpo del nuotare, opponendo meno resistenza al moto.
Così, si trova che la temperatura ideale, che rappresenta il miglior
compromesso fra la densità e la viscosità dell’acqua, è circa 25 °C, che,
curiosamente, oltre a essere la temperatura ideale per fare un bel bagno in
mare, è anche la temperatura minima indicata dal regolamento della
Federazione Internazionale del Nuoto (FINA).
Velocisti in mare e in vasca
Potrà sembrare strano, ma misurare la velocità dei pesci non è affatto
un’operazione semplice: nonostante innumerevoli studi e tentativi, ancora
oggi non si hanno dati precisi sulle velocità massime raggiungibili dalle
diverse specie. A detenere il record di velocista del mare è il “pesce vela”,
Istiophorus platypterus, in grado di raggiungere, seppure per periodi brevi,
velocità pari a 110 chilometri orari. Questa specie, che vive negli oceani
Pacifico e Indiano, deve il suo curioso nome all’estesa pinna dorsale, lunga
anche 1,5 metri, talvolta usata fuori dall’acqua proprio come una vela (ma
non incute terrore come la pinna dorsale dello squalo!).
Più facile, invece, misurare la velocità dei nuotatori, anche perché c’è chi dà
il via e fa partire il cronometro. Per molti anni, in tempi recenti, l’uomo-pesce
per eccellenza è stato Michael Phelps (nato nel 1985), il nuotatore statunitense
soprannominato “il cannibale di Baltimora” per aver divorato titoli e record
mondiali e aver fatto incetta di medaglie d’oro alle Olimpiadi di Pechino 2008:
otto, un record per una singola olimpiade. In quella competizione, Phelps fu
in grado di nuotare i 200 stile libero – che è lo stile a cui si raggiungono le
velocità maggiori – in 1’42”96, a una velocità media di quasi sette chilometri
orari. Ma, come è facile intuire, le virate rubano tempo (la virata è il
movimento con cui il nuotatore alla fine della vasca inverte il senso di
marcia). Ecco perché, per trovare il nuotatore con la velocità media più alta
33
(in vasca lunga, ovvero la vasca di 50 metri), si deve andare ai 50 metri stile
libero. Percorsi il 18 dicembre 2009, in occasione dei campionati brasiliani, da
César Cielo Filho in 20”91, alla ragguardevole velocità di 8,6 chilometri
all’ora!
Nonostante non sia mai stato il più veloce, Michael Phelps, oggi ex
nuotatore, è considerato il più grande nuotatore di tutti i tempi, anche in virtù
del fatto che ai Giochi olimpici di Londra 2012 è diventato l’atleta più titolato
nella storia delle Olimpiadi moderne: 22 medaglie complessive, di cui ben 18
ori (ragione per cui è anche l’atleta che ha vinto il maggior numero di
medaglie d’oro).
Che ci sia un trucco, allora?
I record di Phelps e degli altri nuotatori possono far pensare che ci sia un
trucco per ottenerli (no, non stiamo pensando al doping). Il trucco
ovviamente c’è: consiste nell’affinare il più possibile la propria tecnica,
tenendo conto che, nel nuoto, il problema principale è che, a differenza di
quanto accade nella corsa o nel ciclismo, non esistono punti fissi di appoggio
al suolo per creare avanzamento e propulsione in seguito al lavoro e alle
spinte dei nostri muscoli, ma ci muoviamo in una sostanza fluida. In altri
sport, infatti, il punto dove appoggiamo mani e piedi per spingere e prendere
velocità è solido, fisso e inamovibile, mentre nel nuoto la “base” sulla quale
fare leva è instabile. Pertanto diventa assolutamente fondamentale sviluppare
una tecnica per ricercare qualcosa che assomigli il più possibile a dei punti
“fissi” di appoggio in acqua. In caso contrario, il rischio è quello di “tagliare
l’acqua” inutilmente con le nostre mani e braccia, facendo tante bracciate per
avanzamenti ridottissimi a bassa velocità. In pratica, fare un “buco
nell’acqua”.
Il trucco è questo: cercare le parti più “resistenti” dell’acqua (che esistono,
certo che esistono), ovvero le zone sostanzialmente fisse nel fluido a cui
“aggrapparci” per rendere più efficienti i nostri spostamenti. Molti studi
dimostrano che i migliori nuotatori non sono quelli che fanno bracciate più
rapide: sono invece quelli che fanno il minor numero di bracciate per vasca.
Tanto per fare un esempio, alcuni di questi riescono addirittura a completare
una vasca da 25 metri impiegando dalle 13 alle 15 bracciate (senza considerare
il tuffo iniziale): in pratica percorrono quasi due metri a bracciata. La lezione è
quindi che un nuotatore diventa più efficiente se nuota più lungo, non se
aumenta la frequenza delle proprie bracciate. Impressionante!
Naturalmente, per ridurre il numero di bracciate non basta effettuare una
34
banale “sottrazione”, cioè farne di meno (anche perché si rischia di restare a
metà di una vasca). I buoni nuotatori riescono infatti non solo a ridurre la
quantità di bracciate, ma anche ad andare più veloci, e questo risultato può
essere ottenuto solo in un modo: riducendo gli attriti. Così, da un lato bisogna
aumentare l’efficienza della propria spinta andando con le mani a cercare le
zone più resistenti dell’acqua – che sono sostanzialmente quelle meno mosse
dal nostro passaggio (le meno resistenti sono invece quelle ricche delle bolle
di aria sollevate dalla nostra azione natatoria) –, mente dall’altro occorre
guadagnare in capacità di avanzamento a parità di sforzo riducendo gli attriti.
Già, ma come si fa? Semplice a dirsi: è sufficiente assumere una posizione
idrodinamica, ovvero una posizione che incontri la minor resistenza possibile
nel movimento nell’acqua (questo lo fanno anche i tuffatori: l’ingresso in
acqua è tanto più elegante, e ottiene voti più alti, quanto minore è la quantità
di acqua sollevata, fatto che accade quanto più idrodinamico è il nostro
assetto). Pensate alla forma dei pesci: bene, quando nuotate dovete
trasformarvi – nei limiti del possibile, ovviamente – in qualcosa che assomigli
il più possibile a un pesce. Rispetto all’aria, infatti, in acqua si devono vincere
attriti molto maggiori per poter avanzare, e ogni resistenza in più non solo
rallenta la velocità, ma sottrae anche energie preziose.
Dopo tutto se i ciclisti fanno sforzi enormi per ricercare la posizione più
aerodinamica possibile, e si muovono in aria, perché non dovrebbero farlo i
nuotatori, che, come abbiamo scritto prima, si muovono in un mezzo assai più
denso e viscoso di quella? Ai fini dell’avanzamento, la riduzione dell’attrito
pesa per circa il 70 per cento, mentre le capacità propulsive legate alla tecnica
del nuotatore (oltre che alla sua sensibilità di “trovare” in acqua le zone a
maggiore resistenza) sono prossime al restante 30 per cento. Volete provare a
diventare bravi come Michael Phelps, migliorando la vostra tecnica e
nuotando più veloci? Bene, partendo dal presupposto che difficilmente
potrete raggiungere i primati di Phelps, sappiate che i punti di miglioramento
di cui preoccuparsi sono questi, in ordine di priorità: l’assetto in acqua, la
tecnica di nuoto, e, solo da ultimo, la prestazione fisica. Curioso notare che,
invece, la maggior parte delle persone che si avvicina al nuoto ha spesso un
ordine di priorità totalmente ribaltato. Ecco perché i margini per diventare
come Phelps restano comunque bassissimi, ma per diventare provetti
nuotatori sono spesso enormi. Provare per credere, a qualunque età.
Garantiscono le leggi della fisica!
35
SULLA NEVE, FRA SCIOLINE E SCIANCRATURE
Dopo una bella nuotata in mare aperto o in una piscina olimpionica, è
arrivato il momento di salire in montagna per dedicarsi allo sci alpino, altra
disciplina sportiva a cui la fisica e anche la matematica offrono il loro
importante contributo. Perché, nonostante le apparenze, non è solo questione
di attrito! Anzi, se è vero che fino a qualche tempo fa i risultati di una gara
sciistica dipendevano molto dalle prestazioni dello sciatore, adesso il
contributo della scienza nello studio delle tecniche di discesa, nonché dei
materiali e della progettazione degli sci è diventato sempre più importante (ve
lo aspettavate, vero? Altrimenti non ne parleremmo!).
In effetti, dai primi sci – le prime testimonianze sul loro uso, trovate
nell’Europa settentrionale, risalgono a circa 5000 anni fa – costituiti da pezzi
di legno lavorati e utilizzati come mezzo per agevolare la locomozione quando
i territori erano per molti mesi coperti dalla neve, agli sci ipertecnologici di
oggi ci corre non solo tanto tempo, ma anche tanta tecnologia. Quando, a
partire dalla seconda metà dell’Ottocento, gli sci iniziarono a diffondersi dalla
Norvegia – dove il loro uso era anche diventato una disciplina sportiva –
anche al resto dell’Europa, questi erano realizzati con legni di quercia e
betulla, ed erano lunghi anche più di due metri. Gli attacchi di oggi erano
ancora lontani dall’essere progettati ed erano semplici staffe in cuoio con le
quali si legavano gli sci agli scarponi. Nel XX secolo gli sci diventarono più
corti e maneggevoli, e soprattutto più facili da girare (provate voi a mettere
due pezzi di legno pesanti e lunghi due metri ciascuno ai piedi e descrivete
l’esperienza!). Oltre ad accorciarli, i costruttori iniziarono a usare materiali
diversi, come per esempio alcuni metalli per rendere più rigidi e sicuri gli
attacchi, in modo che gli scarponi fossero fissati agli sci stessi, così da evitare
scivolamenti e girare con maggiore agilità. Da allora, gli sci si sono
continuamente evoluti sotto l’impulso dei progettisti e degli sciatori, che
chiedevano attrezzi sempre più agili e maneggevoli.
Dagli sci in legno, che erano rigidi e pesanti, si è quindi passati all’attuale
struttura a sandwich, dove lo sci è in realtà costituito da strati sovrapposti di
materiali diversi, dal legno, alla plastica, alla fibra di vetro, all’alluminio, alla
gomma. Questa struttura a strati garantisce da un lato una buona rigidità,
dall’altro leggerezza e flessibilità. La rigidità, in particolare, è importante
quando lo sci è sottoposto a torsione, ovvero quando lo sciatore deve
affrontare una curva, sperabilmente senza sbandamenti. Oltre a questi
36
cambiamenti, frutto del progresso della scienza e della tecnologia dei
materiali, negli ultimi decenni si sono visti anche cambiamenti nella forma
degli sci, tanto che, mentre fino a una trentina d’anni fa gli sci erano
perfettamente dritti, adesso sulle piste si usano i carve (o carving, incisione in
inglese), sci larghi in testa e in coda e più stretti al centro.
Grazie a questa forma particolare, gli sci sono più flessibili dove necessario e
permettono di curvare senza troppi sforzi. Se si è arrivati a questo, si può
essere certi che gli studi sugli sci e sulle tecniche sciistiche non cesseranno
qui, ma proseguiranno grazie a ricerche sul campo – osservando cioè come si
comporta uno sciatore in diverse condizioni – e a modelli sempre più
complessi che permettano di realizzare attrezzi e tecniche sempre più
sofisticati. Basti pensare che in molti sport esistono gruppi di ricercatori che
studiano in laboratorio il gesto sportivo e i materiali in modo da ottimizzare le
tecniche e le modalità di allenamento. Uno degli aspetti più sottoposti a
indagine, nello sci alpino come nel ciclismo o in altri sport dove la velocità è
la chiave per vincere, è la posizione aerodinamica, studiata addirittura nella
galleria del vento, esattamente come accade per studiare i prototipi di Formula
1.
CURVE PERFETTE, CON GLI “SCI A CLESSIDRA”
Fino a non molti anni fa, sulle piste da sci si girava con sci lunghi e dritti. Questo tipo era piuttosto rigido
e, soprattutto, difficile da girare: le curve erano quindi delle sbandate più o meno controllate, con, in
generale, traiettorie piuttosto lunghe (con ovvio aumento del tempo necessario a percorrerle!). Una
buona tecnica permetteva di ridurne la lunghezza, ma il limite stava proprio negli attrezzi che si
mettevano ai piedi. Con l’arrivo degli sci carving (o carve) tutto questo è diventato un ricordo.
Gli sci carving hanno infatti una particolare forma a clessidra, che li rende flessibili nella zona centrale,
dove sono appunto più stretti, e quindi molto più facili da girare. La differenza fra la larghezza alle
estremità (maggiore) e quella al centro (minore) prende il nome di “sciancratura”, ed è la caratteristica
più importante di questo tipo di attrezzi. In particolare, a parità di lunghezza degli sci, un valore alto di
sciancratura permette di percorrere curve più strette, cioè traiettorie con raggio di curvatura minore.
Grazie a questa, lo sciatore può affrontare le curve “in conduzione” (come si dice tecnicamente), ovvero
senza sbandate, mantenendo quindi sempre molto alto lo scivolamento e senza essere costretto a
ridurre sensibilmente la velocità di discesa. Con questi sci, infatti, lo sciatore in curva può mettere di
spigolo gli sci che, grazie alla loro flessibilità, si deformano come un arco per effetto del peso dello
sciatore, e “incidere” così la neve con le lamine (da cui il nome carve, che in inglese significa appunto
“incidere”, come accennato in precedenza), percorrendo quindi curve più strette e senza scivolamenti
laterali, ovvero traiettorie più precise e pulite.
Fisica e matematica ovunque, anche sulla neve
A molti la matematica non piace, lo sappiamo, ma se adesso, messi gli sci ai
piedi, riuscite a scendere molto più agevolmente e con maggiore velocità di
quanto accadeva ai vostri nonni, ebbene, sappiate che grande merito va a chi
37
ci ha fatto un po’ di calcoli sopra.
Che cosa dobbiamo studiare in questo caso? A questo punto l’avrete capito:
in fisica, la prima cosa da analizzare sono sempre le forze in gioco (quando
dovete impostare un problema di fisica, pensate sempre a Newton e alle sue
leggi della dinamica!). Nel caso degli sci, il sistema da studiare non è
particolarmente complesso, è sufficiente analizzare quali forze agiscono sullo
sciatore mentre affronta una discesa lungo un pendio più o meno ripido.
Innanzi tutto abbiamo – udite, udite! – la forza di gravità. E se in molti casi
questa può rappresentare un fastidio, in questo caso dobbiamo proprio a essa
il fatto che sia possibile sciare! Infatti qualsiasi corpo, se posto su un piano
inclinato, scivola lungo la linea della massima pendenza proprio per effetto
della forza peso, il cui valore è sempre dato dal prodotto della sua massa per
l’accelerazione di gravità. Ora, poiché ci troviamo su un piano inclinato –
stiamo parlando del pendio, naturalmente – non tutta la forza di gravità
contribuisce ad accelerare il corpo dello sciatore verso il basso, ma solo una
sua parte. La forza peso può infatti essere scomposta in due componenti: una
parallela al piano del pendio (stiamo naturalmente praticando una delle
consuete semplificazioni da fisici supponendo che il pendio sia a pendenza
costante, altrimenti dovremmo valutare questa scomposizione di volta in
volta, a seconda della pendenza), l’altra perpendicolare a questo piano.
38
Fig. 2 Scomposizione della forza peso in due componenti.
Mentre quest’ultima spinge il corpo verso il terreno, la prima è appunto la
componente che spinge il corpo lungo il pendio, ovvero quella che lo fa
scendere accelerando. Queste componenti dipendono dalla pendenza del
terreno: più ripido è un pendio, maggiore è la componente che fa scivolare il
corpo verso il basso; viceversa, su terreni pianeggianti, prevale la componente
perpendicolare. In pratica, questo significa che su pendii scoscesi si può
scendere verso valle molto velocemente mentre quando ci si trova quasi in
piano si resta sostanzialmente fermi. Le altre forze in gioco sono gli attriti e la
forza del terreno che da un lato ci impedisce di sprofondare e dall’altro ci
permette di curvare. Questa forza prende il nome tecnico di “reazione
vincolare”, perché si tratta appunto di una reazione (nel senso del principio di
azione e reazione) del vincolo (il terreno). I fisici infatti definiscono vincolo
qualsiasi condizione che limita il moto di un corpo. Nella circostanza, il
vincolo rappresentato dal terreno impedisce appunto allo sciatore di affondare
nel terreno stesso, fatto che, dal punto di vista del fisico, rappresenta una
39
limitazione al movimento, mentre dal punto di vista dello sciatore… è una
fortuna.
Gli attriti meritano invece un discorso più approfondito. L’attrito, in
generale, è una forza che si oppone al movimento ed è esercitata da due corpi
in contatto: questa forza rallenta lo sciatore, ma è di fondamentale importanza
perché gli permette di tenere il controllo sugli sci. Nel caso dello sciatore le
forze di attrito sono di due tipi: la resistenza dell’aria (anche questa, come la
gravità, è sempre presente, quando parliamo di fenomeni che si verificano
sulla superficie del nostro pianeta) e l’attrito dovuto al contatto fra sci e neve.
In generale, la resistenza dell’aria, ovvero l’attrito esercitato dal corpo a
contatto con l’aria, dipende da diversi fattori, quali la forma del corpo, il
materiale di cui è rivestito e, infine, la velocità con cui scende. Tanto per fare
due esempi, una posizione raccolta risulta essere una forma più aerodinamica
di quella eretta, mentre un tessuto ruvido incontra maggiore resistenza
dell’aria di uno liscio. Inoltre, poiché l’attrito con l’aria è direttamente
proporzionale al quadrato della velocità, ovvero che più veloce è lo sciatore
tanto maggiore sarà la resistenza dell’aria, quando si va piano l’attrito dell’aria
è quasi impercettibile, ma ad alte velocità diventa una forza anche complessa
da gestire. In una disciplina come il chilometro lanciato, dove sciatori esperti
si lanciano dritti lungo una pista raggiungendo velocità molto elevate
prossime a quelle della caduta libera, il cambiamento improvviso di assetto,
da una posizione aerodinamica a una eretta, provoca forti decelerazioni che
possono provocare la caduta dello sciatore.
L’altro tipo di attrito, dicevamo, è quello dovuto al contatto fra gli sci e lo
strato superficiale di neve. Questo attrito dipende esclusivamente dal peso che
il corpo esercita sul terreno e dalla superficie di contatto degli sci con la neve.
Il peso viene infatti distribuito lungo la superficie degli sci: uno sci lungo
risulta essere più veloce sul dritto di uno sci corto poiché il peso dello sciatore
incide meno sul terreno (in pratica, a parità di peso, una superficie di
appoggio maggiore riduce la pressione che si esercita sul terreno). Questo è il
motivo per cui nelle discipline veloci, dove è necessario compiere meno
curve, si usano gli sci lunghi. La “regola aurea” è la seguente: più veloce è una
disciplina, più lunghi sono gli sci da usare. Nello slalom speciale, per
esempio, dove è richiesto allo sciatore di compiere curve molto strette,
vengono impiegati sci corti (poco più di un metro e mezzo per le donne),
mentre per la discesa libera si usano sci piuttosto lunghi (anche oltre due
metri, per gli uomini).
Tutti gli sciatori sanno bene che per minimizzare l’attrito dovuto al contatto
40
fra gli sci e la neve si usano le scioline. Queste cere da applicare sulla soletta
degli sci hanno proprietà chimiche diverse, studiate in base alle caratteristiche
(tasso di umidità e temperatura) della neve sulla quale vogliamo sciare: ci
sono scioline per nevi cosiddette calde (con temperature comprese fra 0 e -4
°C) che sono assai diverse da quelle realizzate per affrontare nevi molto
fredde (con temperature comprese fra -15 °C e -20 °C). Dalla scelta della
sciolina dipende la scorrevolezza o meno degli sci. Ecco perché, nello sci
professionistico, questa scelta è spesso lasciata ai cosiddetti ski-men che sono
gli addetti alla preparazione dei materiali per la competizione.
Ora, per ridurre l’impatto delle forze di attrito, il modo più semplice è quello
di allineare gli sci sulla linea della massima pendenza e tenerceli il più
possibile, ovvero fino a quando non si è costretti a curvare. Una volta in
curva, poi, occorre evitare sbandamenti: solo così, infatti, si riduce la quantità
di neve su cui devono scivolare gli sci, rendendo quindi più scorrevole la
discesa. Sempre che voi vogliate arrivare primi in una gara di discesa. In
questo caso vi conviene anche indossare tute attillate e usare scioline adatte.
Se invece non vi interessa ridurre la resistenza dell’aria o l’attrito con la neve,
ma volete andare piano perché siete principianti o volete godervi il paesaggio
circostante, ebbene, basta che mettiate gli sci trasversalmente alla linea di
pendenza. Guardate come fanno gli sciatori esperti a frenare e a fermarsi in
fondo a una discesa velocissima e imparate: basta mettere sci perpendicolari a
monte e il gioco è fatto!
Fra poliuretani e paraffine
Tornando per un attimo alla tuta dello sciatore, il principale materiale
impiegato attualmente è l’elastam (o elastan), la celebre fibra sintetica di
poliuretano in grado di elasticizzare i tessuti. Non sapete che cos’è? Forse la
riconoscete se la chiamiamo Lycra (che si pronuncia “laicra”), ma sappiate che
il termine Lycra è un marchio depositato (e quindi privato), mentre elastam è
appunto il termine generico con cui viene indicata la fibra, indipendentemente
dal nome e dal marchio con cui viene commercializzata.
L’elastam, noto per la sua eccezionale elasticità e resistenza, ha solo un
piccolo difetto rispetto al suo principale concorrente non sintetico, il lattice
naturale: ha vita più breve, anche se le industrie chimiche sono continuamente
alla ricerca di modi per migliorare le caratteristiche di resistenza dei materiali
sintetici. Inventato nel 1959 nel Laboratorio Benger della DuPont (dove
appunto prese il nome iniziale di Lycra, da cui deriva la fama di questo
termine), a Waynesboro, in Virginia, ci si rese presto conto che questo
41
materiale avrebbe rivoluzionato l’industria dell’abbigliamento. Rivoluzione
che, in effetti, è sotto gli occhi di tutti: con l’elastam sono realizzati non solo
tantissimi indumenti sportivi – dalle tute da sci, ai costumi per nuotatori, ai
pantaloni per ciclisti – ma anche una miriade di prodotti da indossare, come
calze, guanti, magliette, pantaloni (anche i jeans elasticizzati, fatti ovviamente
con il denim, il classico tessuto ruvido di cotone dei jeans, contengono una
quantità compresa fra il 2 e il 4 per cento di elastam). È curioso notare che nel
suo luogo di origine, gli Stati Uniti, la fibra è conosciuta con il nome generico
di “spandex”, l’anagramma del verbo expands, ovvero “(essa si) espande”.
Rimanendo ancora nell’ambito della chimica industriale, apriamo di nuovo
una parentesi sulla sciolina (esistono sia scioline da scorrimento, usate nello
sci alpino, sia scioline da tenuta, usate nello sci di fondo). La facilità di
scorrimento della superficie inferiore degli sci sulla superficie superiore del
manto di neve è legata al coefficiente di attrito fra le due. Riducendo il valore
di questo coefficiente, la scorrevolezza aumenta. Per ottenerla si usa appunto
la sciolina, una cera costituita da una miscela complessa di idrocarburi
(paraffina) e di additivi specifici – a base di molecole contenenti fluoro – che
vengono scelti in base alle caratteristiche della neve (temperatura,
compattezza, umidità ambientale).
In particolare, lo scivolamento è agevolato dal sottile strato di acqua che si
forma sotto la suola degli sci a causa dell’attrito con la neve. Ora, lo spessore
di questa pellicola è controllato dalla rugosità della soletta e dalla sciolina.
Ogni sciolina produce infatti una quantità diversa di acqua tra soletta e neve, a
seconda della temperatura di quest’ultima. Quando la temperatura è bassa
(molto al di sotto dello 0 °C) la neve è dura, perché quasi completamente
ghiacciata: in questo caso, la scelta di una sciolina dura permette di creare una
pellicola di acqua più sottile rispetto a quella che verrebbe creata da una
sciolina morbida, garantendo un basso valore del coefficiente d’attrito (in
presenza di acqua libera, ovvero di uno spessore di acqua maggiore, infatti,
aumenta la superficie di contatto tra lo sci e la neve, aumentando di
conseguenza l’attrito). La durezza della sciolina scelta deve quindi essere
adatta alla durezza della neve. Inoltre l’attrito di una soletta diminuisce se
questa viene resa idrofobica, tramite appunto l’aggiunta di additivi specifici.
Gli studi dimostrano che la lunghezza della catena idrocarburica determina la
durezza della cera, mentre gli additivi a base di molecole fluorurate sono usati
per aumentare l’idrorepellenza delle superfici.
Ma, alla fine dei conti, come fa la sciolina a funzionare? La risposta non è
difficile. Se pensate al fatto che il coefficiente d’attrito dipende dalla
42
“scabrosità” delle superfici, ovvero più sono ruvide, maggiore è l’attrito che si
presenta al contatto, la funzione della sciolina è appunto quella di ridurre le
asperità della soletta degli sci e di renderla impermeabile, riempiendone le
eventuali porosità, ed evitando quindi che acqua, ghiaccio o polveri possano
infiltrarsi, aumentando la superficie di contatto e quindi l’attrito.
43
QUESTIONE DI PUNTI DI VISTA
Quando abbiamo a che fare con corpi in movimento, come nel caso dello
sciatore, può essere interessante studiarli da due punti di vista differenti:
quello del pubblico, che sta fermo ai bordi della pista, e quello dello sciatore,
che invece si muove rispetto a questo. In fisica, i “punti di vista” prendono il
nome tecnico di “sistemi di riferimento”, e mentre il primo, fisso, è un
cosiddetto sistema di riferimento inerziale, il secondo, in movimento
accelerato, è un classico esempio di sistema di riferimento non inerziale.
I fisici amano particolarmente questa distinzione – Albert Einstein ha
costruito la teoria della relatività sulle differenze che emergono nello studio
dei fenomeni naturali se osservati da sistemi inerziali o da sistemi non inerziali
–, anche perché porta alla scoperta di forze che non esistono… ma che si
fanno ugualmente sentire! Un sistema viene definito inerziale se è fermo o si
muove di moto rettilineo uniforme. In altre parole, un sistema è inerziale se
per esso vale la prima legge della dinamica – o principio d’inerzia, appunto –,
secondo la quale un corpo permane nel suo stato di moto imperturbato (stato
di quiete o di moto rettilineo uniforme), se non è sottoposto a forze esterne.
Per esclusione, i sistemi non inerziali sono tutti gli altri: quelli che si muovono
di moto accelerato, e sono quindi soggetti all’azione di forze (badate bene, in
fisica anche una frenata, ovvero una decelerazione, è comunque un moto
accelerato! D’altra parte, per fermare un corpo in movimento ci vorrà bene
una forza, no?).
Dunque, prendiamo lo sciatore in curva e studiamolo prima dal punto di
vista del pubblico. Quali sono le forze che agiscono su di lui? La forza di
gravità (bravi!) e gli attriti (ottimo!). Sono proprio questi ultimi, in
particolare, a permettere allo sciatore di percorrere la curva. In loro assenza,
lo sciatore partirebbe per la cosiddetta tangente, cioè proseguirebbe il suo
moto lungo una traiettoria rettilinea. Gli attriti funzionano infatti da vincolo
per gli sci (in pratica, impediscono alle lamine messe di spigolo di avere un
moto trasversale e quindi agli sci di sbandare), generando in curva una forza
di richiamo (la cosiddetta forza centripeta) che permette allo sciatore di
percorrere la traiettoria curvilinea. Rimessi gli sci piatti rispetto al terreno,
quel tipo di vincolo si annulla e con esso la forza centripeta: a questo punto lo
sciatore può tornare a scendere lungo una traiettoria rettilinea.
Proviamo adesso a studiare lo stesso fenomeno dal punto di vista dello
sciatore. Come è facile intuire, la questione si fa un po’ più complicata perché
44
ci troviamo solidali a un corpo in accelerazione (il fatto che lo sciatore curvi
implica che sta variando la propria velocità – almeno la sua direzione di moto
– e quindi è soggetto a un’accelerazione, considerato che l’accelerazione è
definita come la variazione di velocità nel tempo). Ora proviamo a chiedere
allo sciatore quali forze “sente” in azione su di lui. La risposta sarà che, oltre
alla forza di gravità e agli attriti, ne sente una in più, che cerca di portarlo
verso l’esterno della curva. Per questo motivo lo sciatore si inclina verso
l’interno, nel tentativo di controbilanciarla (questo si fa anche in bicicletta, o
in moto, quando si “piega” affrontando una curva). Facendo i conti, si scopre
che la forza centrifuga dipende dal quadrato della velocità e dal raggio di
curvatura: quindi è tanto più grande quanto maggiore è la velocità con cui si
affronta la curva. Questo è il motivo per cui una curva veloce richiede allo
sciatore (e al motociclista) di piegarsi di più di quanto è costretto a fare
percorrendo una curva lenta. Dal punto di vista in movimento dello sciatore, è
il vincolo creato dal contatto fra sci e terreno a impedire alla forza centrifuga
di “portarselo via”, permettendogli nel contempo di percorrere la traiettoria
curvilinea.
Una domanda sorge spontanea: com’è possibile che lo sciatore veda una
forza in più rispetto al pubblico? Da dove spunta fuori la forza centrifuga?
Banalmente, questa emerge dal fatto che abbiamo studiato il fenomeno da due
punti di vista con caratteristiche fisiche molto diverse. In pratica, il semplice
fatto di cambiare sistema di riferimento e di sceglierne uno in moto accelerato,
e quindi non inerziale, “crea” questa nuova forza che i fisici chiamano
“fittizia” (vedi Forza centripeta e forza centrifuga), che può invece essere
eliminata scegliendo un opportuno sistema di riferimento (inerziale).
FORZA CENTRIPETA E FORZA CENTRIFUGA
Ogni forza che fa sì che un corpo segua una traiettoria circolare è detta forza centripeta. In particolare,
qualsiasi tipo di forza (gravitazionale, elettrica, meccanica) che agisca perpendicolarmente alla
traiettoria di moto di un corpo tende a indurre un moto circolare, e possiamo pertanto chiamarla forza
centripeta. Se, per esempio, consideriamo un corpo legato all’estremità di una fune che vincola tale
corpo a ruotare e tagliamo la fune all’improvviso, il corpo prosegue il suo moto lungo la direzione
tangente alla traiettoria circolare. È la prova che prima su di esso agiva una forza, la forza di tensione
della fune, che appunto aveva la funzione di forza centripeta.
La nostra percezione dei fenomeni naturali è però fortemente influenzata dal sistema di riferimento da
cui abbiamo deciso di osservarli. Quando ci troviamo su una giostra o affrontiamo una curva in
automobile, il mondo intorno a noi ruota e noi ci sentiamo spinti verso l’esterno da una forza, detta
appunto centrifuga. Questa forza non è però presente nella descrizione del fenomeno che noi diamo se
ci troviamo in quiete o ci muoviamo di moto rettilineo uniforme, ovvero siamo in un sistema di
riferimento inerziale. La forza centrifuga è una forza fittizia, non una forza reale come è, per esempio, la
gravità: essa non è prodotta da un’interazione con un altro corpo, ma semplicemente dalla rotazione, o,
meglio, dalla scelta del sistema di riferimento rotante (non inerziale). Essendo una forza fittizia, la forza
45
centrifuga non rispetta il terzo principio della dinamica: inutile quindi andare a cercare la “reazione” alla
forza centrifuga, perché non esiste.
Noi viviamo in un sistema di riferimento non inerziale. Tutti i corpi che si trovano sulla superficie
terrestre sono infatti in rotazione, trascinati dalla rotazione del nostro pianeta attorno al proprio asse.
Così, oltre alla gravità, tutti sentiamo anche l’effetto di una forza centrifuga, perpendicolare all’asse di
rotazione. Ma il moto di rotazione della Terra genera un’altra forza fittizia, che agisce su tutti i corpi in
movimento nel sistema rotante: è la forza di Coriolis. In particolare, la forza di Coriolis si manifesta su
un corpo all’interno di un sistema di riferimento rotante, ogni volta che il corpo stesso si muove in modo
tale da variare la sua velocità di rotazione. Questo accade, per esempio, alle masse d’aria
dell’atmosfera terrestre, che ruota solidalmente con la superficie del Pianeta. Gli spostamenti in
latitudine dovuti alla loro convergenza dalle regioni ad alta pressione verso le regioni a bassa pressione
fanno sì che, sotto l’azione della forza di Coriolis, queste masse inizino a muoversi in senso antiorario
(nell’emisfero boreale) o in senso orario (nell’emisfero australe), dando così origine ai cicloni.
In sintesi, quando ci troviamo in un sistema in rotazione, si sperimenta l’azione di alcune forze fittizie
(dette anche forze inerziali, perché dovute all’inerzia dei corpi dotati di massa): la forza centrifuga, che
si manifesta in ogni caso nel sistema in rotazione, e la forza di Coriolis, che invece si manifesta solo se
ci muoviamo rispetto al sistema rotante.
La forza centrifuga è un particolare tipo di forza di trascinamento. Le forze di trascinamento (tutte
fittizie) sono infatti presenti ogni volta che si ha a che fare con un sistema di riferimento che si muove di
moto accelerato rispetto a un sistema inerziale (ricordiamo che i sistemi inerziali, solo all’interno dei
quali valgono le tre leggi della dinamica di Newton, sono quelli in quiete o che si muovono di moto
rettilineo uniforme). Ne abbiamo tutti esperienza diretta quando siamo in auto, anche quando non
stiamo curvando: quando l’auto è in accelerazione, sentiamo di essere spinti “all’indietro”, mentre se il
veicolo frena siamo spinti “in avanti”. Naturalmente in nessuno dei due casi agisce su di noi una forza
reale (nessuno ci sta spingendo!). Quello che osserviamo è quindi solo l’effetto di una forza fittizia in un
sistema non inerziale.
46
CASTELLI DI SABBIA
Quante volte, anche da adulti, avete messo alla prova le vostre abilità
costruttive per tirare su un bel castello di sabbia? E quante volte siete rimasti
con un mucchio di granelli in mano tentando di scavare un passaggio sotto un
ponte di sabbia? Ebbene, sappiate che non siete soli. Milioni di persone,
bambini, adulti, anziani, ogni anno, giocano con la sabbia delle spiagge di
ogni luogo del globo terracqueo, ma sono molto poche quelle capaci di
erigere strutture imponenti e durature (nei limiti del possibile, naturalmente).
La scienza della sabbia è un capitolo affascinante della fisica, non solo perché
può aiutarci a costruire castelli, ma anche e soprattutto perché permette agli
scienziati dei materiali e agli ingegneri edili di comprendere meglio il
comportamento della materia in particolari condizioni.
Volete costruire un castello di sabbia perfetto? Ecco la ricetta di un gruppo di
ricercatori che ha studiato il problema: il segreto per la costruzione di un
castello di sabbia imponente e stabile sta tutto nell’usare pochissima acqua per
inumidire la sabbia e nel fare un’attenta valutazione delle proporzioni delle
strutture. I risultati della ricerca sono chiari: secondo gli scienziati, i castelli di
sabbia più stabili hanno un contenuto d’acqua che non supera l’uno per cento
in volume (l’avreste mai detto? In genere, quando si costruiscono castelli al
mare, siamo sempre alla frenetica ricerca di secchielli da riempire d’acqua per
bagnare la sabbia sotto l’ombrellone!).
La sabbia asciutta infatti non è in grado di sostenere il proprio peso, ma
anche la presenza di una quantità eccessiva di acqua finisce per destabilizzare
il materiale, che così frana. Studiata a livello microscopico, si scopre che la
rigidità della sabbia bagnata con cui si costruisce un castello di sabbia è il
risultato della formazione di ponti capillari di liquido, che “oscillano” fra i
granelli: in pratica, è la pressione capillare (la stessa che si manifesta nelle
piante e nei nostri vasi capillari, alla cui origine si trovano la tensione
superficiale, la coesione fra le molecole di acqua e l’adesione fra queste e le
pareti dei vasi) a creare una forza di attrazione tra i granelli sufficiente alla
creazione di strutture complesse. Aumentando la quantità d’acqua, questi
“ponti liquidi” vengono distrutti, condannando la struttura al collasso.
È dunque la forza dell’acqua a tenere insieme un materiale incoerente come
la sabbia. Il fatto che si costruisca solo con sabbia bagnata non è quindi
casuale, ma dipende proprio dalla presenza o meno di umidità. Come già
accennato, è la forza di coesione fra le molecole di acqua a rendere possibile
47
la creazione di strutture che, in alcuni casi, possono raggiungere una certa
complessità. D’altra parte, i materiali possono essere classificati come solidi o
liquidi a seconda dell’intensità delle forze di coesione con cui le molecole si
tengono una vicina all’altra. Nel caso della sabbia, che è costituita
principalmente di silicio, ciascun granello avrà una coesione interna molto
alta, dovuta al fatto che la struttura cristallina che lo compone è stabile e
mantiene rigidamente a contatto tra loro atomi e molecole, mentre in pratica è
totalmente assente fra granello e granello, tanto che la sabbia asciutta si
comporta sostanzialmente come se fosse un liquido, con tutti i granelli che
scivolano gli uni sugli altri senza avere alcuna posizione fissa. Solo in
presenza di un certo grado di umidità si crea una forza di coesione che rende
la sabbia un materiale perfetto per l’edilizia reale… e per quella da spiaggia.
Tuttavia la stabilità di una struttura di sabbia non dipende solo dalla quantità
d’acqua che contiene, ma anche dalla deformazione elastica della colonna di
sabbia legata al proprio peso, correlata al rapporto fra le dimensioni della base
e l’altezza della struttura stessa. Tenendo conto di tutti questi fattori, è stato
possibile sviluppare un modello, abbastanza semplificato, ma che riesce a
spiegare gli incredibili risultati ottenuti dai costruttori di castelli (con torri,
archi, ponti e passaggi segreti) e di sculture di sabbia durante le numerose
gare internazionali, alcune delle quali si svolgono anche in Italia (celebre è il
Festival internazionale delle sculture di sabbia che, dal 1998, si svolge in estate
al Lido di Jesolo, in provincia di Venezia).
Il modello indica anche una sorta di “trucco” che si può impiegare per
costruire un castello di sabbia più stabile e più alto: è sufficiente diminuire la
densità effettiva della sabbia immergendo la struttura sott’acqua. In questo
modo i ponti liquidi non esisteranno più, ma la loro funzione verrà svolta da
analoghi ponti d’aria che si formeranno sott’acqua, in particolare se si usa
sabbia idrofobica, o idrorepellente, che si trova anche in commercio per
impieghi in edilizia e nel giardinaggio (esistono anche delle versioni da gioco
per bambini).
Quando la sabbia segna il tempo
Un altro gruppo di ricercatori si è dedicato invece allo studio del
comportamento dei granelli di sabbia in una clessidra, partendo
dall’osservazione che nella parte superiore sono sostanzialmente immobili e
simili a un solido, mentre avvicinandosi al collo dell’imbuto diventano
sempre più mobili e quindi più simili a un liquido. Una volta raggiunto il
fondo dell’ampolla schizzano però in ogni direzione, scontrandosi tra loro
48
come fanno le molecole di gas. Volendo descrivere queste variazioni di
comportamento con alcuni modelli matematici, ci si scontra con la
complessità del sistema che, in linea di principio, deve essere analizzato
granello per granello. In pratica, il comportamento collettivo della sabbia
andrebbe dedotto applicando le leggi della fisica a ciascun granello, ricavando
così per ciascuno di essi la traiettoria di moto. Componendo infine tutti questi
moti si otterrebbe il moto collettivo della sabbia.
Il problema è che, impostato così, il sistema è troppo complesso anche per i
supercomputer e quindi inutilizzabile. Per semplificarlo e ottenere dei risultati
almeno approssimati, si può affrontare il problema studiando i granelli non
individualmente, ma dividendo il campione di sabbia in “blocchetti”, ovvero
in volumi di piccole dimensioni rispetto al volume complessivo, ma
comunque in grado di contenere un’elevata quantità di granelli, i quali, in
questa semplificazione, condividono tutti la stessa sorte (questa è una tecnica
di sviluppo di modelli semplificati molto impiegata dai fisici, perché permette
di realizzare delle elaborazioni al computer e valutare così, seppure in maniera
non precisa, la bontà o meno di alcune supposizioni).
Tenendo conto delle dimensioni dei singoli granelli e della loro motilità,
ovvero della loro capacità di movimento, i ricercatori sono riusciti, nonostante
il modello fosse semplificato, a ottenere comunque la descrizione della
“cascata di sabbia” a un livello mai ottenuto prima, tanto da poter essere
applicata allo studio delle frane che si staccano dai pendii fino ai moti di
caduta di cereali o composti chimici lungo le linee di produzione delle aziende
alimentari o farmaceutiche. A dispetto delle apparenze, quindi, questi studi
non sono squisitamente teorici o inutili dal punto di vista pratico; tutt’altro:
trovano invece una discreta quantità di applicazioni, che vanno dal
trattamento industriale delle granaglie alla progettazione delle sonde destinate
ad atterrare sulle superfici sabbiose di altri mondi, come la Luna e Marte.
Altre applicazioni, infine, si possono avere nel campo dell’ingegneria civile e
della meccanica del suolo.
È curioso notare che il numero di studi quantitativi sulle proprietà
meccaniche della sabbia, e della sabbia bagnata in particolare, è relativamente
basso, sebbene esistano stime secondo cui la movimentazione e il flusso di
materiali granulari come le sabbie sia responsabile di circa il 10 per cento del
consumo mondiale di energia nel mondo. Tanto che il gruppo di ricercatori
che ha studiato la “ricetta” per i castelli di sabbia ha sostenuto che l’unica
stima reperibile in letteratura indica che la stabilità... raggiunga il massimo per
un castello di sabbia di circa 20 cm di altezza. In forte disaccordo con
49
l’osservazione di castelli di sabbia di diversi metri di altezza. C’è quindi
ancora molto lavoro di ricerca da fare, sia teorico che pratico. Pensateci, la
prossima volta che vi troverete in ginocchio sulla spiaggia a improvvisarvi
ingegneri edili!
50
LA FISICA AVVENTUROSA DELLE SABBIE MOBILI
Da Tarzan a Indiana Jones, il numero di film di avventura in cui alcuni
personaggi si trovano a che fare con la trappola delle sabbie mobili è enorme.
L’espediente è ormai abusato, ma ha pur sempre il suo fascino e garantisce un
alto livello di drammaticità. In genere il nostro protagonista si trova a sua
insaputa a camminare sopra una piccola ma terribilmente insidiosa superficie
di sabbie mobili e inizia a sprofondare lentamente nella sabbia – molto più
simile a un liquido che a un solido – senza che questa sia in grado di
sostenerne il peso. Fortunatamente la scena si risolve nella maggior parte dei
casi con l’arrivo di qualcuno o di qualcosa (un ramo pendente di un albero,
l’estremità di una liana) a cui aggrapparsi per tirarsi fuori dall’impaccio.
Altrimenti la fine sarebbe stata inesorabile… Ma siamo sicuri che le sabbie
mobili siano così minacciose come vengono descritte nei film?
Ora che siamo esperti di galleggiamento (ricordando quanto avete letto in
questo capitolo e in quello precedente, quando abbiamo menzionato il
principio di Archimede), potremmo domandarci se è davvero possibile che si
affondi completamente. Già, perché considerato il nostro peso specifico, è
molto più probabile che, nel caso in cui ci si trovi ad affrontare le sabbie
mobili, si affondi solamente per metà. La sabbia pesa infatti più dell’acqua e
anche del nostro corpo, che pesa ancora meno dell’acqua (motivo per cui
galleggiamo, ricordate?), ragione per cui dovrebbe essere più facile galleggiare
e nuotare sulle sabbie mobili che nelle acque di un lago o di uno stagno. Del
resto è anche raro che le sabbie mobili siano molto profonde, quindi il rischio
che una persona sprofondi completamente e vi anneghi è davvero limitato.
Però è anche vero che le sabbie mobili possono costituire un pericolo
mortale, perché è difficile (se non impossibile) uscirne da soli, non offrendo
queste alcun punto di appoggio interno e, soprattutto, richiedendo forze di
grande intensità per estrarre un corpo intrappolato nella loro melma. La morte
di un individuo, se, come abbiamo appena visto, non sopraggiunge
direttamente per annegamento, può però arrivare indirettamente, in assenza di
soccorsi, per disidratazione, per fame, o, in caso di sabbie mobili marine, per
il ritorno dell’alta marea.
Che cosa sono realmente le sabbie mobili? Sono costituite da una certa
quantità di sabbia piuttosto fine più o meno satura di acqua, avendo quindi
una debole – se non nulla – capacità di sostenere pesi. In genere si trovano in
cavità situate alle bocche di grandi fiumi i cui letti d’acqua sono parzialmente
51
riempiti di sabbia e poggiano sopra uno strato di argilla che ne impedisce il
drenaggio. Le sabbie mobili sono meno “esotiche” di quanto crediamo: per
esempio, è possibile trovarle perfino in una località turistica e affollata come il
famosissimo Mont Saint-Michel in Normandia!
Per i fisici, le sabbie mobili sono semplicemente uno dei tanti gel
idrocolloidali esistenti in natura. Un colloide (o sistema colloidale) è infatti
una particolare miscela in cui una sostanza si trova in uno stato finemente
disperso, intermedio tra la soluzione omogenea e la dispersione eterogenea.
Questo stato consiste quindi di due fasi: una fase costituita da una sostanza di
dimensioni microscopiche (la sabbia, nel caso in esame) e una fase continua
disperdente (l’acqua). A differenza delle soluzioni, che sono sistemi omogenei
di molecole di soluto e molecole di solvente, i sistemi colloidali sono sistemi
eterogenei, tipicamente torbidi e dal comportamento irregolare.
Al di là della complessità del nome, noi abbiamo a che fare ogni giorno con
sostanze colloidali come il latte, il burro e la maionese (fase dispersa e
disperdente entrambe liquide; in questo caso si parla di emulsioni), la panna
montata e la schiuma da barba (fase dispersa gas, fase disperdente liquido; in
questo caso si parla di schiume), la nebbia (fase dispersa liquida, fase
disperdente gas; si tratta quindi di un aerosol liquido) e il fumo (fase dispersa
solida, fase disperdente gas; si tratta quindi di un aerosol solido). Gli esempi
sono sufficienti per capire l’importanza dei sistemi colloidali nelle nostre vite,
vero?
52
REOLOGIA, TISSOTROPIA, REOPESSIA
Il termine reologia (che deriva dal verbo greco reo, “scorrere”) descrive la
scienza che studia il flusso e la deformazione dei corpi. Secondo la reologia
tutti i corpi reali possiedono proprietà che sono intermedie tra due
comportamenti ideali estremi, da una parte quello del solido perfettamente
elastico e dall’altra quello del fluido perfettamente viscoso. Le sabbie mobili
possono quindi essere studiate anche dal punto di vista reologico. In
particolare, questo fenomeno rientra in quello più generale dei comportamenti
tissotropici, che si osservano nelle sostanze la cui viscosità varia in funzione
dei tipi e delle intensità delle forze a cui è sottoposta. Nonostante il termine sia
sconosciuto ai più, la tissotropia (o tixotropia, dal greco thikis, che è l’atto di
toccare, e tropia, che significa “trasformazione”) è un fenomeno abbastanza
comune e molto rilevante per un gran numero di prodotti industriali, come
alcune sostanze alimentari, plastiche, vernici, farmaci e altri ancora. In
particolare si parla di tissotropia quando si ha a che fare con i cosiddetti fluidi
non newtoniani (vedi Fluidi non newtoniani), che sono miscele di sostanze la
cui fluidità dipende in modo non lineare dalle forze di taglio ad esse applicate.
Uno dei fluidi tissotropici più familiari è il ketchup. È esperienza comune
che, scuotendo un flacone di questa sostanza, questa diventi più liquida dopo
essere stata agitata. Un fenomeno simile si può inoltre notare nello yogurt,
dove si osserva una variazione della viscosità in seguito al mescolamento con
un cucchiaino.
Il comportamento tissotropico è tipicamente reversibile, perché se il sistema
viene lasciato in stato di quiete per un tempo sufficiente, ritorna alla sua
condizione a riposo. La reversibilità del comportamento tissotropico discende
naturalmente dalla reversibilità dei processi di distruzione e ricostruzione della
struttura del materiale, provocati da sollecitazioni meccaniche come il
mescolamento e il successivo riposo. Mentre le sostanze tissotropiche
diventano reversibilmente più fluide con l’aumentare del tempo di flusso, il
fenomeno inverso alla tissotropia – se analizziamo il comportamento dei fluidi
dal punto di vista temporale – prende il nome di reopessia: le sostanze
reopessiche tendono invece a diventare, sempre in modo reversibile, meno
fluide all’aumentare del tempo di flusso. In pratica, un sistema è tissotropico o
reopessico quando la sua viscosità varia con il tempo. In particolare, i liquidi
reopessici aumentano la propria viscosità (ovvero diventano meno fluidi) se
sottoposti a forze di taglio, opponendosi alla deformazione.
53
È proprio la reopessia alla base del curioso comportamento delle sabbie
mobili. Come abbiamo appena visto, queste sono costituite da una miscela di
acqua e sabbia, tanto satura di acqua da assumere caratteristiche proprie di un
fluido non newtoniano. Così, se il malcapitato che vi finisce dentro, inizia ad
agitarsi per liberarsi (lo si fa istintivamente, purtroppo), le forze di taglio
associate a questa azione provocano un aumento di viscosità delle masse
sabbiose appena smosse, generando così un effetto di risucchio che lo fa
affondare sempre più velocemente. Volete dunque sopravvivere alle sabbie
mobili: il segreto sta nel mantenere il sangue freddo e muoversi lentamente,
fino a raggiungere un livello di galleggiamento sicuro… Oppure fate come
Tarzan nella pellicola Tarzan il magnifico del 1960, dove il celebre uomoscimmia, interpretato dall’attore Gordon Scott (1926-2007; Scott intepretò il
personaggio di Tarzan in ben sei film, dal 1955 al 1960, diventando anche il
primo Tarzan a colori sullo schermo in Tarzan e il safari perduto del 1957),
riesce a salvare se stesso e un altro uomo da morte sicura, aggrappandosi alle
piante ai bordi delle sabbie mobili e tirando su con forza. Ma per fare
un’operazione del genere occorre sicuramente una forza fuori dal comune,
come appunto quella del personaggio nato dalla fantasia dello scrittore
statunitense Edgar Rice Burroughs (1875-1950). Quindi è certamente meglio
evitare l’esperienza!
VISCOSITÀ: SOLIDI AMORFI E FLUIDI NON-NEWTONIANI
La viscosità è una caratteristica fisica fondamentale dei fluidi. Più un fluido è viscoso, maggiore è la
pressione a cui deve essere sottoposto per farlo scorrere in una tubatura, per esempio. È intuitivo
comprendere come sarebbe assai più difficile la vita se l’acqua avesse la viscosità del burro di arachidi,
della mostarda o del miele, anche di quello più liquido.
Se a un fluido applichiamo uno sforzo di taglio, ovvero una forza parallela alla superficie del fluido, gli
strati superiori iniziano a muoversi con una velocità maggiore di quelli via via inferiori. A definire la
relazione fra la forza applicata e il gradiente del flusso di scorrimento – ovvero la variazione di velocità
del fluido con la quota – è appunto la viscosità. In particolare, a parità di sforzo di taglio applicato,
maggiore è la viscosità di un fluido, minore è il gradiente del flusso. Viceversa, minore è la viscosità del
fluido in esame, maggiore è il gradiente del flusso.
Solidi amorfi
Alcuni studiosi ritengono che la distinzione fra liquidi e solidi sia essenzialmente legata ai valori di
viscosità. In pratica, possiamo parlare di sostanza solida quando questa ha una viscosità pari a un
milione di miliardi di volte quella dell’acqua. Ma ci sono solidi che in effetti hanno viscosità inferiori a
questo valore: i solidi amorfi. I solidi amorfi sono quei solidi che non hanno forma propria né struttura
cristallina, ovvero che a livello microscopico non rivelano un reticolo ordinato (cristallo), ma mostrano
una totale assenza di periodicità spaziale, esattamente come accade in un liquido. I solidi a struttura
amorfa sono definiti sostanze vetrose o, più semplicemente, vetri.
C’è anche chi ha provato a misurare la viscosità di un solido amorfo. Fu Thomas Parnell, professore di
fisica all’Università del Queensland, a Brisbane, in Australia, ad avviare, nel 1927, un esperimento con
cui voleva mostrare ai propri studenti come certe sostanze, benché in apparenza solide, siano in realtà
fluidi ad alta viscosità. Il compito? Osservare la lenta percolazione di un campione di pece – tipico
54
esempio di solido amorfo – attraverso un imbuto. Ma non da subito. La bocca inferiore venne infatti
aperta nel 1930, tre anni dopo aver versato la pece. Ebbene, dal 1927 a oggi sono cadute solo otto
gocce, l’ultima delle quali nel 2000!
L’esperimento, condotto in condizioni non controllate e quindi impossibile da replicare, ha comunque
permesso agli sperimentatori di ottenere tre risultati: 1) di stimare che la viscosità della pece è circa 100
miliardi di volte quella dell’acqua; 2) di entrare nel Guinness Book of Records per l’esperimento continuo
di maggior durata del mondo; 3) di vincere nel 2005 il premio Ig Nobel, promosso dalla rivista scientifica
satirica Annals of Improbable Research!
Fluidi non newtoniani
Acqua e miele vengono definiti fluidi newtoniani perché la loro viscosità non varia con la velocità con cui
viene misurata. In altre parole, in un fluido newtoniano la viscosità dipende per definizione solo dalla
temperatura e dalla pressione (e dalla composizione chimica del fluido, se esso non è una sostanza
pura), ma non dalla forza applicata.
In natura però esistono anche fluidi non newtoniani, in cui la cui viscosità varia a seconda dell’intensità
dello sforzo di taglio che viene applicato. Conseguenza di ciò è che i fluidi non newtoniani possono non
avere una viscosità ben definita, o meglio, comportarsi da fluidi poco viscosi in alcune circostanze e da
fluidi molto viscosi – con tempi di risposta alle deformazioni anche molto lunghi – in altre. Naturalmente,
per questo tipo di fluidi non è possibile usare la viscosità per caratterizzarli dal punto di vista delle
proprietà fisiche e descriverne il comportamento meccanico.
Un esempio di fluido non newtoniano può essere facilmente realizzato miscelando acqua e amido di
mais. Con un fluido di questo tipo è possibile e immediato verificare che, applicando forze deboli, come
il lento inserimento di un cucchiaio nel fluido, questo si manterrà nel suo stato liquido. D’altra parte,
però, l’applicazione di una forza impulsiva – per esempio capovolgendo rapidamente il contenitore in cui
è posto – induce il fluido a comportarsi come un solido più che come un liquido.
55
III
Che tempo che fa
... ovvero la fisica che crea un’atmosfera
Nel bene e nel male, la nostra vita è sicuramente segnata dal tempo
meteorologico. Molte persone fanno dipendere addirittura il loro umore dal
fatto che fuori piova o ci sia il sole. Ma anche in casi non così estremi, è certo
che ognuno di noi, anche di sfuggita, controlla fuori dalla finestra se sarà il
caso di prendere l’ombrello prima di uscire o se invece sarà bene portare con
sé gli occhiali da sole.
Tutti i giornali riportano le previsioni del tempo, esistono canali televisivi
dedicati solo ed esclusivamente a queste, per non parlare dell’incredibile
quantità di siti web che diffondono informazioni meteorologiche relative a
tutti gli angoli del Pianeta, così che è diventato semplicissimo scoprire se in
questo preciso istante a Rio de Janeiro è bel tempo o è nuvolo (se vi interessa
saperlo, nel momento in cui stiamo scrivendo queste righe a Rio sta piovendo,
ma la temperatura è di oltre 29 °C: insomma, la tipica accoppiata terribile
caldo-umido).
Neve, grandine, pioggia… inquinamento: tutto questo (e molto di più)
accade perché sopra le nostre teste si trova l’atmosfera, un’enorme massa
d’aria che, fra le altre cose, ci permette di respirare e quindi vivere su questo
pianeta. Che dite, vogliamo capire qualcosa delle leggi fisiche che regolano il
comportamento dell’atmosfera?
56
IL METEO NELL’ANTICHITÀ: INDOVINI, DIVINITÀ, FILOSOFI E POETI
Fin dalla preistoria, l’uomo si è sempre preoccupato del tempo
meteorologico e, più in generale, del clima. L’andamento di una battuta di
caccia e le probabilità di riuscire a catturare qualche preda dipendevano molto
dalle condizioni meteorologiche. Ma anche l’esito di un raccolto era
fortemente influenzato dal tempo, dall’intensità e dalla durata di una stagione
di piogge o dal persistere della siccità. L’uomo primitivo, con i suoi mezzi
limitati, avrà ipotizzato delle regolarità nei cambiamenti del tempo, ma queste
si sono sicuramente limitate all’osservazione dei mutamenti stagionali,
associati allo studio dei fenomeni celesti come il moto del Sole e della Luna,
con la scoperta che alcune piante e certe specie animali abbondavano solo in
determinati periodi, che vi era alternanza tra caldo e freddo, pioggia e siccità,
aria calma e vento.
Previsioni più puntuali e precise non erano date, tanto che, fino a tempi
piuttosto recenti, molte civiltà si sono affidate a maghi e stregoni capaci di
determinare l’andamento climatico o il tempo meteorologico sulla base di
fenomeni come il comportamento degli animali e, in particolare, il volo degli
uccelli. Fino alla seconda metà dell’Ottocento erano in molti, fra i contadini, a
controllare polli e anatre, ma anche passeri, fringuelli, cornacchie e altri
volatili della campagna, per sapere come sarebbe stato il tempo il giorno
successivo, convinti che gli uccelli fossero degli ottimi previsori del tempo.
Cantate da Virgilio, Brunetto Latini, Giovanni Pascoli e molti altri poeti
nostrani, le gesta dei volatili previsori hanno accompagnato i nostri antenati
nelle loro attività quotidiane, fornendo loro importanti indicazioni su come
regolarle. Il continuo canto dei passeri e il gracidio della cornacchia
preannunciano pioggia. Non sottovalutate il lamento dello scricciolo che
avverte di una tempesta imminente. Se i galli cantano anche a notte fonda il
mattino sarà nebbioso. Se la folaga abbandona le acque per raggiungere la
terraferma significa che sta per alzarsi un forte vento. E ancora, se nella
palude le anatre sono agitate e non si lasciano avvicinare significa che il
tempo sta per mutare. E via così, di tradizione in tradizione.
Per quanto non scientificamente fondate, tutte queste affermazioni si
basavano su una conoscenza diffusa e condivisa, verificata giorno per giorno,
che trovava conforto nella lettura di “classici” come Virgilio che la
tramandavano. Dopo tutto, non è difficile immaginare che quando sta per
piovere o c’è una tempesta in arrivo gli animali si cibino il più in fretta
57
possibile, restando vicini ai loro ricoveri.
Per tutte le civiltà, il tempo meteorologico, con la sua caratteristica
imprevedibilità che non lo rendeva “razionalizzabile”, ha ispirato divinità di
vario genere, ognuna dedicata a specifici fenomeni. In Grecia – e poi a Roma
– svariate divinità dell’Olimpo avevano l’ingrato compito di tartassare noi
umani con fulmini, piogge e alluvioni (Zeus, poi diventato Giove Pluvio per i
Romani), venti e uragani (Eolo, i cui figli erano proprio i venti da
controllare), tempeste e bufere marine (Poseidone, il Nettuno dei Romani).
Ma in Grecia si sentı̀ anche per la prima volta l’esigenza di organizzare tutte le
conoscenze che si erano tramandate nella tradizione orale. Il primo che
accolse questa sfida fu proprio il grande filosofo Aristotele di Stagira (384
a.C.-322 a.C.) che, nella sua opera Meteorologica, del 340 a.C., raccoglie tutto
il sapere sull’argomento risalente alle epoche precedenti, aggiungendovi il suo
importante contributo. La sua è la prima compilazione sistematica sui
fenomeni atmosferici, anche se è, com’è ovvio, molto lontana – per contenuti
e metodi – dai moderni trattati di meteorologia.
58
ARIA, ARIA, PER FAVORE, QUI NON SI RESPIRA!
Alla base di tutta la “scienza” di Aristotele vi era la celebre teoria dei quattro
elementi (terra, acqua, aria, fuoco) che costituivano il mondo sublunare, al di
sopra del quale si trovava l’etere incorruttibile ed eterno. Non è difficile, per i
fisici contemporanei, associare i quattro elementi aristotelici agli stati della
materia, ovvero i modi in cui questa si presenta in natura. Se la Terra è
associabile allo stato solido, l’acqua a quello liquido e l’aria a quello
aeriforme, il fuoco è infatti assimilabile a un quarto stato della materia,
chiamato plasma, corrispondente a quello di un gas parzialmente o
completamente ionizzato, ovvero costituito da un insieme di elettroni e ioni,
ma elettricamente neutro, la cui carica elettrica totale sia pertanto nulla. Come
vedremo più avanti nel capitolo dedicato alla fisica aliena, la materia è allo
stato di plasma quando si trova ad altissime temperature, come quelle
presenti, per esempio, all’interno delle stelle.
Qui, dovendo parlare della nostra cara atmosfera e dei fenomeni a essa
associati, ci limiteremo a trattare – almeno per il momento – il solo stato
aeriforme, noto più comunemente, ma meno correttamente (come vedremo),
come stato gassoso.
Lo stato aeriforme – caratteristico di gas e vapori – ha molte proprietà in
comune con lo stato liquido. Tuttavia gli aeriformi, a differenza dei liquidi,
non solo assumono la forma del recipiente che li contiene, ma tendono anche
a riempirlo, occupando tutto lo spazio disponibile: pertanto ai gas non si
applica il concetto di superficie libera. Soltanto quando la quantità di gas o di
vapore è molto grande, come nel caso dell’atmosfera della Terra o di una
stella, la forma dell’aeriforme è determinata dalla gravitazione. Aeriformi e
liquidi sono così simili che in realtà sono collettivamente chiamati fluidi. Un
fluido è quindi, per definizione, un sottoinsieme dei possibili stati della
materia che include liquidi, aeriformi (gas e vapori) e plasmi. (Curiosamente,
con questa definizione, gli stati della materia possono essere ridotti a due: lo
stato solido e quello fluido!).
Caratteristica dei fluidi è che le particelle che li compongono non hanno
posizione reciproca fissa al loro interno, come invece accade nei solidi. Altra
differenza fondamentale fra fluidi e solidi è la proprietà dei primi di non
resistere a nessun tipo di deformazione, e in particolare agli sforzi di taglio,
caratteristica invece tipica dei secondi. Se approfondiamo la questione al
microscopio, scopriamo che la differenza fra liquido e aeriforme è data dalla
59
presenza o meno di forze di coesione: mentre in un liquido le molecole sono
molto vicine fra loro e sono quindi soggette alle forze esercitate dalle
molecole circostanti (forze intermolecolari, o, nel caso di atomi,
interatomiche), in un gas o in un vapore le distanze fra le singole particelle
che lo compongono sono molto grandi rispetto alle dimensioni delle particelle
stesse, che quindi si muovono liberamente all’interno del contenitore,
rimbalzando sulle pareti.
Fin qui abbiamo parlato genericamente di aeriformi, includendo sia gas sia
vapori, senza però specificare quale sia la differenza fra gas e vapore, cui
abbiamo accennato. Per farlo occorre introdurre il concetto di temperatura
critica in relazione ai cambiamenti di stato della materia. In particolare,
quando si tratta di transizioni fra stati fluidi, i fisici definiscono temperatura
critica quella temperatura al di sopra della quale una determinata sostanza non
può più esistere allo stato liquido, nemmeno nel caso in cui sia sottoposta a
compressione. La temperatura critica è pertanto una caratteristica fisica
specifica della materia, e varia da sostanza a sostanza.
Sembra difficile, ma non lo è. Per capire meglio, facciamo un esempio. Se,
per comodità, prendiamo come valore di confronto la temperatura ambiente
(che per i fisici è fissata convenzionalmente a 25 °C), allora si può affermare
che un aeriforme si trova allo stato di vapore se la sua temperatura critica è
superiore alla temperatura ambiente, mentre si trova allo stato di gas se la sua
temperatura critica è inferiore alla temperatura ambiente. Così, a temperatura
ambiente, l’acqua allo stato aeriforme è un vapore, perché la sua temperatura
critica è oltre 100 °C, mentre l’ossigeno è un gas, perché la sua temperatura
critica è quasi a 120 °C sotto zero. Questo significa che, a 25 °C, il vapore
acqueo, se sottoposto a un’opportuna compressione, subisce una transizione
di fase e si trasforma in acqua allo stato liquido, mentre l’ossigeno resta
comunque allo stato gassoso, anche se sottoposto a compressioni molto forti.
Questo implica che non è possibile liquefare l’ossigeno per compressione
senza prima aver portato l’ossigeno stesso a una temperatura inferiore alla sua
temperatura critica. Possiamo perciò definire i gas come aeriformi non
condensabili a temperatura ambiente (lo stato fluido e lo stato solido sono
invece noti come stati condensati della materia).
60
MA CHE ARIA RESPIRIAMO?
Bene, ma l’aria da che cosa è composta? Sapendo che è grazie a questa che
noi respiriamo, potremmo pensare che l’aria sia per lo più composta da
ossigeno; ma ci sbagliamo, perché il gas principale componente dell’atmosfera
terrestre è l’azoto. L’atmosfera è infatti composta non da un’unica sostanza
chimica, ma da una miscela di gas, i cui principali componenti sono appunto
l’azoto, l’ossigeno e l’argon (un gas nobile), che da soli rappresentano oltre il
99 per cento del volume dell’intera atmosfera.
In realtà la concentrazione dei gas dell’atmosfera non è uguale a tutte le
altezze e, se nella parte bassa può essere considerata costante, almeno per
quanto riguarda i componenti principali, nella parte alta varia piuttosto
rapidamente a seconda del tipo di gas preso in esame, con quelli più pesanti
che stanno tendenzialmente più in basso di quelli leggeri (a causa della forza
di gravità, naturalmente). Per esempio, il vapore acqueo è presente quasi
soltanto nella troposfera, che è lo strato più basso dell’atmosfera, compreso
fra il suolo e 10 km circa di altezza, mentre è praticamente assente negi strati
più esterni, che viceversa contengono quasi tutto l’elio e l’idrogeno, ovvero
gli elementi più leggeri in assoluto.
È anche interessante calcolare quanto tempo occorre in media perché
nell’atmosfera vi sia un ricambio totale dei gas. Scopriamo così che i gas
nobili – quelli inerti, come l’argon, che non reagiscono con gli altri elementi –
possono restare in atmosfera anche milioni di anni, mentre quelli cosiddetti
semipermanenti, come il temibile monossido di carbonio (molecola composta
da un atomo di carbonio legato a un atomo di ossigeno), hanno un “tempo di
residenza” – è la definizione tecnica del tempo medio di vita in atmosfera di
un gas – che varia fra mesi e anni. Tutt’altra sorte spetta invece ai gas
cosiddetti variabili, come quelli chimicamente attivi o legati al ciclo
dell’acqua, il cui tempo di residenza è valutabile in alcuni giorni.
Gli elementi principali
Dicevamo che l’azoto è il gas più diffuso nell’atmosfera terrestre. In effetti
l’aria è composta per il 78 per cento da questo gas, che viene liberato da
piante, foglie e sostanze animali in decomposizione – svolgendo un ruolo
determinante nel ciclo biologico degli essere viventi e delle piante in
particolare –, oltre che emanato da rocce e in grandi quantità dalle (eventuali,
ma frequenti) eruzioni vulcaniche che si verificano sulla superficie terrestre.
61
Occorre però fare attenzione. Quando si parla di azoto in atmosfera, non si
parla dell’atomo di azoto, ma della molecola di azoto, composta da due atomi
di azoto saldamente legati fra loro. La molecola di azoto, in virtù di questo
legame molto forte fra i due atomi, è molto stabile e reagisce difficilmente con
gli altri elementi chimici. È il motivo per cui l’azoto si è accumulato in
atmosfera nel corso di milioni di anni. Dal punto di vista organolettico, l’azoto
molecolare è un gas totalmente incolore, inodore, insapore e inerte: ecco
perché non ci accorgiamo della sua esistenza!
L’origine del termine “azoto” rivela molta della considerazione che i chimici
avevano di questo elemento, nonostante sia uno dei costituenti fondamentali
delle molecole organiche più importanti dal punto di vista biochimico (DNA,
proteine, alcune vitamine), oltre che di composti inorganici molto diffusi e
importanti come l’ammoniaca e l’acido nitrico. Ad assegnargli questo nome fu
il celebre scienziato francese Antoine-Laurent de Lavoisier (1743-1794), da
molti considerato il padre della chimica moderna. Lavoisier fu il primo a
riconoscere che l’aria è una miscela di un gas attivo, che cioè mantiene la
combustione e la respirazione (l’ossigeno), e di un gas inattivo (l’azoto,
appunto). Per questo egli attribuì all’elemento il nome azotè, che significa
“privo di vita”, costruito sulla composizione del termine greco zoè (vita)
preceduto dall’alfa privativo: l’azoto rappresenta infatti il componente
dell’aria non necessario alla respirazione degli esseri viventi.
Tuttavia, chi studia scienze sa che il simbolo chimico dell’elemento azoto è
la lettera N. Perché mai, vi domanderete? Ebbene, la risposta sta nel fatto che,
parallelamente alla proposta di Lavoisier, emerse quella del chimico francese
Jean-Antoine Chaptal (1756-1832). Egli coniò infatti la parola nitrogène,
combinando il termine greco nitron, usato per definire il composto chimico
noto oggi come nitrato di potassio, al suffisso greco -gen, che significa “dare
vita a”, proprio perché l’azoto era uno degli elementi necessari per produrre
quel composto, a sua volta necessario alla produzione dell’acido nitrico
(quest’ultimo noto con il nome comune di “acqua forte”). Così, dalla parola
nitrogène, ci siamo trovati il simbolo chimico N per l’azoto e il termine
inglese nitrogen per definire l’elemento, mentre noi italiani abbiamo
conservato l’espressione originale di Lavoisier.
Torniamo ora alla nostra atmosfera e alla sua composizione, che vede
comparire l’ossigeno come secondo elemento più abbondante, costituendone
il 21 per cento del volume totale. A parte il suo importante contributo
all’atmosfera, l’ossigeno – il cui simbolo chimico è O – è anche l’elemento
più abbondante della crosta terrestre, di cui rappresenta quasi il 50 per cento
62
sotto forma di rocce e minerali, oltre che degli oceani, costituendone oltre l’85
per cento in massa (come componente dell’acqua, la cui molecola è appunto
costituita da due atomi di idrogeno e uno di ossigeno, che è circa 16 volte più
pesante dell’idrogeno).
Come nel caso dell’azoto, quando si parla di ossigeno atmosferico, non si
parla dell’ossigeno atomico, ma della sua versione molecolare più diffusa,
composta da due atomi di ossigeno. Nonostante la molecola di ossigeno
rientri in moltissimi processi naturali, come la fotosintesi e la respirazione, la
sua quantità in atmosfera resta sostanzialmente costante nel tempo, proprio
grazie al contributo continuo del processo fotosintetico, grazie al quale le
piante producono ossigeno e zuccheri partendo da acqua e anidride carbonica
(con l’importante e imprescindibile contributo della luce visibile del Sole!).
Azoto e ossigeno molecolari arrivano a comporre il 99 per cento
dell’atmosfera. Potrebbe sembrare che il rimanente un per cento sia
ininfluente, ma le ricerche dimostrano piuttosto il contrario, ovvero che da
quell’un per cento dipende molto del bilancio energetico del nostro pianeta
con lo spazio esterno! Se infatti l’argon, che costituisce lo 0,92 per cento del
volume dell’atmosfera, è un gas nobile e inerte (viene prodotto costantemente
dal decadimento di un isotopo radioattivo del potassio, presente in natura),
nella rimanente frazione percentuale troviamo anche il vapore acqueo che,
come è facile intuire, è alla base di gran parte dei fenomeni meteorologici e,
ovviamente, di tutti quelli connessi al ciclo dell’acqua (nubi, pioggia, neve,
grandine). Prodotto dall’evaporazione di oceani, mari, laghi, nonché dalla
traspirazione delle piante, viene trasferito in atmosfera e costantemente
rimescolato in maniera turbolenta. È importante notare che il vapore acqueo è
presente quasi esclusivamente nella troposfera, con concentrazioni bassissime
rilevate nella stratosfera, che è lo strato atmosferico appena superiore,
compreso fra 10 km e 50 km di altezza dal suolo. (Gli spessori indicati sono
valori medi, in quanto l’atmosfera, come già l’intero Pianeta, subisce lo
schiacciamento ai poli causato dalla forza centrifuga: per questo motivo lo
spessore ai poli dell’atmosfera è molto minore di quello rilevato
all’equatore!).
E tutto il resto?
Con azoto, ossigeno, argon e vapore acqueo abbiamo praticamente esaurito
la composizione dell’atmosfera. Sappiamo però che questi quattro
componenti, pur rappresentando quasi il 100 per cento dell’aria che
respiriamo, sono mescolati ad altri, alcuni dei quali anche molto noti, come
63
l’anidride carbonica (o biossido di carbonio, composto da due atomi di
ossigeno legati a un atomo di carbonio).
In generale, questi composti, noti come elementi minoritari dell’atmosfera,
hanno una concentrazione piuttosto variabile, in dipendenza di diversi fattori,
fra i quali troviamo la radiazione solare (capace di innescare o catalizzare certe
reazioni chimiche, come la fotosintesi), la respirazione degli esseri viventi,
infine l’attività antropica, cui negli ultimi decenni si deve una parte notevole
dei cambiamenti nella composizione chimica dell’atmosfera. Tra gli elementi
minoritari troviamo infatti vari composti dell’azoto, gli aerosol e, soprattutto, i
celebri gas serra, tutti componenti che l’uomo ha notevolmente contribuito a
diffondere nell’atmosfera.
I composti dell’azoto, fra cui troviamo i vari ossidi di azoto (come il
monossido e il biossido), hanno come sorgente primaria proprio la
combustione ad alta temperatura dei combustibili fossili (petrolio e derivati,
come benzina e gasolio, carbone, gas naturale), di cui circa il 40 per cento è
direttamente attribuibile proprio ai trasporti. Sorgenti di secondaria
importanza sono invece diventate nel tempo quelle naturali, come i fulmini,
gli incendi e le eruzioni vulcaniche. È interessante osservare che, attraverso
una serie di processi chimici che avvengono in atmosfera, dagli ossidi di azoto
si arriva ai nitrati, che rappresentano nuclei di condensazione privilegiati per
la formazione di gocce di nubi e nebbie, le quali, ricadendo al suolo sotto
forma di precipitazioni, sono responsabili delle piogge acide (la cui causa
principale sono comunque gli ossidi di zolfo, che contribuiscono al 70 per
cento del fenomeno, mentre gli ossidi di azoto contribuiscono per il restante
30 per cento). Non male, come contributo umano all’ambiente!
Ma l’uomo non si è fermato ai composti dell’azoto. Anche gli aerosol hanno
dato un importante impulso in termini di concentrazione atmosferica. Con il
termine aerosol si definiscono tutte quelle sostanze, acqua esclusa, presenti in
atmosfera sotto forma liquida o solida, di dimensioni superiori a quelle
molecolari. Quindi, oltre a quelli derivanti da sorgenti naturali, come semi,
pollini, spore, fumi, ceneri, polveri e altro (provenienti da attività biologica o
vulcanica e tipicamente trasportati dal vento), troviamo anche quelli prodotti
da attività antropica, come la combustione dei carburanti e molti processi
industriali. Si calcola che l’attività umana contribuisca per circa il 20 per cento
in massa al totale di tutto il particolato presente in atmosfera. Gli studi
dimostrano che nel secolo scorso il contributo umano all’immissione di
aerosol in atmosfera è rimasto comunque una piccola frazione rispetto alle
emissioni naturali, ma alcuni ricercatori sostengono che fra pochi decenni gli
64
aerosol provenienti da sorgenti antropiche saranno confrontabili in quantità
con quelli naturali.
LEGGI SUI GAS
In generale, per descrivere a livello macroscopico il comportamento di un gas, si impiegano tre
grandezze: pressione (P), volume (V) e temperatura del gas (T), dette anche “funzioni di stato”. È
interessante osservare che queste tre grandezze sono tutte interdipendenti, come si può dimostrare
agevolmente a livello sperimentale, anche in maniera qualitativa.
La prima legge che mette in relazione due di queste tre grandezze è la legge di Boyle e Mariotte, la
quale afferma che, in condizioni di temperatura costante, la pressione di un gas è inversamente
proporzionale al suo volume, ovvero che il prodotto della pressione del gas per il volume da esso
occupato è costante. Le trasformazioni a temperatura costante vengono dette isoterme. La seconda
legge, nota come prima legge di Gay-Lussac o come legge di Charles, tratta delle trasformazioni a
pressione costante (isobare). Tale legge afferma semplicemente che, in condizioni di pressione
costante, appunto, il volume di un gas aumenta linearmente con la temperatura, ovvero che volume e
temperatura sono direttamente proporzionali. Ritroviamo la stessa proporzionalità diretta fra la
pressione e la temperatura nella seconda legge di Gay-Lussac, che riguarda invece le trasformazioni a
volume costante (isocore). Secondo questa legge, infatti, in condizioni di volume costante, la pressione
di un gas aumenta linearmente con la temperatura.
Infine, oltre alle tre leggi appena citate, esiste la legge di Avogadro, secondo la quale, a pari condizioni di
temperatura e pressione, uguali volumi di gas contengono lo stesso numero di molecole. Dall’enunciato
di questa legge si deduce che se si aumenta la quantità di gas raccolto in un contenitore, senza variare
la pressione né la temperatura, si fa aumentare di conseguenza il volume del gas.
Gas reali e gas ideali
In realtà, le leggi appena enunciate sono valide per una particolare approssimazione, detta dei gas
perfetti, per cui il gas viene considerato come costituito da atomi puntiformi, che si muovono liberi da
forze attrattive o repulsive reciproche o con le pareti del contenitore. Per i gas perfetti vale infatti una
legge, detta equazione di stato dei gas perfetti, che mette in relazione fra loro la pressione P, il volume V
e la temperatura T:
PV=nRT
dove n è il numero di moli del gas – la mole è una misura della quantità di sostanza – e R è la
cosiddetta costante universale dei gas perfetti. Da questa espressione è facile dedurre le tre leggi
precedenti come casi particolari. La legge di Boyle, per esempio, si ottiene fissando T a un valore
costante, così che l’equazione di stato in una trasformazione isoterma diventa semplicemente
PV=costante. Analoghi ragionamenti valgono negli altri due casi.
Il comportamento dei gas reali è diverso da quello descritto da queste leggi, ma vi si avvicina molto
quando il gas è in condizioni cosiddette di gas rarefatto, ovvero di bassa pressione o di alta temperatura
(o entrambe). Nel caso dei gas reali, l’equazione di stato assume invece una forma più complessa e
prende il nome di equazione di Van der Waals.
65
CHE CALDO, QUESTO PIANETA!
Poco sopra, parlando degli elementi minoritari che compongono l’atmosfera
terrestre, abbiamo citato i famigerati gas serra. Il nome suggerisce già l’effetto
che producono, noto come “effetto serra”, che ognuno di noi può facilmente
sperimentare entrando appunto in una serra (quelle in cui si coltivano le
piante tropicali lo dimostrano: il caldo umido là dentro è spesso
insopportabile!).
I gas serra sono infatti quelli che hanno la capacità di assorbire e di emettere
nuovamente la radiazione infrarossa proveniente dalla terra, contribuendo in
questo modo all’aumento di temperatura della superficie del Pianeta. In
pratica, questi gas hanno la caratteristica – dovuta alle loro proprietà
molecolari – di risultare trasparenti alla radiazione solare entrante, ma di
essere opachi alla radiazione infrarossa riemessa dalla superficie del Pianeta
riscaldata dai raggi solari diretti.
La radiazione visibile proveniente dal Sole va infatti a riscaldare direttamente
il suolo, ma non l’aria, che risulta quasi trasparente alla radiazione solare
stessa. Una volta assorbita questa radiazione, e quindi riscaldatosi, il suolo a
sua volta scalda l’aria sovrastante sia attraverso flussi di calore, sia con
l’emissione di radiazione infrarossa. Ed è proprio questa radiazione infrarossa
a essere intercettata dai gas serra, che la assorbono e poi la riemettono in tutte
le direzioni, quindi anche verso il suolo. In conseguenza di questo processo,
la superficie terrestre è riscaldata non solo dalla radiazione solare, ma anche
da quella infrarossa riemessa dai gas serra.
66
Fig. 3 Il bilancio energetico dell’atmosfera terrestre e l’effetto serra.
Questo fenomeno è noto come “effetto serra”.
A voler essere rigorosi, occorre notare che la metafora della serra è molto
valida dal punto di vista comunicativo (tutti abbiamo visitato una serra e
sperimentato l’effetto di riscaldamento causato dalla presenza dei vetri,
trasparenti alla radiazione solare, ma opachi alla radiazione infrarossa
riemessa all’interno della serra), ma non è del tutto corretta. Nelle serre,
infatti, il riscaldamento si ottiene impedendo alle correnti convettive (vedi
Trasmissione del calore) che si generano all’interno di disperdere l’energia
assorbita dalla radiazione solare, mentre nell’atmosfera lo stesso effetto di
riscaldamento si ottiene impedendo al calore di allontanarsi dalla superficie
terrestre per irraggiamento (vedi Irraggiamento). L’effetto dunque è lo stesso,
ma i processi fisici in atto sono assai differenti.
In generale, l’effetto serra è un fenomeno atmosferico-climatico che indica
67
la capacità del nostro pianeta – ma si osserva anche su altri pianeti e satelliti –
di trattenere nella propria atmosfera parte dell’energia radiante proveniente dal
Sole. È uno dei complessi meccanismi di regolazione dell’equilibrio termico
della Terra. In sua assenza, il nostro pianeta sarebbe soggetto a grandi
escursioni termiche, presenti su altri pianeti e satelliti privi di atmosfera o la
cui atmosfera non presenta quantità significative di gas serra.
Quindi, in linea di principio, l’effetto serra non è negativo, tutt’altro. Se sul
nostro pianeta è possibile la presenza e lo sviluppo della vita, è proprio grazie
a esso, prodotto come abbiamo visto da una serie di fenomeni che
interagendo tra loro regolano costantemente la concentrazione dei gas serra in
atmosfera, i quali agiscono mitigandone la temperatura globale. Il problema
nasce quando si inizia ad alterare in maniera anomala il meccanismo di
funzionamento di questo effetto, introducendo degli “elementi di disturbo”. E
l’uomo, come sappiamo, è maestro in questo.
T RASMISSIONE DEL CALORE
Se abbiamo due corpi a temperatura diversa, il calore si trasmette sempre dal corpo più caldo, ovvero a
temperatura più alta, a quello più freddo, cioè a temperatura più bassa. Il risultato è che il corpo più
caldo si raffredda mentre quello più freddo si riscalda, fino a quando non raggiungono entrambi la
stessa temperatura, ovvero l’equilibrio termico. Esistono tre modalità distinte con le quali il calore si
trasmette: per conduzione, per convezione e per irraggiamento.
Conduzione
Il calore si trasmette per conduzione all’interno di alcune sostanze e da queste ad altre per contatto. Le
sostanze capaci di trasmettere calore per conduzione vengono chiamate conduttori di calore. I migliori
conduttori di calore sono i solidi metallici (argento e rame in testa). Il processo di conduzione si spiega a
livello microscopico con la trasmissione di energia da un punto a un altro del solido – o da un corpo a un
altro che si trova a contatto con questo – attraverso i continui e frequenti urti che avvengono fra le
particelle che compongono i corpi. In particolare, in un metallo, il calore si trasmette grazie al moto degli
elettroni liberi di vagare per il reticolo cristallino, che si urtano fra loro e con gli atomi del reticolo
cristallino stesso. In una sostanza solida non metallica, il calore si trasmette invece attraverso le
vibrazioni degli atomi all’interno del reticolo cristallino. Le sostanze che sono cattive conduttrici di calore
prendono il nome di isolanti termici. Un isolante termico non ferma la conduzione di calore, ma è
comunque in grado di ritardarla. Liquidi e gas sono in generale buoni isolanti termici, ma anche alcune
sostanze solide, come il legno, la lana, la carta, il polistirolo.
Convezione
La trasmissione del calore per conduzione implica il passaggio di energia da atomo ad atomo, ma non
implica alcun movimento collettivo della massa di una sostanza nel suo insieme. Questo avviene
invece quando il calore si trasmette per convezione. In pratica, nel processo di trasmissione del calore
per convezione, esso si trasmette attraverso il movimento della sostanza, che in generale deve essere
fluida, ovvero allo stato liquido o aeriforme. Il meccanismo implica la formazione di correnti di
convezione all’interno del fluido: se, per esempio, riscaldiamo un fluido dal basso, questo si dilata,
diminuisce il proprio peso specifico e sale verso l’alto. Nel contempo il fluido più freddo scende perché
più denso. Ma lì trova la fonte di calore e il processo continua. Perché si crei la convezione, che è
un’applicazione del principio di Archimede, occorre quindi che la sostanza venga riscaldata in maniera
non uniforme. In altri termini, la trasmissione del calore per convezione implica la formazione di celle
convettive, ovvero di regioni separate della sostanza in cui si manifesta il flusso di convezione. Esempi
68
di celle convettive si osservano ovviamente nell’atmosfera terrestre, mentre a livello domestico sono
facilmente rilevabili in una pentola piena d’acqua messa a riscaldare sul fuoco. In entrambi i casi, la
sorgente di calore è in basso (la superficie terrestre nel caso dell’atmosfera, la fiamma nel caso della
pentola).
Irraggiamento
Il terzo modo con cui il calore si trasmette è per irraggiamento, ovvero per emissione di “energia
raggiante”, cioè di onde elettromagnetiche. Infatti, l’energia emessa dal Sole attraversa l’atmosfera per
arrivare sino a noi, ma non si trasmette né per conduzione, dato che l’aria è un pessimo conduttore di
calore, né per convezione, considerato che, perché cominci la convezione, occorre che la superficie
terrestre sia già calda. Tutti i corpi assorbono ed emettono continuamente energia raggiante, per il solo
fatto di trovarsi a una temperatura superiore allo zero assoluto. In particolare, maggiore è la temperatura
del corpo, maggiore è l’irraggiamento, cioè l’intensità della radiazione emessa. Per esempio, il calore
che percepiamo avvicinandoci a una lampada accesa è dovuto all’irraggiamento della lampada, che,
oltre alla luce visibile, emette anche radiazione infrarossa, responsabile della sensazione di calore.
Gas serra, quali e quanti
Quando si parla di gas serra, si fa un gran parlare di anidride carbonica…
ma è importante sapere che il gas serra più abbondante nell’atmosfera terrestre
è il vapore d’acqua che, come abbiamo scritto poco sopra, è comunque
presente in quantità molto bassa. Tutti gli altri gas serra sono presenti in
concentrazioni ancora più piccole. Proprio per questo motivo, il contributo
delle emissioni prodotte dalle varie attività umane è in grado di alterarne in
maniera significativa la quantità. Naturalmente, l’impatto delle variazioni nella
concentrazione di gas serra varia a seconda delle zone geografiche in cui si
verifica. Nelle regioni equatoriali, particolarmente umide, dove quindi il
contenuto di vapore acqueo è molto alto, l’aggiunta di piccole quantità di
anidride carbonica o di vapore acqueo ha un impatto piuttosto limitato in
termini di effetto serra. Al contrario, nelle fredde regioni polari, dove l’aria è
piuttosto secca, piccoli incrementi di anidride carbonica o di vapore acqueo
hanno effetti molto maggiori (e sensibili).
Alcuni ricercatori hanno dei dubbi, ma è ormai accertato che la quantità di
gas serra presenti in atmosfera è in aumento soprattutto a causa dell’uso dei
combustibili fossili e della combustione delle biomasse. In generale, l’impatto
delle attività dell’uomo come sorgente di gas atmosferici minoritari è
assolutamente rilevante. Ma vediamo un po’ più da vicino questi gas,
cominciando con la “regina” dei gas serra: l’anidride carbonica, nota anche
come biossido (o diossido) di carbonio, in virtù della sua struttura
molecolare, composta da due atomi di ossigeno legati a un atomo di carbonio.
Le sorgenti di anidride carbonica sono numerosissime: si va dalla
respirazione delle piante, alla decomposizione dei residui organici, dalla
combustione alle diverse attività antropiche. L’assorbimento avviene
tipicamente nei processi di fotosintesi e da parte degli oceani, nei quali è
69
presente in notevole quantità (molta di più di quanta se ne trovi in atmosfera).
Le prime fonti di anidride carbonica atmosferica della neonata Terra sono
state comunque i vulcani, ed è proprio grazie a essa che sul nostro pianeta si è
potuto instaurare un clima favorevole allo sviluppo della vita. Oggi si calcola
invece che i vulcani rilascino in atmosfera una quantità pari a meno dell’un
per cento della quantità totale di anidride carbonica liberata in atmosfera dalle
attività umane.
A regolare le variazioni di concentrazione dell’anidride carbonica
nell’atmosfera terrestre sono essenzialmente due fattori: la deforestazione e
l’assorbimento da parte degli oceani. La prima contribuisce all’incremento sia
a causa degli incendi impiegati per praticarla sia a causa della ridotta capacità
delle foreste di rimuovere l’anidride carbonica in eccesso; il secondo agisce
con maggiore efficacia a temperature basse, perché il riscaldamento da effetto
serra porta a una minore capacità di assorbimento da parte degli oceani e
contribuisce ad amplificarne l’effetto, con una retroazione positiva (feedback
positivo).
Un altro meccanismo di retroazione positiva si deve all’aumento della
concentrazione dei gas serra, perché l’atmosfera riscaldata è in grado di
contenere una maggior quantità di vapore acqueo, che intensifica
ulteriormente l’effetto serra. Questa retroazione, in particolare, può essere così
significativa da raddoppiare l’effetto serra dovuto soltanto all’anidride
carbonica. Altre importanti retroazioni coinvolgono le nuvole, in grado sia di
assorbire la radiazione infrarossa fornendo un contributo positivo in termini
di temperatura all’effetto serra, quindi riscaldando la superficie terrestre, sia di
riflettere la radiazione solare incidente, quindi raffreddandola. Nel bilancio
generale, tuttavia, si ritiene che in media le nubi abbiano un effetto di
raffreddamento sul clima.
Gli altri gas serra sono ancora meno abbondanti dell’anidride carbonica, ma
non per questo meno importanti in termini di effetto serra. Fra questi il
principale è sicuramente il metano, composto da un atomo di carbonio legato
a quattro atomi di idrogeno. Il metano ha diverse sorgenti primarie di
immissione in atmosfera: il decadimento di materiale organico, la
combustione delle biomasse, l’attività estrattiva di carbone e petrolio, la
fermentazione enterica del bestiame (legata al processo digestivo di questi
animali). Quest’ultima, per esempio, associata in prevalenza agli allevamenti
di bestiame, contribuisce per circa il 40 per cento delle emissioni di metano
legate ad attività antropiche. Fra l’altro, il metano ha un’elevata capacità di
intrappolare il calore atmosferico – ben 25 volte superiore a quella
70
dell’anidride carbonica – motivo per cui è assolutamente necessario tenere
sotto controllo la sua concentrazione in atmosfera.
Un gas serra un po’ particolare è l’ozono, la cui molecola è composta da tre
atomi di ossigeno legati insieme. L’ozono, infatti, a differenza degli altri gas
serra, che assorbono la radiazione infrarossa riemessa dalla superficie
terrestre, assorbe direttamente la radiazione solare. L’ozono è infatti capace di
assorbire la radiazione ultravioletta proveniente dal Sole. Grazie a questa
caratteristica, è considerato un gas essenziale alla vita sulla Terra, perché la sua
presenza nella stratosfera protegge le forme di vita sul nostro pianeta
dall’azione nociva di quei raggi, che non riescono quindi ad arrivare fino al
suolo.
L’ozono è abbondante negli strati alti dell’atmosfera e si concentra
soprattutto attorno ai 25 km di altezza, dove è appunto presente l’ozonosfera.
Tuttavia, questo gas può talvolta essere presente in piccole quantità anche
negli strati più bassi (è infatti uno dei principali componenti
dell’inquinamento atmosferico prodotto dall’uomo nelle grandi città).
Purtroppo, a differenza dell’ozono stratosferico, che agisce come “protettore”
delle forme di vita, quello troposferico risulta essere un inquinante molto
velenoso, soprattutto se assorbito in grandi dosi attraverso la respirazione. Le
condizioni ottimali perché si formi ozono in prossimità del suolo si verificano
in estate nelle grandi aree urbane. La concomitanza di temperature elevate,
radiazione solare intensa e atmosfera ricca di inquinanti è in grado di
innescare la produzione di ozono troposferico. L’ozono stratosferico si forma
invece per reazione chimica tra molecole e atomi di ossigeno in presenza di
radiazione ultravioletta. L’ozono si forma infine anche da molecole di
ossigeno in prossimità di scariche elettriche, scintille e fulmini. L’odore
pungente, caratteristico e fortemente irritante, che si sente durante i temporali
e in generale in prossimità di scariche elettriche è proprio quello dell’ozono, il
cui nome deriva dal verbo greco olein, che significa puzzare.
Poiché lo strato di ozono nell’alta atmosfera funge da filtro per le radiazioni
ultraviolette, è molto importante controllare la distribuzione e la
concentrazione del gas. Molta preoccupazione destò l’osservazione, a partire
dagli anni Ottanta dello scorso secolo, della drastica riduzione della quantità di
ozono stratosferico soprattutto in corrispondenza delle regioni polari, al punto
che si è definita “buco dell’ozono” la regione a bassa concentrazione di questo
gas al di sopra dell’Antartide. In realtà non è un vero e proprio buco, ma un
assottigliamento dello strato, legato a fattori connessi all’attività antropica, fra
cui l’emissione in atmosfera di sostanze capaci di danneggiare se non
71
addirittura di distruggere tale strato, come i celebri clorofluorocarburi, meglio
noti con il nome commerciale di freon (di proprietà della DuPont, Stati Uniti),
di cui si è fatto uso come fluidi refrigeranti nei cicli frigoriferi a
compressione, come quelli dei frigoriferi presenti nelle nostre cucine. Adesso
alcuni di questi composti, in particolare quelli contenenti cloro, sono stati
banditi (dal 1990, per la precisione), ma restano impiegati negli usi per cui
non è ancora stato possibile trovare gas sostitutivi.
Concludiamo questa parte sui gas serra tornando per un attimo al vapore
acqueo, che abbiamo detto essere il principale gas serra. È vero, ma è anche
vero che esiste una differenza fondamentale tra il vapore acqueo e la maggior
parte dei gas serra. Mentre infatti una molecola di andidride carbonica o di
metano può rimanere in atmosfera centinaia di anni, l’acqua viene
continuamente rimessa in circolazione tra l’atmosfera, la superficie terrestre e
gli oceani. A conti fatti, una specifica molecola d’acqua resta in atmosfera in
media per due settimane.
Se prendiamo in considerazione le scale temporali climatiche, che sono
ovviamente molto più estese di due settimane, si osserva che la
concentrazione di acqua nell’atmosfera e sulla superficie terrestre è
sostanzialmente prossima all’equilibrio. Questo significa che la quantità di
acqua immessa nell’atmosfera attraverso il processo di evaporazione attivo al
suolo è pari a quella che viene restitutita al suolo attraverso le precipitazioni.
Va aggiunto inoltre che le attività umane hanno una limitata influenza sulla
quantità di vapore acqueo in atmosfera, che può variare indirettamente solo
attraverso eventuali cambiamenti climatici indotti per altra via (ovvero
attraverso le emissioni di altri gas serra, come anidride carbonica e metano).
72
“
EFFETTO FARFALLA”, OVVERO LA SCIENZA DEL CAOS
Arrivati a questo punto, merita la pena fare una riflessione sul problema
delle previsioni del tempo e sul perché la materia è così complessa. Facciamo
un po’ di storia. Secondo il matematico e astronomo francese Pierre-Simon de
Laplace (1749-1827), se conoscessimo esattamente lo stato iniziale di un
sistema e le leggi che ne regolano il moto, potremmo determinarne
l’evoluzione per un qualunque tempo futuro. Purtroppo questo non è mai
possibile, come stabilì il suo connazionale Jules-Henri Poincaré (1854-1912),
anch’egli matematico e astronomo, fra i primi a studiare il moto di un sistema
complesso con gli strumenti della geometria (lo vedremo più avanti in questo
capitolo). Il problema sta proprio nell’impossibilità di conoscere con infinita
precisione lo stato iniziale del sistema. Da qui il matematico e meteorologo
statunitense Edward Norton Lorenz (1917-2008), del prestigioso
Massachusetts Institute of Technology (MIT) di Boston, ha preso le mosse per
inaugurare la “scienza del caos”. Vediamo di che cosa si tratta.
In principio era un gabbiano, e solo dopo diventò una farfalla. Il primo a
parlarne fu appunto Lorenz, nel 1963, quando affermò che «un battito d’ali di
un gabbiano sarebbe sufficiente per alterare il corso del tempo atmosferico
per sempre». Nove anni dopo, sempre Lorenz intitolò un suo intervento
Predicibilità: può il battito d’ali di una farfalla in Brasile generare un
uragano in Texas? e da quel momento il fenomeno a cui si riferiva prese il
nome di “effetto farfalla”. In entrambi i casi, Lorenz si riferiva alla
“dipendenza sensibile dalle condizioni iniziali”, espressione con la quale si
designa il fenomeno per cui una piccola variazione introdotta in un sistema
dinamico complesso – come l’atmosfera, appunto – può farlo evolvere nel
tempo in maniera impredicibile. Ma come può accadere un fenomeno del
genere?
Alla base di comportamenti del genere ci sono sempre sistemi complessi,
ovvero sistemi costituiti da un gran numero di componenti elementari che
interagiscono tra loro con leggi semplici e ben conosciute, ma che a livello
collettivo hanno comportamenti complicati e sostanzialmente imprevedibili.
Queste proprietà “emergenti” a livello globale sono la “firma” della
complessità. L’atmosfera terrestre è proprio un esempio di sistema complesso
che abbiamo ogni giorno sotto gli occhi: costituita in massima parte da
molecole di gas e vapore acqueo che interagiscono attraverso semplici urti, su
grande scala (quella appunto dei fenomeni atmosferici), mostra infatti un
73
comportamento estremamente complesso e, come sappiamo, difficilmente
prevedibile per tempi superiori a qualche giorno.
Ma complessità diverse possono manifestarsi a livelli diversi, non solo
nell’atmosfera. Una cellula è un sistema complesso fatto di molecole, e un
organismo vivente è un sistema complesso fatto di cellule. In entrambi i casi,
il comportamento del sistema complessivo emerge dall’interazione fra i
costituenti al livello più basso. Fra gli esempi di sistemi complessi non può
mancare il cervello: quest’ultimo, pur essendo “solo” una rete di neuroni che
si scambiano semplici impulsi elettrici, è capace di dare un senso alle parole
che state leggendo! Seguendo questa visione, c’è addirittura chi interpreta
l’epilessia e altre disfunzioni del cervello come fenomeni caotici, aprendo
interessanti prospettive di ricerca.
Una delle manifestazioni della complessità è la dinamica caotica: sebbene
obbediscano alle rigide leggi della meccanica di Newton in cui non c’è spazio
per il caso, i sistemi caotici evolvono nel tempo in modo di fatto
imprevedibile, se non per tempi molto brevi.
E allora come si può capire se un sistema manifesterà o meno un
comportamento caotico? Studiando geometria. In particolare, descrivendo il
moto del sistema in un nuovo spazio, detto “spazio delle fasi”, diverso da
quello ordinario in cui viviamo, e andando a vedere le forme, dette
“attrattori”, che il moto disegna in questo stesso spazio. Se poi questi attrattori
sono “frattali”, siamo in presenza di un sistema caotico.
Ma procediamo con ordine. Per capire lo spazio delle fasi, supponiamo di
voler dire dove si trova quella fastidiosa mosca che sta ronzando nel nostro
salotto: basterà dare tre numeri, per esempio la distanza dal pavimento, quella
dalla parete con la finestra e quella dalla parete con la porta. In questo modo
sappiamo dov’è la mosca ora, ma non abbiamo nessuna idea di dove potrebbe
trovarsi fra poco, perché le mosche non stanno ferme! Allora bisogna dare
anche altri tre numeri che ci dicono quanto velocemente si sta allontanando, o
avvicinando, al pavimento e alle due pareti. Questi sei numeri, tre posizioni e
tre velocità, descrivono completamente lo stato della mosca in un certo
istante. E come le tre distanze dalle pareti e dal pavimento descrivono la
posizione nello spazio a tre dimensioni, i sei numeri descrivono la posizione
del nostro sistema (la mosca) in uno spazio a sei dimensioni, che si chiama lo
spazio delle fasi.
In pratica, un punto nello spazio delle fasi descrive completamente lo stato
di un sistema fisico. E la successione dei punti occupati nello spazio delle fasi
al passare del tempo si chiama traiettoria del sistema, proprio come la più
74
familiare traiettoria percorsa da un oggetto nello spazio ordinario a tre
dimensioni. I sistemi con dinamica semplice descrivono traiettorie regolari
nello spazio delle fasi, quelli con dinamica caotica tracciano traiettorie
complicatissime e intricate. I sistemi dinamici si studiano proprio analizzando
le “curve” che questi costruiscono nello spazio delle fasi durante la loro
evoluzione. A seconda del tipo di moto, periodico, smorzato o caotico, il
sistema disegna infatti forme diverse nello spazio delle fasi: punti fissi, curve
o superfici regolari, zone irregolari. Queste forme prendono il nome di
“attrattori”, proprio perché il moto viene “attratto” verso di esse.
Un attrattore è proprio quella regione dello spazio delle fasi dove i sistemi
vanno a finire se si aspetta abbastanza a lungo. Alcuni attrattori hanno forme
semplici (un punto, un’ellisse), ma gli attrattori dei sistemi caotici sono molto
intricati, e per questo vengono chiamati “attrattori strani”. Si tratta di figure
ben più complicate di un punto o di una linea e soprattutto si tratta di oggetti
che, sorprendentemente, hanno una dimensione che non è uguale a un
numero intero!
In effetti, a scuola ci insegnano che una linea ha una sola dimensione; una
superficie, come quella di un foglio di carta o di un palloncino, ha due
dimensioni; un volume, come quello occupato da una stanza, ha tre
dimensioni. Parlando di spazi delle fasi abbiamo trattato oggetti con un
numero qualsiasi di dimensioni, ma pur sempre un numero intero. Gli
“attrattori strani”, invece, hanno dimensioni intermedie fra due numeri interi.
Un attrattore strano in un spazio delle fasi a tre dimensioni ha una dimensione
compresa fra 2 e 3, un numero non intero, appunto. In altre parole, un
attrattore strano è un po’ di più di una superficie, ma un po’ meno di un
volume. Figure geometriche come gli attrattori strani, con dimensioni non
intere, si chiamano “frattali” (dal latino fractus, spezzato), secondo la
definizione del matematico francese di origine polacca Benoît Mandelbrot
(1924-2010), ideatore del concetto di dimensione frazionaria.
È proprio l’attrattore strano a caratterizzare una situazione dinamica nella
quale il moto, pur essendo attratto in una regione delimitata dello spazio delle
fasi (l’attrattore strano, appunto), continua a permanere indefinitamente
aperiodico (cioè non si ripete mai uguale a se stesso) e mostra la forma di
“instabilità” nota come “dipendenza sensibile dalle condizioni iniziali”: due
condizioni iniziali che, nello spazio delle fasi, pur trovandosi in posizioni
infinitamente vicine, divergono l’una dall’altra in un tempo finito. In altre
parole, partendo da due stati iniziali anche solo leggermente differenti, un
sistema può seguire evoluzioni temporali molto diverse, fino a diventare
75
sostanzialmente impredicibile, nonostante le leggi che ne regolano il moto
siano esatte e conosciute, in quanto un piccolo errore nella conoscenza del
suo stato in un certo istante di tempo, scelto come istante iniziale, può
propagarsi a tal punto da provocare errori anche grandi nelle previsioni della
sua evoluzione negli istanti futuri. È il famoso “effetto farfalla” da cui siamo
partiti. Ed è anche il segnale distintivo del cosiddetto moto caotico.
Scienza del caos applicata
La scienza del caos è il tentativo di comprendere le regole (precise) che
stanno dietro comportamenti o moti apparentemente casuali e disordinati,
come lo sgocciolio di un rubinetto o l’aperiodicità del battito cardiaco. Per
questo motivo, lo studio dei sistemi dinamici complessi trova applicazione in
moltissimi campi del sapere, dall’andamento temporale dei mercati finanziari
allo studio del cervello.
Un sistema caotico è necessariamente non lineare. Con ciò si intende che la
sua evoluzione è descritta da un sistema di equazioni (tipicamente
differenziali), delle quali almeno una è non lineare, ovvero non esprimibile
come combinazione lineare delle variabili presenti (e di una costante), per
esempio contenendo almeno un termine di grado diverso da uno, come
potrebbe essere un’incognita elevata al quadrato o un prodotto di due
incognite. Il comportamento caotico di un sistema non è infatti associato al
numero di variabili necessarie per descriverne l’evoluzione nel tempo; anzi, in
alcuni casi può essere dovuto alla specifica interazione tra poche variabili. In
particolare, un sistema di tre equazioni differenziali non lineari è sufficiente a
creare un andamento caotico. A determinare il comportamento complesso è
solitamente un feedback, cioè una retroazione del sistema su se stesso. Tale
feedback è appunto rappresentato nel sistema di equazioni dal termine non
lineare.
La dinamica caotica è la norma e non l’eccezione in natura. I moti regolari
sono spesso solo un caso limite, che si manifesta quando i sistemi dinamici
sono sottoposti a stimoli deboli. Anche i moti che sono sempre stati
considerati regolari per eccellenza, quelli dei pianeti e dei corpi celesti,
possono in realtà diventare caotici. Comprendere le caratteristiche del caos ci
permette quindi di fare un passo avanti nella comprensione della natura e
magari anche di evitare di mettere satelliti artificiali (o peggio astronavi con
equipaggio) su orbite che possono diventare caotiche. La scienza del caos ci
ha anche insegnato che non avremo mai previsioni del tempo esatte: ma
capire meglio il caos potrà aiutarci a capire come migliorarle e quanto lontano
76
ci potremo spingere.
Frattali in natura
Anche i frattali hanno applicazioni importanti, e non solo nello studio dei
sistemi caotici. Le superfici rugose di alcuni materiali vengono descritte in
termini di geometria frattale. Lo studio delle irregolarità di una frattura
coinvolge concetti simili. Ma si è arrivati anche ad applicazioni in medicina: si
parla di struttura frattale del reticolo di canali e canaletti che costituisce un
polmone umano. Resa possibile dalla nascita dei calcolatori, la geometria dei
frattali ha molti altri impieghi interessanti nello studio della natura. Le coste, le
montagne, le nuvole, le foglie di una felce, le ramificazioni degli alberi
possono essere considerate tipici frattali naturali, ma, oltre ai polmoni, il
corpo umano è ricco di esempi: i villi intestinali, i capillari del sistema
circolatorio, i neuroni, le circonvoluzioni cerebrali. Tutti sistemi che, a diversi
livelli, mostrano un certo grado di autosomiglianza, ovvero quella
caratteristica, tipica degli attrattori strani e dei frattali, di apparire simili se li si
guarda a ingrandimenti diversi: se un frattale appare intricato, ingrandito cento
o mille volte appare intricato esattamente allo stesso modo.
77
I MOTI ATMOSFERICI FRA HALLEY, HADLEY E CORIOLIS
Tra la fine del XVII e l’inizio del XVIII secolo molti scienziati indagarono la
fisica dell’atmosfera, sia dal punto di vista della struttura e composizione
chimica, che dal punto di vista della dinamica, cioè dei suoi moti interni. Lo
sviluppo teorico più significativo fu l’introduzione del concetto di
circolazione complessiva dell’atmosfera, attraverso il quale iniziò a
diffondersi l’idea che l’atmosfera fosse un’entità unica, che risente in una
certa regione di ciò che accade anche a grande distanza.
Fra questi vi fu anche il britannico Edmond Halley (1656-1742), certamente
più celebre per aver calcolato l’orbita della cometa che adesso porta il suo
nome e per aver invitato l’amico e collega Isaac Newton a scrivere i suoi
Philosophiae Naturalis Principia Mathematica (il trattato su cui si basa tutta
la meccanica classica, dove Newton enuncia le sue leggi della dinamica e la
legge di gravitazione universale), che Halley pubblicò nel 1687 a proprie
spese, avendone riconosciuto l’incredibile valore scientifico.
Le ricerche di Halley – che studiò i venti, come gli alisei e i monsoni,
identificando nel riscaldamento solare la causa dei moti atmosferici, e stabilì
anche la relazione fra la pressione barometrica e l’altezza sul livello del mare –
furono molto importanti per la scienza meteorologica, che trovò negli studi di
un dilettante la spinta più significativa dell’epoca. Fu l’inglese George Hadley
(1685-1768), che di mestiere faceva il giurista, ad appassionarsi alla
meteorologia al punto da dedicare a essa gran parte del proprio tempo libero.
Hadley era in particolare attratto dallo studio dei venti alisei, noti nel mondo
anglosassone con l’espressione trade winds, che significa “venti
commerciali”, perché strettamente legati alle rotte commerciali fra l’equatore e
i tropici. In particolare, Hadley voleva individuarne l’origine, considerando
che questi sono venti costanti nelle zone tropicali, diretti da nord-est verso
sud-ovest nell’emisfero boreale e da sud-est verso nord-ovest in quello
australe, che spingono le imbarcazioni a vela in direzione delle Americhe (noti
da lungo tempo, vennero abilmente sfruttati anche da Cristoforo Colombo nei
viaggi che lo portarono alla scoperta dell’America).
Le ricerche di Hadley culminarono con la pubblicazione nel 1735 sulla
prestigiosa rivista Philosophical Transactions of the Royal Society di un
articolo dal titolo significativo “Concerning the Cause of the General Trade
Winds” (sull’origine degli alisei), in cui sosteneva che a causare gli alisei fosse
la rotazione della Terra attorno al proprio asse, moto che doveva combinarsi
78
con quello dovuto allo spostamento delle masse d’aria rispetto alla superficie
terrestre. In particolare, secondo Hadley, le masse d’aria in moto da una
latitudine a un’altra dovrebbero essere soggette alla conservazione della
quantità di moto (in realtà, essendo la Terra un sistema in rotazione, è invece
coinvolta la conservazione del momento angolare, come verrà dimostrato in
ricerche successive). Nonostante la teoria fisica fosse errata, alcuni suoi
esperimenti con palloni lo portarono alla scoperta dei moti ascendenti e
discendenti in aria causati da variazioni locali di temperatura, che, considerati
globalmente, vanno a definire una modalità di circolazione verticale dell’aria
nell’atmosfera terrestre. Per questi suoi studi, alle celle in circolazione
verticale poste alle latitudini comprese fra l’equatore e i tropici è stato dato il
nome di “celle di Hadley”.
La cella di Hadley rappresenta un tipo di circolazione tipicamente convettiva
che coinvolge l’atmosfera tropicale. In pratica, nei pressi dell’equatore, dove
la temperatura al suolo è in media più alta, si genera un’ascesa di aria calda
che, una volta arrivata a una quota di circa 10-15 km, si muove verso i tropici,
alle cui latitudini torna a scendere verso la superficie terrestre, per poi
dirigersi nuovamente verso l’equatore. Sono proprio questi moti di “rientro”
dai tropici verso l’equatore a dare origine ai venti alisei, che si manifestano
appunto al livello del mare.
Curiosamente, l’articolo di Hadley non ebbe grande fortuna al momento in
cui venne pubblicato, anche perché trattava un tema particolarmente
complesso come quello della combinazione di moti in sistemi in rotazione, e
quindi non inerziali, il cui studio doveva ancora essere approfondito. Ma non
fu solo la difficoltà dell’argomento a giocare a sfavore della diffusione della
teoria di Hadley. Già, perché il suo nome veniva costantemente confuso con
quello di altri due scienziati. Uno era il già citato Halley, l’altro John Hadley,
suo fratello maggiore, famoso in ambito astronomico per aver ideato un tipo
di sestante (strumento con il quale si misura l’altezza delle stelle sopra
l’orizzonte, per determinare la posizione della nave in mare). Inoltre, il fatto
che Halley avesse pure fornito una spiegazione, seppure meno elaborata, alla
formazione degli alisei contribuì ad alimentare ulteriormente la confusione. Fu
solo grazie a un articolo pubblicato nel 1793 che il lavoro di Hadley venne
riscoperto e riconosciuto per il suo valore. Autore di quel lavoro era John
Dalton (1766-1844) che, oltre a studiare e insegnare fisica e chimica e a
teorizzare la struttura atomica, si dedicò anche alla meteorologia, di cui era
appassionato cultore.
79
Coriolis: ancora tu, ma non dovevamo vederci più?
Si è già detto dei notevoli sviluppi teorico-matematici che raggiunse la
meccanica classica fra il 1700 e il 1800 (il ramo teorico della meccanica
prende il nome di meccanica razionale, o meccanica analitica). Molti di questi
studi in realtà trovavano delle applicazioni importanti dal punto di vista
tecnico soprattutto nella produzione di macchine industriali. Uno degli
argomenti oggetto di indagine teorica era lo studio di corpi in rotazione, di
particolare importanza nel funzionamento di molte macchine presenti nelle
fabbriche.
Fra i matematici, fisici e ingegneri che si dedicarono a esso, spicca il nome
del matematico e ingegnere francese Gaspard-Gustave de Coriolis (17921843), che dà il nome alla forza e all’effetto che abbiamo incontrato nel
precedente capitolo. Fu proprio in un suo celebre articolo del 1835, intitolato
“Sur les équations du mouvement relatif des systèmes de corps” (sulle
equazioni del moto relativo dei sistemi di corpi), che fece la sua comparsa la
forza che adesso porta il suo nome e che è alla base anche della spiegazione,
fra tanti altri fenomeni, dei venti alisei, nonostante Coriolis, in quell’articolo,
non si occupasse nello specifico di meteorologia, ma del trasferimento di
energia in macchine rotanti. Furono altri ad applicare i risultati di Coriolis alla
dinamica dell’atmosfera e a scoprire l’importanza di tale forza nelle deviazioni
delle masse d’aria, ma solo agli inizi del XX secolo si cominciò a citare
esplicitamente l’uso della forza di Coriolis in meteorologia.
Una volta diffuso, il lavoro di Hadley spinse altri meteorologi a studiare il
moto delle masse d’aria nell’atmosfera terrestre, fra cui lo statunitense William
Ferrel (1817-1891), alle cui ricerche si deve la scoperta dell’esistenza di celle
simili a quelle studiate da Hadley, ma poste a latitudini intermedie e con venti
prevalenti sempre spinti dalla deflessione dell’aria imposta dalla forza di
Coriolis: tali celle, che si trovano fra 30° e 60° circa, sia a nord che a sud
dell’equatore, sono appunto note come celle di Ferrel (o di media latitudine).
Fu ancora Ferrel a correggere l’errore di Hadley su quale fosse la grandezza
fisica che doveva conservarsi nel moto delle masse d’aria, dimostrando –
come accennato sopra – che a restare costante doveva essere il momento
angolare e non la quantità di moto di tali masse.
Per completezza, ricordiamo che, oltre alle celle di Hadley e a quelle di
Ferrel, esistono anche quelle polari, che si estendono da 60° di latitudine nord
e sud fino ai poli. Queste tre celle, tutte insieme, costituisco il modello
generale della circolazione dell’aria atmosferica proposto inizialmente da
Hadley.
80
MA DA DOVE TIRA IL VENTO?
Come abbiamo detto, la forza di Coriolis compare solo su oggetti in moto su
sistemi in rotazione, e in particolare è la forza responsabile della deviazione
della traiettoria di un oggetto dalla sua traiettoria inerziale. Questa deviazione è
appunto nota come “effetto Coriolis”. D’altra parte, su corpi fermi rispetto a
un sistema in rotazione, per un osservatore solidale al sistema stesso, si
osserva in azione solo la forza centrifuga. È un esercizio interessante provare
ad applicare l’effetto Coriolis ai moti a grande scala delle masse d’aria in
atmosfera… per vedere appunto l’effetto che fa! Ebbene, se avevate ancora
dubbi sull’importanza di tale effetto nella meteorologia, sappiate che grazie a
esso è possibile spiegare la formazione di cicloni e anticicloni e capire il loro
verso di rotazione a seconda dell’emisfero in cui si manifestano.
Sorprendente, vero?
Innanzi tutto è opportuno spiegare che per ciclone i meteorologi intendono,
in termini generali e indipendentemente dalla violenza del fenomeno, una
regione dell’atmosfera in cui la pressione atmosferica è minore di quella delle
regioni circostanti alla stessa altitudine: in altre parole una regione a bassa
pressione, in cui si ha quindi convergenza di masse d’aria negli strati bassi,
proveniente da regioni ad alta pressione. Viceversa, gli anticicloni, o zone di
alta pressione, sono tipicamente le regioni a tempo atmosferico stabile.
È facile osservare – anche studiando una mappa meteorologica, ma più
facilmente guardando uno dei tanti filmati di cicloni ripresi da satellite – che
nell’emisfero boreale l’aria ciclonica si muove spinta da un sistema di venti
che circolano in senso antiorario, mentre nell’emisfero australe accade
esattamente l’opposto, ovvero che i cicloni ruotano in senso orario. In
entrambi i casi si osserva comunque anche una componente di moto delle
masse d’aria convergente verso il centro dell’area ciclonica (il famoso “occhio
del ciclone”).
Ora, per spiegare questo fenomeno è sufficiente pensare a una massa d’aria
ad alta pressione che, posta a una certa latitudine, inizia a muoversi verso una
massa d’aria a bassa pressione, posta a una latitudine diversa (maggiore o
minore, non importa, a patto che sia comunque nello stesso emisfero). Se per
esempio prendiamo in considerazione l’emisfero boreale, il moto della massa
d’aria ad alta pressione verrà sempre deviato verso destra in virtù della forza
di Coriolis, costringendo quindi questa massa a ruotare in senso antiorario
attorno alla massa a bassa pressione. Un ragionamento analogo vale
81
naturalmente per l’emisfero australe, dove la forza di Coriolis agisce invece
deviando le masse in moto fra latitudini diverse verso sinistra e
costringendole quindi a ruotare in senso orario attorno alle regioni a bassa
pressione.
I cicloni tropicali, che si manifestano tipicamente alle basse latitudini (da cui
l’attributo di tropicali), sono fra le più violente perturbazioni atmosferiche.
Generalmente accompagnati da piogge a carattere torrenziale, questi cicloni si
formano in mare aperto – dove raccolgono e condensano il vapore acqueo
liberato in grandi quantità dalle acque oceaniche ad alta temperatura – e si
muovono anche a velocità sostenute, arrivando talvolta sino alla terraferma,
dove la loro intensità diminuisce, ma resta comunque sufficiente per
provocare ingenti danni.
Quelli più violenti, noti anche con il nome di uragani, sono infatti
caratterizzati da venti fortissimi, con velocità abbondantemente superiori ai
100 chilometri orari, capaci quindi di produrre violente mareggiate e di
spazzare via qualunque ostacolo incontrino nel loro cammino, come sappiamo
anche dalle cronache di questi ultimi anni, con uragani come il terribile
Katrina, che colpì New Orleans nell’agosto 2005 con picchi di vento oltre i
280 chilometri orari, o il più recente Sandy, con venti massimi di “appena”
175 chilometri orari, arrivato a colpire New York nell’ottobre 2012.
Nonostante il nome faccia pensare il contrario – in genere il prefisso “anti-”
sta per antagonista, avversario – gli anticicloni sono invece molto più
tranquilli, anche perché in genere in corrispondenza di un anticiclone si
osserva una regione di tempo meteorologico favorevole e stabile. Così,
mentre i cicloni, soprattutto quelli tropicali, hanno spesso conseguenze
catastrofiche, gli anticicloni sono caratterizzati da venti a regime di brezza, che
si muovono in senso orario nell’emisfero boreale e in senso antiorario
nell’emisfero australe. Una volta afferrato il meccanismo di funzionamento
della forza di Coriolis, non è difficile stabilire dove si trovino rispetto a noi le
regioni di alta e di bassa pressione… a patto di essere in grado di misurare un
po’ di vento!
Per svolgere questo esercizio può esserci d’aiuto una legge empirica, detta di
Buys Ballot, che prende appunto il nome da Christoph Hendrik Diederik Buys
Ballot (1817-1890), il meteorologo olandese che per primo nel 1857 ne fornì
una spiegazione. Per prima cosa andrà individuata la direzione da cui soffia il
vento. Poi, rivolgendo le spalle a questa, basterà pensare ai ragionamenti
svolti poco sopra sull’effetto Coriolis e su come questo devia le masse d’aria.
Quindi, se ci troviamo nell’emisfero boreale, il vento alle spalle ci indicherà
82
che l’area di bassa pressione sarà alla nostra sinistra, e, di conseguenza, quella
di alta pressione si troverà alla nostra destra. Ragionamento opposto andrà
fatto nell’emisfero australe, dove, dando le spalle al vento, troveremo l’area di
bassa pressione a destra e quella di alta pressione a sinistra. Con ciò non
verrete probabilmente assunti da alcun “servizio meteorologico”, ma potrete
provare a stupire i vostri amici. Ma fate attenzione, perché la legge di Buys
Ballot, essendo una norma empirica, ha una validità approssimativa, legata al
fatto che non tiene conto di eventuali ostacoli naturali o artificiali in grado di
deviare la direzione del vento. Se però vi trovate ad alta quota o in mare
aperto, potete andare sul sicuro e applicarla senza timore. Buone
sperimentazioni meteorogiche!
83
LE PRECIPITAZIONI PRECIPITANO, PRECIPITEVOLISSIMEVOLMENTE
Un celebre proverbio recita: «Chi troppo in alto sal cade sovente,
precipitevolissimevolmente!». Detto che si addice alla perfezione al vapore
acqueo che si forma al suolo e che viene eventualmente trasportato in alto
dalle
correnti
d’aria
ascendenti.
(Curiosamente,
la
parola
“precipitevolissimevolmente” è una fra le più lunghe della lingua italiana, ed
è, da sola, un endecasillabo!)
In effetti, fin qui abbiamo scoperto come si spostano le masse d’aria e da
dove soffia il vento. A questo punto può essere interessante scoprire qualcosa
in più del fenomeno meteorologico più diffuso e conosciuto: la pioggia.
Ognuno di noi, almeno una volta nella vita, ha sperimentato sulla propria testa
– protetta o non protetta da ombrelli, cappucci impermeabili o copricapo
improvvisati – l’effetto di quelle che i professionisti del meteo chiamano
tecnicamente “precipitazioni”. Il termine lascia chiaramente intendere che le
gocce d’acqua precipitano, ovvero cadono dall’alto verso il basso. In effetti
non si è mai visto il fenomeno inverso, che andrebbe chiaramente contro la
forza di gravità, anche se… Ma procediamo con ordine.
Piove, guarda come piove
Le gocce di pioggia sono il risultato dell’evaporazione dell’acqua
proveniente da varie sorgenti, come oceani, mari, laghi, fiumi, ma anche
suolo e vegetazione. Quando tante gocce d’acqua si trovano raccolte tutte
insieme si forma una nube. Può però sembrare strano che queste gocce, prima
di cadere sotto l’effetto della forza di gravità, se ne possano stare tranquille
lassù in alto anche per molto tempo, come se, appunto, non fossero soggette
all’inesorabilità della legge di gravitazione universale. In realtà, come si è
detto, il vapore acqueo, che ha origine al livello del suolo, è trasportato verso
l’alto dalle eventuali correnti ascendenti. In questa salita naturalmente si
raffredda, raggiungendo quindi la saturazione. Ora occorre sapere che in
termodinamica il punto di saturazione, per un vapore di una data sostanza, è la
temperatura (non fissa, ma variabile a seconda delle condizioni di pressione)
al di sotto della quale il vapore diviene saturo, ossia ha inizio la
condensazione. Quando si parla di vapore acqueo (o della sua miscela con
l’aria), viene impiegata anche l’espressione “punto di rugiada”, che è appunto
la temperatura – bassa, tipicamente – a cui si forma la rugiada, che è il
fenomeno di condensazione del vapore acqueo al suolo e sulle superfici delle
84
foglie.
In condizioni normali, tuttavia, non si potrebbe avere la condensazione del
vapore e quindi la formazione di nubi, ma si dà il caso che nell’aria siano
presenti particelle di pulviscolo e cristalli di ghiaccio che agiscono come
“nuclei di condensazione” (detti anche nuclei igroscopici), di dimensioni
estremamente piccole, che promuovono e rendono più agevole la
trasformazione di stato del vapore acqueo in gocce di liquido. La pioggia
inizia a cadere solo quando il peso della gocciolina d’acqua diventa maggiore
della resistenza offerta dal moto ascendente che ha portato alla formazione
della nube stessa. È infatti proprio questa resistenza a mantenere le goccioline
in sospensione nell’aria.
Finché restano isolate e di piccole dimensioni, le goccioline d’acqua non
hanno la possibilità di acquistare la velocità di caduta della pioggia. Tuttavia,
queste possono aumentare le proprie dimensioni attraverso due processi: la
collisione con altre gocce e la coalescenza, fenomeno che consiste nel fatto
che goccioline piccole tendono ad aggregarsi a quelle più grandi per rendere
minima l’energia del sistema (si può per esempio osservare il fenomeno della
coalescenza su una superficie bagnata su cui si trovino delle gocce in
movimento: si vedrà che queste tenderanno a raggrupparsi per formare un
minor numero di gocce, ma di dimensioni maggiori). Le gocce che
raggiungono le dimensioni sufficienti per iniziare a cadere hanno velocità
tanto maggiori quanto maggiore è il loro raggio. Queste, cadendo, vanno
ovviamente a urtare altre goccioline più piccole ancora in sospensione,
inglobandole. Le goccioline scendono comunque a velocità piuttosto basse,
tali che basta un moto d’aria ascendente per riportarle in alto. Comunque, in
generale, finché le gocce restano dentro la nube, tendono naturalmente ad
aumentare le loro dimensioni, talvolta anche attraverso processi elettrostatici,
consistenti nell’aggregazione di gocce elettricamente cariche di segno opposto.
A questo punto dovrebbe essere chiaro perché a volte cadono pioggerelline,
mentre altre volte si scatenano veri e propri acquazzoni. In pratica, si tratta di
capire quanto tempo una goccia d’acqua trascorre a ingrandirsi dentro la nube
prima di arrivare al suolo. Ma tenete presente che l’intensità di una pioggia
può aumentare anche nel caso in cui sia “aiutata” dal moto di masse d’aria
discendenti: in questo caso, alla semplice velocità di caduta delle gocce
d’acqua si somma anche quella di discesa delle masse d’aria… con risultati
che a volte possono essere devastanti! “Bombe d’acqua” e piogge torrenziali
trovano origine proprio nella somma di queste velocità.
85
Quando non è acqua… è ghiaccio!
Talvolta capita che il vapore acqueo diventi direttamente ghiaccio, senza
prima passare allo stato liquido (in fisica, il passaggio diretto dallo stato
aeriforme a quello solido prende il nome di brinamento; il processo inverso,
ovvero il passaggio dallo stato solido a quello aeriforme, si chiama
sublimazione). È così che si forma la neve, a patto che l’aria in cui questa si
forma si trovi in particolari condizioni, ovvero in presenza di temperature al
di sotto dello zero centigrado e in assenza di turbolenze e velocità ascensionali
elevate. Come ogni lettore sa bene, la neve è costituita da piccoli cristalli di
ghiaccio, agglomerati a formare i fiocchi, splendide figure simmetriche e
sempre diverse.
È importante sottolineare che i piccoli cristalli da cui ha origine la neve per
brinamento possono, in particolari circostanze, diventare “nuclei di
ghiacciamento” capaci di produrre i ben più massicci chicchi di grandine, che
riescono naturalmente a formarsi e a restare in sospensione solo in presenza di
intensi moti ascendenti di masse d’aria. Quando infine il peso del chicco di
grandine è tale da vincere la forza delle correnti ascensionali, questo precipita
al suolo. Le sue caratteristiche dipendono quindi dalla nube che lo ha
generato: maggiore è l’intensità delle correnti verticali della nube, maggiori
saranno il peso e le dimensioni del chicco. Anche la grandine, quindi, come la
neve, è una forma di precipitazione allo stato solido, composta da cristalli di
ghiaccio, che possono però avere dimensioni e forma variabili. Anche se
solitamente la grandezza dei chicchi è uguale a quella di una nocciolina,
accade spesso che raggiungano dimensioni più ragguardevoli, tali da produrre
seri danni, e non solo alle coltivazioni.
Lo stato della precipitazione – ovvero se è solida o liquida, o in entrambi gli
stati – dipende dalla temperatura degli strati atmosferici attraversati durante la
caduta. In particolare, se la temperatura è negativa a qualunque quota, allora
la precipitazione è generalmente allo stato solido (in realtà la precipitazione
può arrivare sul terreno sotto forma di neve anche per temperature al suolo
leggermente superiori allo zero centigrado). Se invece la precipitazione, che in
quota di solito è allo stato solido, cadendo incontra gli strati atmosferici più
bassi trovandoli a temperature sopra lo zero centigrado, allora si scioglie e
arriva al suolo allo stato liquido sotto forma di pioggia. Tuttavia la grandine
rappresenta un’eccezione. Essa, infatti, date le dimensioni dei chicchi e le
conseguenti velocità di caduta, non viene molto influenzata dalla temperatura
degli strati bassi dell’atmosfera. A dimostrazione di questo possiamo citare il
fatto che le grandinate possono verificarsi anche in estate, quando gli strati
86
atmosferici più bassi sono sicuramente a temperature di diversi gradi sopra lo
zero centigrado.
Nonostante i chicchi di grandine abbiano forme meno suggestive dei fiocchi
di neve, loro fratelli minori, anch’essi hanno una struttura che rivela la loro
storia. Studiati da vicino, i chicchi di grandine mostrano una tipica struttura “a
cipolla”, prodotta, durante il processo di formazione del chicco,
dall’accumulo di vari strati sovrapposti di ghiaccio che non si compenetrano.
All’origine di questi strati è la presenza, nelle nubi in cui si forma la grandine,
di forti correnti verticali, sia ascendenti che discendenti: il chicco è quindi
sottoposto a una serie più o meno lunga di salite e discese durante le quali
aumenta le proprie dimensioni stratificando il ghiaccio. Curiosamente, gli
strati sono costituiti sia da ghiaccio opaco che da ghiaccio trasparente. Gli
strati di ghiaccio opaco, o bianco, si formano alle quote più alte, dove le
temperature molto basse portano a rapida solidificazione le gocce d’acqua,
all’interno delle quali rimangono intrappolate delle bolle d’aria. Gli strati di
ghiaccio trasparente, frutto di un processo di solidificazione più lento, si
producono invece nei passaggi a quote più basse, e quindi a temperature
leggermente più alte. In pratica, ogni strato rappresenta un nuovo viaggio del
chicco verso la parte alta della nube e il suo conseguente ritorno. Questa
ipotesi, fra le tante formulate per spiegare la formazione della grandine, è
conosciuta con il nome di teoria delle “incursioni multiple”, proprio perché i
chicchi sono costretti a cicli di sali-scendi all’interno della nube prima di poter
definitivamente abbandonarla e cadere al suolo.
Ma questa è nebbia o foschia?
Chiudiamo questa sezione dedicata alle precipitazioni… con la nebbia, che
tale non è. La nebbia infatti è un curioso – e spesso fastidioso – fenomeno
meteorologico connesso alla formazione di nubi a contatto con il suolo.
Costituita da goccioline di acqua liquida o da cristalli di ghiaccio sospesi in
aria, la nebbia non ha origine dal raffreddamento – e conseguente
condensazione del vapore acqueo – di masse d’aria in movimento, ma dalla
presenza di un’inversione termica, consistente nel fatto che talvolta l’aria a
contatto con il suolo è più fredda dello strato d’aria sovrastante. In queste
condizioni, l’aria fredda resta intrappolata al suolo perché più pesante dell’aria
calda che occupa lo strato immediatamente superiore. La nebbia inizia a
formarsi solo quando l’umidità relativa di una massa d’aria raggiunge il 100
per cento, ovvero quando il vapore acqueo che questa contiene arriva a
saturazione.
87
Chiunque abbia viaggiato immerso nella nebbia sa che questa si manifesta
come un alone biancastro che limita la visibilità degli oggetti. Questo effetto di
diffusione della luce da parte dell’acqua in sospensione prende il nome di
“effetto Tyndall”, dal nome del fisico irlandese John Tyndall (1820-1893) che
per primo lo descrisse. In particolare, l’effetto Tyndall si manifesta ogni qual
volta ci si trovi in presenza di particelle di dimensioni comparabili a quelle
delle lunghezze d’onda della luce incidente, come possono appunto essere
quelle presenti in sistemi colloidali, nelle sospensioni o nelle emulsioni (e la
nebbia, come abbiamo accennato, è appunto un sistema colloidale del tipo
aerosol liquido, dove la fase dispersa è costituita dalle gocce d’acqua e la fase
disperdente è costituita dalle molecole d’aria). Oltre che in caso di nebbia,
l’effetto Tyndall può essere evidenziato, per esempio, osservando i raggi di
luce solare quando attraversano regioni dell’atmosfera in cui sono sospese o
disperse particelle solide, come il pulviscolo atmosferico (costituito da
microscopici grani di polvere), o liquide, come le gocce d’acqua.
Attenzione, però. I fisici, quando parlano di diffusione, intendono un
fenomeno molto preciso. La diffusione è infatti la deviazione dalla
propagazione rettilinea di un fascio di luce provocata, nell’attraversamento di
un mezzo materiale (come è appunto l’aria), dall’interazione del fascio di luce
con i costituenti del mezzo, ovvero con gli atomi, le molecole, le
microscopiche particelle solide e liquide in sospensione. La diffusione è
dunque un fenomeno connesso alla riflessione della luce. Si parla di
diffusione perché in questo caso le riflessioni sono sostanzialmente
disordinate e quindi in tutte le direzioni, a seconda di come il singolo raggio di
luce colpisce la molecola d’aria.
In aria, poiché le particelle – chiamate tecnicamente “centri diffusori” – che
diffondono la luce sono tipicamente di dimensioni molto minori della
lunghezza d’onda della luce incidente, è attiva in particolare la diffusione di
Rayleigh, che prende il nome dal fisico inglese Lord John William Strutt
Rayleigh (1842-1919), premio Nobel per la fisica nel 1904 per aver scoperto
l’argon. In questo tipo di processo, l’intensità della diffusione aumenta con il
diminuire della lunghezza d’onda: la radiazione blu è quindi maggiormente
diffusa di quella rossa.
La diffusione di Rayleigh della radiazione solare da parte delle molecole
dell’atmosfera terrestre è la causa del colore azzurro del cielo di giorno.
Quando un fascio di luce bianca proveniente dal Sole attraversa l’aria
atmosferica, esso viene infatti diffuso in maniera diversa a seconda delle sue
varie componenti di colore – quelle che si manifestano in maniera spettacolare
88
con l’arcobaleno – con le componenti bluastre, corrispondenti alle lunghezze
d’onda minori, deviate in misura maggiore di quelle rossastre, corrispondenti
alle lunghezze d’onda maggiori. Il risultato è che la luce bluastra viene deviata
lateralmente nelle diverse direzioni, mentre quella rossastra viene
sostanzialmente trasmessa senza deviazioni. Ecco perché al tramonto il cielo è
rosso: la luce, dovendo attraversare uno strato di aria molto ampio, viene
quasi interamente privata della componente blu per via della diffusione di
Rayleigh, restando così solo quella rossa.
L’effetto Tyndall è per molti versi simile alla diffusione di Rayleigh, nel
senso che anche in questo l’intensità della luce diffusa dipende dalla
lunghezza d’onda, con la luce blu più diffusa di quella rossa. Si può osservare
un esempio di questa “regola” notando il colore bluastro dei fumi di scarico
delle motociclette, composti da particelle in grado di evidenziare bene
l’effetto. Però, a differenza della diffusione di Rayleigh, descrivibile da una
semplice formula matematica, nell’effetto Tyndall la dipendenza dell’intensità
della luce diffusa dalle dimensioni e dalla forma delle particelle è così
complessa che non è facilmente esprimibile in termini matematici. Ma se le
particelle colloidali sono di forma sferoidale (ovvero sono assimilabili a
piccole sferette), l’effetto Tyndall diventa matematicamente analizzabile
usando la teoria sulla diffusione proposta dal fisico tedesco Gustav Mie
(1868-1957), che ammette particelle di dimensioni confrontabili con la
lunghezza d’onda della luce incidente.
A qualcuno potrebbe venire la curiosità di sapere perché nelle aree urbane le
nebbie sono più frequenti che altrove. La risposta è più semplice di quanto
pensiate: poiché in città le emissioni inquinanti – fumi, polveri e altro ancora
– sono elevate, il vapore acqueo trova più facilmente nuclei di condensazione,
costituiti appunto dalle particelle solide o liquide sospese in aria, a costituire
quello che viene tecnicamente chiamato “aerosol atmosferico”.
La nebbia generalmente è di colore biancastro. Ma può talvolta capitare di
vederla giallastra o anche più scura, tipicamente proprio in città. Il motivo è
legato alla presenza dell’inquinamento atmosferico, ovviamente. Allora, più
che nebbia, merita chiamarla con il suo vero nome: “smog”, termine inglese
estremamente efficace per rappresentare la nebbia mista al fumo inquinante.
Già, perché smog deriva dalla contrazione del termine smoke (fumo) con il
termine fog (nebbia), e non è affatto sano viverci immersi dentro.
Un ultimo accenno alla differenza fra nebbia e foschia. Già, perché nel
linguaggio comune può capitare di confonderle e di usare un termine al posto
di un altro, ma a livello internazionale esiste una convenzione che le definisce
89
con precisione (per esempio, quando si vuole indicare con chiarezza quali
sono le condizioni meteorologiche di un aeroporto). Si parla quindi
ufficialmente di nebbia quando la visibilità è inferiore a un chilometro di
distanza, mentre quando la visibilità supera il chilometro si parla tecnicamente
di foschia. In pratica, la foschia è una nebbia più rada. E meno pericolosa.
90
ERA UNA NOTTE BUIA E TEMPESTOSA…
A un tratto un lampo di luce squarciò il buio. Pochi secondi dopo, un suono
cupo rimbombò sinistro. Fermiamoci qua, perché non potremmo mai
superare il genio letterario del bracchetto Snoopy, il cane di Charlie Brown
(personaggi inventati dalla matita del fumettista statunitense Charles M.
Schulz, 1922-2000), quando si cimenta alla macchina per scrivere come autore
di romanzi dalla trama improbabile. E poi tuoni e fulmini sono davvero
abusati, nel genere horror, e non solo in quello. Comunque l’occasione è
servita per parlare dei fenomeni elettrici atmosferici.
Oggi sappiamo che i fulmini sono scariche elettriche in aria, ma per lungo
tempo questa certezza non c’era. Narra infatti la storia – che è anche un po’
leggenda – che il primo a intuire la natura elettrica dei fulmini sia stato il
celebre autodidatta Benjamin Franklin (1706-1790), noto anche per la sua
attività editoriale e politica nei nascenti Stati Uniti d’America, alla cui
unificazione contribuì in modo significativo. Fra le invenzioni di Franklin,
oltre al parafulmine, di cui diremo fra poco, si annoverano anche l’ora legale
(proposta proprio per risparmiare energia) e le lenti bifocali (non vedendo
bene né da vicino, né da lontano, si ingegnò per trovare una soluzione che gli
permettesse di non cambiare continuamente paio d’occhiali). Editore di
giornali, fu il primo a introdurre le pagine dedicate alle previsioni del tempo.
Tornando agli studi di Franklin sui fulmini, la storia racconta che lo
scienziato fosse rimasto molto impressionato dall’invenzione della cosiddetta
“bottiglia di Leida”, che può essere considerata la forma più antica di
condensatore, cioè del componente elettrico capace di immagazzinare
l’energia in un campo elettrostatico, accumulando al suo interno una certa
quantità di carica elettrica. Inventata nel 1745 dal fisico olandese Pieter van
Musschenbroek (1692-1761), che dette al dispositivo il nome della propria
città natale (nella cui università insegnava fisica), la bottiglia consiste in un
contenitore di vetro (da cui il nome di bottiglia, che fu il primo oggetto a
essere utilizzato come contenitore), rivestito sia internamente che esternamente
da uno strato di materiale metallico. Il rivestimento interno viene poi collegato
all’elettrodo di un generatore elettrostatico attraverso un conduttore (un cavo,
una catena o altro materiale metallico), mentre il vetro funge da dielettrico,
ovvero da isolante. Date queste caratteristiche, la bottiglia di Leida è in grado
di accumulare una grande quantità di carica elettrica, con la quale diventa
dunque possibile compiere interessanti esperimenti di elettrostatica, fra cui
91
appunto l’osservazione delle scariche elettriche.
Dopo aver costruito una batteria di bottiglie di Leida, nel 1748 Franklin
descrisse con estrema accuratezza le molte analogie osservate fra i fulmini e le
scariche elettriche prodotte in laboratorio con l’impiego delle bottiglie di
Leida, notando che entrambi i fenomeni sono caratterizzati da luce dello stesso
colore, da movimenti rapidi e diverse altre proprietà, fra cui anche quella di
generare un odore caratteristico (che adesso sappiamo essere quello
dell’ozono prodotto in aria dalla scarica elettrica, come abbiamo visto nelle
pagine precedenti).
Genio poliedrico, Benjamin Franklin è noto anche per essere stato uno dei
primi giocatori di scacchi delle colonie americane (scrisse anche un trattato
sull’argomento, pubblicato nel 1786). Iniziò a giocarci attorno al 1733, proprio
mentre stava imparando la lingua italiana, come racconta in un gustoso
aneddoto della sua autobiografia: «Nel 1733 avevo iniziato lo studio delle
lingue. Divenni in breve padrone del francese, tanto da poter leggere interi
libri senza sforzo alcuno. Poi passai all’italiano. Un mio conoscente, che
proprio allora vi si stava applicando, soleva spesso tentarmi a una partita a
scacchi. Mi avvidi che ciò andava oltremisura a discapito del tempo che
dovevo riservare allo studio e, di conseguenza, rifiutai di giocare ancora se
non a questa condizione: che il vincitore di ogni partita avesse il diritto di
imporre un compito, concernente parti della grammatica da mandare a
memoria, o traduzioni, ecc., che il perdente doveva svolgere sul suo onore
prima dell’incontro successivo. Giacché come giocatori eravamo più o meno
alla pari, a forza di sconfitte imparammo entrambi quella lingua».
Tornando alle ricerche sui fenomeni elettrici, pur limitandosi agli aspetti
qualitativi, Franklin aveva correttamente dedotto che, sebbene le cariche si
accumulassero sulle armature del condensatore (fu lui a definire armature i
due rivestimenti di metallo della bottiglia, come pure i due piani metallici dei
condensatori piani inventati da Franklin stesso), la scarica si produceva
all’interno del vetro o comunque del materiale che funge da isolante. Franklin
allora ipotizzò che le nubi trasportassero cariche elettriche e che queste, in
determinate circostanze, facessero scoccare in aria la scarica, in quanto questa
doveva essere della stessa natura di quella prodotta da una bottiglia di Leida.
La dimostrazione che il fulmine era un fenomeno elettrico del tutto simile alla
scarica elettrica osservata in laboratorio non tardò ad arrivare: nel 1752, dopo
aver scoperto il cosiddetto “potere delle punte”, realizzò il primo parafulmine
e lo mise in azione, mostrando al mondo da un lato il trasporto di elettricità da
parte delle nubi, dall’altro come un’asta a punta collegata a terra potesse
92
svolgere efficacemente la funzione di protezione dalle scariche elettriche ad
altissimo potenziale. (Per “potere delle punte” si intende la capacità delle
punte in conduttori carichi di concentrare le cariche elettriche e quindi di
produrre un campo elettrico più intenso in prossimità delle punte stesse.
Questo effetto spiega perché i fulmini colpiscano più facilmente guglie, alberi
o parafulmini: l’aria infatti si ionizza più facilmente dove il campo è più
intenso, ed è quindi lì che si ha la maggiore probabilità che si formi una
scarica elettrica).
Un fulmine – noto anche con il nome di saetta o folgore – è dunque una
“scintilla” che scocca tra una nube e il suolo o fra zone diverse di una stessa
nube (o anche fra due nubi diverse). Perché il fenomeno si verifichi occorre
però che queste abbiano diverse concentrazioni di carica elettrica e che si
trovino quindi a potenziali elettrici differenti. Quando la differenza di
potenziale è molto alta o supera comunque un certo valore, l’aria inizia a
ionizzarsi e perde quindi le sue capacità isolanti, liberando la scarica elettrica.
Pur essendo studiati da tempo, non esiste ancora una teoria definitiva che
spieghi esattamente come si formi ed evolva un fulmine in aria. Fra le cause
possibili sono state introdotte perturbazioni atmosferiche di varia natura,
come vento, umidità, variazioni di pressione atmosferica, ma anche la
ionizzazione causata dall’ingresso in atmosfera di particelle provenienti dallo
spazio (raggi cosmici) o dal Sole (vento solare). Il problema fondamentale
riguarda la comprensione di come possano formarsi e accumularsi così tante
cariche nelle nubi e di quale sia il meccanismo che dà il via alla scarica
elettrica.
Fra le diverse teorie, sembra piuttosto attendibile quella basata sulle seguenti
supposizioni: la ionizzazione dell’aria a causa dei raggi cosmici e della
radiazione proveniente dal Sole, associata alla maggiore capacità delle gocce
d’acqua (o dei cristalli di ghiaccio) di assorbire più facilmente ioni negativi
piuttosto che positivi. A causa della gravità, all’interno della nube possono
avviarsi dei moti convettivi che portano le gocce d’acqua, cariche
negativamente, verso il basso, lasciando in alto quelle positive dell’aria. In
questa maniera, la parte bassa della nube si carica negativamente e quella alta
positivamente, mentre nella regione intermedia si verificano processi di
rimescolamento che la neutralizzano dal punto di vista elettrico. Anche le
particelle di ghiaccio all’interno della nuvola possono essere un elemento
fondamentale nello sviluppo dei fulmini, perché in grado di provocare la
separazione forzata delle particelle con cariche positive e negative,
contribuendo così all’innesco della scarica elettrica. Questi e altri
93
costituiscono senz’altro interessanti sforzi teorici, ai quali, però, manca ancora
il supporto della verifica sperimentale.
Ognuno di noi sa benissimo che, quando cade un fulmine, al fenomeno
luminoso, il lampo, si accompagna sempre anche quello sonoro, il tuono.
L’espansione del canale di aria ionizzata (quindi si tratta di un plasma) causata
dal passaggio di corrente elettrica genera infatti anche un’onda sonora molto
intensa. A causa delle notevoli differenze nelle velocità di propagazione delle
onde luminose rispetto a quelle sonore, un osservatore distante vede il lampo
sensibilmente prima di sentire il tuono. Il suono viaggia infatti a velocità
molto inferiore a quella della luce (circa 340 metri al secondo contro 300.000
chilometri al secondo). Facendo un rapido calcolo approssimato, se per
semplicità si considera l’arrivo della luce praticamente istantaneo, si può
valutare che il suono accumula un ritardo di circa tre secondi per ogni
chilometro di distanza dal fulmine. Con questa informazione, ci si può
divertire a fare valutazioni immediate su quanto può distare un temporale da
noi e valutare, ripetendo le misure dopo qualche tempo, se si sta avvicinando
o allontanando.
Il lettore attento si sarà reso conto che quanto scritto fin qui riguarda solo i
fulmini visibili tra nuvola e suolo. Purtroppo i ricercatori non sono ancora in
grado di capire che cosa accade dentro la nuvola e se, per esempio, quando
vediamo un fulmine uscire da una nube, lo vediamo nella sua interezza o
vediamo solo la porzione al di fuori della nube stessa. Ancora non sappiamo
quindi come funzionano i fulmini all’interno di una singola nube o fra nube e
nube, cioè fulmini che si sviluppano senza raggiungere la terra. Quel che è
certo è che, perché si verifichi una scarica elettrica intensa all’interno di una
stessa nube, occorre che il processo di accumulo e di separazione delle cariche
elettriche sia stato efficientissimo anche su piccole distanze.
Bene, ma sono veramente pericolosi i fulmini? Purtroppo sì. Ogni anno le
cronache raccontano di persone rimaste folgorate dalla caduta di un fulmine.
Alcuni studi statistici rivelano che, in Italia, i fulmini sono la terza causa di
morte per evento naturale, preceduti solo dai terremoti e dalle inondazioni.
Non male, raggiungere la medaglia di bronzo senza essere particolarmente
temuti! Per fortuna, solo il 20-30 per cento delle persone colpite da un
fulmine muore, ma, alla conta finale, i decessi ammontano a circa un migliaio
all’anno in tutto il mondo. A uccidere una persona colpita da un fulmine sono
le elevate correnti in gioco, che riscaldano i tessuti, ustionandoli, e possono
danneggiare il cervello, oltre che arrestare il battito cardiaco. Tutto questo
accade in una frazione di secondo. Ecco perché, quando ci troviamo
94
all’esterno e sta per arrivare una tempesta, è opportuno trovare rapidamente
rifugio. Tenete conto che, per quanto sia improbabile essere colpiti da un
fulmine, ogni anno, solo in Italia, cade oltre un milione e mezzo di fulmini…
Bene quindi essere preparati e adottare le adeguate precauzioni!
95
IV
La fisica del tempo libero
... ovvero di montagne russe, di tango
e di calcio
Quando diciamo che la fisica è ovunque, intendiamo proprio quello che
diciamo, alla lettera. Ovvero, che le leggi della fisica agiscono sempre e non ci
abbandonano mai, nemmeno quando vorremmo distrarci un attimo, perché
siamo, per esempio, al Luna Park o in qualche altro parco di divertimenti.
Anzi, se le giostre più spettacolari del Luna Park – come le montagne russe –
sono tali… è proprio grazie alla fisica!
Siamo dunque perseguitati dalla fisica? Sì, non c’è scampo, rassegnatevi.
Anche quando state ballando un bel tango avvinghiati in un abbraccio
appassionato al vostro o alla vostra partner. Già, perché anche quando si balla
– abbiamo citato il tango, ma potremmo citare qualunque altro tipo di ballo,
dalla danza classica all’hip hop – gravità, attriti e momenti angolari sono
sempre lì, ad assisterci e, soprattutto, ad aiutarci nel realizzare le diverse
figure.
Allora, al parco divertimenti non possiamo distrarci, in sala da ballo
nemmeno, che la buona sorte arrivi in un campo di calcio? Neanche per
sogno, cari lettori. Perché il calcio – come praticamente tutti gli sport, di cui
abbiamo già affrontato nuoto e sci – è il regno della fisica. Ma ve lo
immaginavate già, vero?
96
MONTAGNE RUSSE: BASTA LA FISICA DI NEWTON!
Iniziamo dal parco divertimenti, dove una delle maggiori attrazioni per
grandi e piccini è il roller coaster (letteralmente: slitta a rotelle), meglio noto
in italiano con l’espressione “otto volante” o, meglio, “montagne russe”. Il
nome ci fa capire dove è nata l’idea. Già nel XVII secolo, a San Pietroburgo e
dintorni, erano diffuse delle attrazioni in cui le slitte venivano fatte scivolare
lungo colline di ghiaccio appositamente progettate. Dalla Russia l’attrazione si
diffuse rapidamente nel resto d’Europa, dove si cominciò a pensare di
sostituire le slitte con carrelli dotati di ruote. Le prime montagne russe con
carrelli fecero la loro comparsa a Parigi agli inizi del XIX secolo, dove, per
onorare la loro origine, presero il nome con cui sono note oggi.
Curiosamente, quando le montagne russe con carrelli e binari tornarono in
Russia, a queste venne dato il nome di “montagne americane” e con questo
nome sono note e diffuse nei principali parchi divertimenti di quel Paese!
Gli ingredienti fisici delle montagne russe sono inerzia, gravitazione (vedi
Gravitazione universale e massa) e principio di conservazione dell’energia.
Tutto qua. Dell’importanza della forza centrifuga nei sistemi di riferimento
non inerziali abbiamo parlato nel secondo capitolo nelle pagine dedicate allo
sci): in pratica, per sopravvivere al cosiddetto “giro della morte”, basta che il
carrello, quando siamo a testa in giù, abbia una velocità tale che la forza
centrifuga, la cui intensità dipende appunto dalla velocità, sia uguale e
contraria alla forza peso, così che questa, che ci tira verso il basso, è
contrastata istante per istante da quella che, invece, tenderebbe a spingerci
verso l’esterno dell’anello. Per questo motivo, se ci avesse dedicato del
tempo, avrebbe potuto costruirle anche Isaac Newton, un secolo e mezzo
prima. Il “motore” dei carrelli è la gravità. Il gioco consiste nel continuo
scambio fra energia potenziale gravitazionale (vedi Gravitazione universale e
massa), ovvero l’energia di posizione accumulata con la prima salita (l’unica
in cui i carrelli sono trainati), e l’energia cinetica, cioè l’energia di movimento.
Più il carrello è in alto, maggiore è la sua energia potenziale. Scendendo verso
il basso attratto dalla forza di gravità, il carrello aumenta la sua velocità e
trasforma (in parte o totalmente) l’energia potenziale in energia cinetica, per
poi riconvertirla in parte in potenziale risalendo sulla collina successiva e così
via per tutto il circuito.
Se si trascurano gli attriti dell’aria e delle rotaie, la somma dei due tipi di
energia rimane costante per tutto il moto ed è uguale all’energia totale del
97
sistema, definita proprio dall’altezza della prima collina. Il resto lo fa l’inerzia,
già scoperta da Galileo: un corpo in moto tende a rimanere in moto fino a che
non interviene una forza esterna. Nel caso, le rotaie che guidano i carrelli e i
freni che ne terminano la corsa.
GRAVITAZIONE UNIVERSALE E MASSA
Come ci ha insegnato Newton, la formula che esprime l’intensità della forza di gravità stabilisce che fra
due corpi dotati di massa viene esercitata una reciproca attrazione in misura proporzionale al prodotto
delle due masse e inversamente proporzionale all’inverso del quadrato della distanza che li separa. La
forza di gravità agisce sia sulla mela che cade da un albero (la tradizione vuole che sia stata la caduta
di una mela sulla testa del grande scienziato a ispirargli la formulazione della teoria), sia sulla Luna che
orbita attorno alla Terra, sia sulla Terra che orbita attorno al Sole e via dicendo. La gravità terrestre altro
non è che un caso particolare di una legge che ha validità universale: l’importanza dell’opera dello
scienziato inglese fu anche quella di avere compreso e realizzato la prima vera grande “unificazione”,
ovvero di riuscire a unificare in una sola legge le descrizioni di fenomeni fisici apparentemente così
diversi come la caduta di una mela (gravità terrestre) e il moto della Luna attorno al nostro pianeta
(gravità celeste).
La forza gravitazionale agisce su tutti i corpi indiscriminatamente, a prescindere dalla loro forma,
densità o composizione chimica – anche se su quest’ultimo punto non molti anni fa venne sollevata
qualche eccezione, rientrata a seguito di esperimenti molto accurati –, in maniera sempre attrattiva.
Grazie a questa sua importante proprietà e al fatto che i suoi effetti sono percepibili anche a
grandissime distanze, la forza di gravitazione universale rappresenta l’interazione che da sola definisce
l’evoluzione a grande scala dell’Universo. Ma per sapere con quale intensità essa agisce, occorre
conoscere in generale i valori delle masse dei corpi che si attraggono reciprocamente e dei quali
intendiamo descrivere il moto. Se cioè vogliamo calcolare con esattezza la forma dell’orbita della Terra
attorno al Sole, occorre determinare prima le masse del nostro pianeta e della stella attorno alla quale
questo orbita (in realtà, nella pratica si compie proprio il passaggio inverso, ovvero dalla forma delle
orbite si risale alle masse). Lo stesso ragionamento vale per qualunque corpo nell’Universo: l’orbita del
Sole attorno al centro della nostra galassia è completamente determinata dalla quantità di massa
compresa all’interno del volume di spazio avente come raggio la distanza media che separa il Sole dal
centro stesso, il moto di “caduta” di una galassia verso un ammasso di galassie è perfettamente
determinato dalle masse in gioco, in particolare dalla massa della galassia in caduta e dalla massa
complessiva dell’ammasso che la sta attraendo nella sua morsa fatale. Insomma, per calcolare la
traiettoria nello spazio di un corpo soggetto all’azione gravitazionale, e conoscerne istante per istante
posizione e velocità rispetto a un sistema di riferimento prestabilito, è necessario determinare la forza
che su questo agisce e quindi conoscere la sua massa e quella di tutti i corpi che su di esso agiscono.
La massa è pertanto una delle caratteristiche intrinseche di un corpo ed è di fondamentale importanza
in fisica e in astrofisica. La sua conoscenza è imprescindibile non solo per calcolare i moti dei corpi
celesti nello spazio, ma anche per determinare i diversi processi evolutivi che registra una stella nel
corso della sua vita. È infatti dalla massa iniziale (e in misura minore dalla composizione chimica) che
dipende l’evoluzione di una stella, dalla nascita fino alla morte. Ma, ancora, dalla massa totale
dell’Universo dipende la sua geometria e quindi la sua dinamica complessiva: se è chiuso e la sua
espansione un giorno si fermerà, oppure se è aperto e si espanderà pertanto all’infinito e per sempre, lo
possiamo dedurre solamente cercando di stimare quanta materia – ed energia – è contenuta in esso, e
questo è possibile studiando proprio l’azione che su questa materia esercita l’onnipresente forza di
gravità.
Classicamente, la forza gravitazionale è considerata un’azione a distanza, ovvero un’interazione fra due
corpi non a contatto. Più modernamente, si preferisce introdurre il concetto di campo gravitazionale. La
presenza di una massa nello spazio, altera le proprietà di questo spazio in maniera tale che,
introducendo una seconda massa, questa risente appunto di una forza di attrazione verso la prima
massa. Così possiamo dire che la seconda massa non interagisce a distanza con la prima, ma che
interagisce con il campo gravitazionale generato da questa e in cui si trova immersa. Il campo
gravitazionale è un tipico esempio di campo di forza: un corpo localizzato in una certa zona dello spazio
98
è soggetto a una forza dovuta alla presenza in quella zona del campo. Nel caso della Terra, il campo
gravitazionale è rappresentato dal vettore accelerazione di gravità.
Delle quattro “forze fondamentali” (le altre tre sono l’elettromagnetica, la nucleare forte e la nucleare
debole), la gravità è stata la prima a essere scoperta – basta osservare la caduta a terra di un corpo
come fece Newton, appunto – e studiata. Ma, nonostante gli sforzi di generazioni di fisici, continua a
sottrarsi a una piena comprensione, rimanendo per certi aspetti misteriosa. Eppure governa la struttura
e l’evoluzione dell’Universo nel suo insieme.
Nel corso dei secoli la comprensione di questa forza è mutata solo grazie a due grandi scienziati: Isaac
Newton, che per primo formulò la legge di gravitazione universale, e Albert Einstein, che con la teoria
della relatività generale “ridusse” la gravità a un “semplice” problema di geometria.
Energia di movimento
Per capire come funzionano le montagne russe bisogna approfondire il
concetto di energia. Partiamo con qualche definizione. Innanzi tutto, il lavoro,
termine con cui, in fisica, si indica il prodotto di una forza applicata a un
corpo per lo spostamento che tale forza fa compiere a tale corpo (in realtà la
definizione è un po’ più complessa, ma per i nostri scopi è sufficiente questa).
Se allora consideriamo un corpo in quiete e gli applichiamo una forza costante
per un certo spostamento, ovvero compiamo un lavoro su di esso trascurando
le forze di attrito, percorsa tale distanza, il corpo avrà acquisito una
determinata velocità, e quindi una certa energia di movimento: l’energia
cinetica, che è appunto l’energia di un corpo legata al suo stato di moto.
Questa dipende non solo dalla sua velocità (in realtà dal quadrato della
velocità del corpo), ma anche dalla sua massa.
In generale, si può dimostrare un teorema, noto come teorema delle forze
vive, secondo cui il lavoro compiuto da una forza esterna agente su un corpo
è pari alla variazione di energia cinetica del corpo stesso (nel caso precedente
l’energia cinetica iniziale era nulla, essendo il corpo inizialmente in quiete).
Naturalmente, tale variazione può anche essere negativa: è il caso per esempio
dell’azione delle forze di attrito, che, avendo verso opposto a quello dello
spostamento, compiono sempre lavoro negativo.
Principio di conservazione dell’energia
Nella scienza delle montagne russe non c’è però solo l’energia cinetica, ma è
coinvolto anche un altro tipo di energia, quella potenziale. Per capirla, occorre
prima definire il concetto di forza conservativa. Si definisce forza
conservativa una qualunque forza il cui lavoro dipende esclusivamente dalla
posizione iniziale e finale del corpo a cui essa è applicata, indipendentemente
dal cammino percorso dal corpo durante il processo. Per un corpo su cui
agiscono forze conservative è quindi possibile definire un’energia potenziale,
funzione solo delle coordinate spaziali, che rappresenta la quantità di energia
99
che il corpo possiede in virtù della sua posizione nello spazio (analogamente
si può affermare che l’energia cinetica rappresenta la quantità di energia che
un corpo possiede in virtù del suo stato di moto). Si può dimostrare che il
lavoro di una forza conservativa per spostare un corpo da un punto dello
spazio a un altro punto è pari alla differenza fra le energie potenziali del corpo
nei due punti iniziale e finale.
Eccoci al dunque: quando su un corpo agiscono solo forze conservative,
l’energia meccanica, data dalla somma dell’energia cinetica T con l’energia
potenziale U, rimane costante per tutto il processo: T+U=costante. È questo il
principio di conservazione dell’energia meccanica.
Un esempio di forza conservativa è proprio quella gravitazionale (lo avevate
immaginato, vero?). Questa infatti dipende esclusivamente dalla posizione che
un corpo dotato di massa ha nel campo gravitazionale. Sulla superficie
terrestre, ovvero nel campo gravitazionale del nostro pianeta, portando un
corpo di massa m a un’altezza h dal suolo, questo acquista un’energia
potenziale pari al prodotto mgh, dove g è l’accelerazione di gravità. In
particolare, qualunque sia il cammino percorso dal corpo, il lavoro che si
compie su di esso per portarlo alla quota h è sempre pari a mgh. Per il
principio di conservazione dell’energia, cadendo il corpo aumenta la propria
energia cinetica di un valore pari a quello dell’energia potenziale acquisita
nella salita.
Al contrario della forza gravitazionale, le forze di attrito, opponendosi
sempre al moto (il loro lavoro è sempre negativo), non sono conservative. In
loro presenza non è quindi possibile applicare il principio di conservazione
dell’energia meccanica.
100
MI SENTO LEGGERISSIMO!
I momenti più emozionanti, sulle montagne russe, sono quelli in cui
scendiamo per le discese più ripide. Ci pare di essere leggerissimi, quasi senza
peso. Un fenomeno analogo – anzi, ancora più marcato – si ha nelle attrazioni
denominate “torri di caduta”, dove è sottinteso l’attributo “libera”, nel senso
che in queste torri si viene portati ad alcune decine di metri di altezza per poi
essere lasciati in caduta libera per almeno metà dell’altezza della torre (poi
devono entrare necessariamente in azione i freni, altrimenti rischiamo di
schiantarci al suolo e quindi di non poter raccontare agli amici l’emozione che
abbiamo provato…). Ma come è possibile che ci si senta più leggeri? Siamo
davvero più leggeri?
Prima di dare risposta a queste domande, è bene chiarire il significato dei
due termini massa e peso, che nel linguaggio comune sono spesso usati come
sinonimi, ma che in fisica hanno invece significati ben definiti e distinti.
Mentre con massa (per amore di precisione, in fisica esistono due tipi di
masse, quella inerziale e quella gravitazionale, ma qui e nel seguito non
faremo mai distinzione fra queste, essendo assolutamente equivalenti) si
intende la quantità di materia di cui è composto un corpo o, più precisamente,
la misura della resistenza di un corpo a essere accelerato sotto l’azione di una
forza, con peso di un corpo si intende propriamente la forza di gravità che
agisce su di esso quando questo è sottoposto all’azione attrattiva di un altro
corpo, come accade per esempio per ciascun oggetto posto sulla superficie del
nostro pianeta.
Se diamo un calcio a un pallone, esso si allontanerà a una certa velocità dal
nostro piede, ma dando un calcio della stessa intensità a un blocco di cemento
non solo ci faremo male, ma questo con ogni probabilità non si sposterà di un
millimetro. Ne deduciamo che, avendo applicato a essi la stessa forza (la
nostra pedata), la massa del blocco di cemento è molto maggiore di quella di
un pallone da calcio. Naturalmente anche il peso del blocco di cemento sarà
maggiore del peso del pallone da calcio, ma mentre la massa di un corpo è
una sua proprietà intrinseca, del tutto indipendente da qualunque altro fattore,
il suo peso dipende proprio dall’intensità con cui agisce su di esso la forza di
gravità. Lo stesso blocco di cemento dell’esempio appena descritto, se posto
sulla superficie lunare peserebbe circa un sesto di quanto pesa sulla superficie
terrestre, ma la sua massa rimane sempre la stessa, sulla Luna come sulla
Terra: dopo tutto, il numero di atomi che lo compone è rimasto inalterato.
101
Ma qual è la grandezza che determina l’intensità dell’attrazione gravitazionale
esercitata da un certo pianeta o satellite su un corpo materiale? È
l’accelerazione gravitazionale, ovvero l’accelerazione cui è soggetto un
qualunque corpo dotato di massa per il solo fatto di essere immerso in un
campo gravitazionale. Alla superficie del nostro pianeta, per esempio, questa
vale 9,8 m/s , ma sulla Luna questa accelerazione vale approssimativamente
1,6 m/s , mentre su Giove vale circa 24,9 m/s .
Nota la massa di un corpo, conoscendo i valori dell’accelerazione di gravità
sulla superficie dei diversi pianeti è dunque possibile calcolarne il peso. Basta
applicare la seguente espressione, che è la seconda legge della dinamica
applicata a un corpo sotto l’effetto della forza di gravità (vedi Le tre leggi
della dinamica)
P=mg
dove con P indichiamo il peso (misurato in Newton – simbolo N –, l’unità di
misura della forza), con m la massa (misurata in chilogrammi) e con g
l’accelerazione di gravità (misurata in metri al secondo quadrato). Così, 100
kg sulla Terra pesano 980 N, sulla Luna 160 N e su Giove 2490 N!
Ma allora che cosa intendiamo quando diciamo che “pesiamo” 80 kg?
Intanto dobbiamo fare attenzione alle unità di misura, perché qui il simbolo
kg indica i chilogrammi-forza (kgf, detti anche chilogrammi-peso, appunto) e
non i chilogrammi-massa. In particolare, 1 kgf è, per definizione, la forza
necessaria ad accelerare di 9,80665 m/s la massa di 1 kg: in altre parole 1 kgf è
equivalente a 9,80665 N. Allora, se ci troviamo in un luogo della Terra dove g
vale esattamente 9,80665 m/s non abbiamo alcun problema ad affermare che
la nostra massa è pari a 80 kg, altrimenti occorre molta attenzione, perché in
realtà il valore dell’accelerazione di gravità sulla superficie terrestre non è
sempre lo stesso (la Terra non è una sfera perfetta e ruota su se stessa). Così
troviamo luoghi sul nostro pianeta dove g vale 9,82 m/s e luoghi dove vale
9,78 m/s : nel primo caso il nostro peso sarà leggermente superiore rispetto al
secondo, anche se non ci vedremo ingrassati di un etto (cioè siamo in
condizioni di parità di massa)… È proprio vero che a volte le bilance
ingannano!
LE TRE LEGGI DELLA DINAMICA
In fisica si definisce accelerazione un qualunque cambiamento di velocità, sia in intensità che in
direzione, di un corpo in un dato intervallo di tempo (attenzione: un corpo in movimento che viene
frenato subisce comunque un’accelerazione, che in questo caso è negativa). Un corpo a riposo o,
102
come si dice, in quiete, non è accelerato, ma non lo è nemmeno un corpo che si muove di moto
rettilineo uniforme, ovvero con velocità costante sempre con lo stesso verso lungo la stessa direzione.
Anche un corpo che, pur muovendosi con velocità uniforme, percorre una traiettoria curva è pertanto
accelerato, essendo necessaria l’azione di una forza per “piegare” costantemente la sua direzione di
moto, come accade per esempio nel caso dell’orbita della Luna attorno al nostro pianeta. Se, infatti, la
forza gravitazionale che la Terra esercita sulla Luna cessasse all’improvviso la sua azione, la Luna si
troverebbe libera di proseguire il suo moto con velocità rettilinea uniforme esattamente lungo una
traiettoria tangente all’orbita originaria (nel punto in cui si trovava al momento in cui la forza si è
annullata).
A descrivere le regole del moto dei corpi quando questi sono soggetti all’azione di forze esterne fu come
abbiamo visto Isaac Newton che, nei suoi Philosophiae Naturalis Principia Mathematica, pubblicati nel
1687, mostrò non solo come agisce la forza di gravitazione universale, ma enunciò anche le tre
importantissime leggi della dinamica.
Prima legge (principio di inerzia): un corpo materiale permane nel suo stato di quiete o di moto rettilineo
uniforme se non intervengono forze esterne ad alterarne lo stato; in altre parole, è la forza applicata a un
corpo a modificare il suo stato dinamico, ovvero a generare su di esso un’alterazione del suo moto, che
altrimenti procederebbe in linea retta e con velocità costante; questa formulazione qualitativa trova la
sua quantificazione nella legge successiva.
Seconda legge: la risultante delle forze esterne applicate a un corpo materiale è uguale al prodotto della
massa del corpo per la sua accelerazione di moto; in formula questa legge si esprime come F=ma e
significa che, se vogliamo accelerare un corpo, dobbiamo applicare a esso una forza tanto maggiore
quanto maggiore è la sua massa (inerzia).
Terza legge (principio di azione e reazione): a ogni forza (azione) applicata a un corpo, esso reagisce
con una forza (reazione) uguale e contraria. La Terra, per esempio, applica al Sole una forza di identica
intensità a quella che il Sole applica al nostro pianeta, a differire sono però le accelerazioni – come
facile dedurre dal secondo principio – che subiscono i due corpi sotto l’azione di queste forze, essendo
la massa della Terra molto minore di quella del Sole. Il computer appoggiato sul tavolo agisce su questo
attraverso il suo peso, costringendo così il tavolo stesso a reagire con una forza applicata al computer
di uguale intensità e di verso opposto: è proprio questa forza a equilibrare la forza di gravità generata
dalla Terra sul computer, impedendogli di cadere.
Con queste tre leggi, conoscendo le espressioni delle forze agenti su un certo sistema dalle
caratteristiche fisiche note, è in linea di principio sempre possibile costruire l’evoluzione temporale del
sistema stesso, ovvero come questo si muove nello spazio al trascorrere del tempo.
L’accelerazione gravitazionale
Per calcolare il peso di un corpo di massa nota occorre dunque conoscere
l’intensità del campo gravitazionale nel punto in cui il corpo stesso si trova.
Come si è detto, infatti, il campo gravitazionale riduce la propria intensità in
ragione dell’inverso del quadrato della distanza dalla sorgente del campo così
che, se alla superficie di un pianeta l’accelerazione di gravità ha un certo
valore, a distanza doppia dal centro (di massa) dello stesso pianeta
l’accelerazione avrà un valore pari a un quarto di quello originario.
L’espressione che definisce l’accelerazione gravitazionale causata su un corpo
di massa m dalla presenza di una massa M a una certa distanza r dal corpo
stesso è infatti
g=GM/r2
facilmente ricavabile dalle leggi della dinamica applicate nel caso di un campo
gravitazionale (G indica come al solito la costante di gravitazione universale).
103
Come si vede, l’accelerazione di gravità dipende solo e soltanto dalla massa
della sorgente del campo gravitazionale e dalla distanza a cui si trova il corpo
di massa m rispetto alla sorgente. È evidente la totale indipendenza
dell’accelerazione gravitazionale cui è sottoposto il corpo di massa dalla massa
stessa del corpo, ovvero l’accelerazione di gravità ha esattamente lo stesso
valore per qualunque oggetto posto a una certa distanza dalla sorgente del
campo.
Questo semplice fatto, ovvero l’indipendenza dell’accelerazione di gravità
dalla massa del corpo che subisce l’accelerazione, spiega perché gli astronauti
in orbita attorno alla Terra si dicono in “assenza di peso”. In realtà, infatti, pur
essendo distanti dalla superficie del Pianeta, essi risentono ancora – e per loro
fortuna! – della sua attrazione, seppure in misura ridotta (sempre in ragione
dell’inverso del quadrato della distanza dal centro della sorgente, nella
fattispecie la Terra). Quello che accade, però, è che qualunque altro corpo o
oggetto – da un cacciavite a una gocciolina d’acqua – che si trovi nelle loro
stesse condizioni risente della stessa accelerazione cui loro sono sottoposti,
ragione per cui questi rimangono tutti nelle stesse posizioni relative. In
pratica, durante il moto in caduta libera – caduta naturalmente generata
proprio dall’attrazione della vicina Terra – tutto appare “galleggiare” perché in
realtà tutto “cade” alla stessa maniera, ovvero con la stessa accelerazione.
Nel nostro piccolo, anche noi, sulle torri di caduta del Luna Park,
sperimentiamo proprio questo effetto. Quindi, sì, siamo davvero più leggeri.
Peccato che l’effetto duri così poco!
104
LA FISICA DEL TANGO
Non ci piacciono le attrazioni del Luna Park e preferiamo trascorrere una
serata a ballare? Ora, se è vero che ballando si resta più con i piedi per terra
che a salire sulle montagne russe, è anche vero che in alcuni casi si vedono
letteralmente volare i ballerini, tanto che, assistendo a uno spettacolo di danza
classica o di rock’n’roll acrobatico, a molti saranno venute in mente domande
del genere: «Ma come fanno a restare per così tanto tempo in volo?» oppure
«Come possono i ballerini ruotare su loro stessi così velocemente?». La
risposta sta nello studio della fisica, alle cui leggi rigorose devono sottostare
tutti, ballerini compresi (anche se a volte sembrano davvero non rispettarle).
In particolare, quando si parla di ballo, entrano in gioco sia la statica, ovvero
la disciplina che si occupa di studiare l’equilibrio dei corpi fermi nello spazio
anche se su di essi agiscono delle forze, e la dinamica, ovvero la disciplina
che invece studia come un corpo si muove quando è sottoposto a forze. E sui
ballerini, che stiano fermi o che si muovano, di forze applicate ce ne sono
diverse: da quella di gravità, che li attrae costantemente verso il centro della
Terra e li richiama sul pavimento, a quella di attrito, che permette loro di
camminare o correre, ma, soprattutto, di non scivolare.
Concetti come il baricentro, la forza, l’impulso, la traslazione, la rotazione
probabilmente sono ben chiari nel corpo dei ballerini anche se essi non
sempre sanno dare il nome “scientifico” ai concetti che sperimentano. Chissà
se la conoscenza della fisica può aiutare a ballare meglio...
Il baricentro
Il punto chiave del sistema fisico costituito dai due ballerini – il tango
argentino è un ballo di coppia in cui ballerino e ballerina non possono mai
staccarsi completamente l’uno dall’altra – è il baricentro, ovvero il punto in
cui si può idealmente ipotizzare concentrato tutto il peso di un corpo, e quindi
anche di una persona. Per esempio, per stare fermi in piedi, occorre che il
nostro baricentro – o, meglio, la sua proiezione sul pavimento – cada
all’interno della superficie delimitata dai due piedi. Analogamente, perché i
due ballerini non perdano l’equilibrio durante i loro passi, devono descrivere
con i piedi una superficie al cui interno cada il baricentro della coppia,
altrimenti corrono il rischio di fare un capitombolo.
Il movimento
Ma se la posizione del baricentro è quella che ci garantisce dalle cadute,
105
causate naturalmente dall’azione della forza di gravità, sempre e comunque
presente, il ballo è soprattutto fatto di movimenti di vario genere, tutti però
riconducibili a due grandi tipologie: traslazioni e rotazioni. Secondo un
importante teorema della fisica, il movimento di un corpo (rigido, ovvero non
deformabile) può essere infatti descritto come la composizione di una
traslazione del baricentro – cioè di uno spostamento lineare del baricentro
nello spazio – e di una eventuale rotazione del corpo attorno a un asse. Un
esempio di questa composizione si ha quando la coppia di ballerini attraversa
in diagonale la pista da ballo e contemporaneamente ruota su se stessa.
Le rotazioni
La ballerina che ruota su se stessa stando sulle punte dei piedi è
un’immagine tipica dei libri di fisica. Serve a rappresentare il principio di
conservazione del momento angolare, una grandezza che, come l’energia,
tende a conservarsi, ovvero a rimanere costante durante tutto il moto del
sistema. In maniera molto semplificata, possiamo dire che, proprio in virtù
della conservazione del momento angolare, quando la ballerina passa da una
posizione a braccia allargate a una a braccia conserte, o disposte lungo il
corpo, la sua velocità di rotazione (velocità angolare) deve aumentare, perché
è variata la distribuzione della massa corporea attorno all’asse di rotazione.
Naturalmente il principio vale anche quando a ruotare è un sistema costituito
da due persone, come nel tango. La fisica, e in particolare il teorema di
conservazione del momento angolare, spiega perché è opportuno eseguire i
pivot (ovvero le rotazioni sul proprio asse eseguite su un piede) tenendo le
gambe unite.
L’attrito
Noi pensiamo all’attrito come a una forza “negativa”, che ci limita nei nostri
movimenti. È vero il contrario. Se possiamo camminare, o correre, o saltare
(e molto altro ancora), è proprio grazie alla presenza della forza di attrito,
elemento fondamentale della camminata: tutti sanno quanto sia difficile
riuscire a camminare sul ghiaccio! Noi andiamo avanti solo perché, nel
momento in cui il nostro piede di appoggio spinge indietro sul pavimento, il
pavimento ci restituisce la spinta in direzione contraria (principio di azione e
reazione), e noi possiamo approfittarne perché la presenza dell’attrito permette
al piede di non scivolare mentre riceve questa spinta.
In effetti molti usano come scusa la frase «non è venuto bene perché non ho
le scarpe giuste», ma pavimento e calzature contano davvero molto nella
riuscita dei passi. La forza di attrito che si genera fra la suola e il pavimento
106
varia moltissimo da scarpa a scarpa, da pavimento a pavimento e addirittura
con l’umidità. Proprio per questo motivo, qualche tempo fa sono state
inventate in Argentina delle scarpe (tra l’altro molto comode e belle
esteticamente) nelle quali è possibile sostituire la soletta che sta sotto al
metatarso (la zona del piede dove bisogna scaricare il peso nel tango). In
questo modo, a seconda del pavimento che il tanguero incontra, e persino a
seconda dell’umidità, può scegliere se usare la suola in cuoio, feltro o gomma.
Ballare meglio conoscendo la fisica… e un po’ di storia!
Ma allora conoscere la fisica può aiutare a imparare meglio le tecniche di
ballo? Senza dubbio sì. In generale si può giungere alla conoscenza attraverso
due strade: quella della teoria, dei modelli e della logica e quella
dell’esperienza. Fisica e tango sono un esempio mirabile di queste due facce:
alcuni maestri insegnano partendo dallo studio della struttura biomeccanica
del corpo umano, mentre altri si affidano alla propria lunga esperienza nella
milonga (il locale dove si balla il tango). Ed è interessante e a volte
sorprendente seguire questi due percorsi e vedere dove e come confluiscono
o si allontanano.
Il tango argentino è un genere musicale con una lunga storia alle spalle. Un
tempo suonato con strumenti tradizionali – primo fra tutti il bandoneón, una
speciale fisarmonica a sezione quadrata – in questi ultimi anni si è diffusa una
forma di tango suonata su una base ritmica dance, denominata “tango
elettronico”. Altri strumenti impiegati sono il pianoforte, il violino, talvolta la
chitarra. Curiosamente, nel tango delle origini non è presente una base
ritmica, fatto che permette alla coppia di ballerini di gestire a proprio
piacimento il tempo, restando ferma per alcune battute, accelerando
improvvisamente o addirittura facendo brusche frenate.
La storia del tango argentino è incerta e affascinante. Il tango nacque a
Buenos Aires oltre cent’anni fa come fusione dei balli popolari degli emigranti
italiani e spagnoli e dei ritmi africani, latini, argentini e uruguayani. La sua
struttura armonica, però, è tipicamente italiana. Non è un caso che i nomi dei
maggiori compositori di questo genere di musica a partire dai primi anni del
Novecento al secondo dopoguerra siano tutti figli di italiani. Fra questi, oltre
al francese Carlos Gardel (1890-1935), troviamo Aníbal Troilo (1914-1975),
Juan D’Arienzo (1900-1976), Carlos Di Sarli (1903-1960), Osvaldo Pugliese
(1905-1995), Francisco De Caro (1898-1976). E anche il famoso compositore
Ástor Piazzolla (1921-1992) aveva il padre pugliese. I principali gruppi sono
invece i Color Tango, i Gotan Project e i Narcotango, questi ultimi due
107
esponenti di spicco del filone elettronico.
108
DIAMO UN CALCIO… A EFFETTO!
Talvolta, guardando una partita di calcio, capita di meravigliarci delle
incredibili traiettorie che alcuni calciatori riescono a imprimere al pallone,
come se fosse telecomandato. Naturalmente, a meno che la palla non sia
“truccata” (non nel senso del calcio-scommesse, ma nel senso dell’usare un
pallone non regolamentare, con caratteristiche tali da falsarne la traiettoria in
volo), a decidere quale sarà la sua traiettoria è il piede del calciatore e il modo
di calciarla.
Pensando ai palloni non regolamentari, ad alcuni lettori potranno tornare in
mente le partite disputate con gli amici con il “mitico” pallone “Super Tele”
(prodotto dalla ditta italiana Mondo), una sfera di plastica particolarmente
leggera e per questo molto usata da bambini, proprio per evitare rischi di
infortuni o di danni a oggetti o persone derivanti da colpi male assestati.
Tuttavia, proprio questa leggerezza del “Super Tele” – così chiamato perché
inizialmente era prodotto in colore bianco, con una stampa a pentagoni neri
che riprendeva il motivo dei palloni professionali (anche se in seguito
vennero realizzate versioni con la base blu, rossa, verde e gialla, tutte sempre
abbinate alla stampa in nero) – lo rendeva molto poco adatto nelle partite di
calcio un po’ più serie: era molto difficile imprimergli una direzione precisa,
che veniva sistematicamente influenzata anche da una finissima bava di vento,
e il peso ridotto riduceva l’inerzia in favore dell’attrito aerodinamico,
causando traiettorie imprevedibili e di gittata limitatissima. Tanto che tutti
tiravamo un sospiro di sollievo quando finalmente arrivava l’amico con il
“Super Santos”, un altro pallone prodotto dalla Mondo (era il fratello
maggiore del “Super Tele”), che era più pesante, in gomma e di colore
arancione con le finiture nere.
Ma torniamo ai “tiri a effetto” voluti, non quelli casuali e determinati dal
vento. Il calciatore che fece diventare leggendari questi tiri, almeno in Italia,
fu Mario Corso, celebre ala sinistra dell’Inter degli anni Sessanta, che venne
per questa sua abilità soprannominato “il piede sinistro di Dio”. I suoi tiri a
effetto, che sembravano sfidare le leggi della fisica, presero il nome di “tiro a
foglia morta”, poprio per la loro caduta improvvisa e imprevedibile.
Effetto Magnus
Naturalmente, se ne parliamo in un libro dedicato alla fisica, è chiaro che
questi colpi – seppure magici, nel senso spettacolare del termine – sono
109
facilmente spiegabili in termini scientifici, e, in particolare, con la meccanica
dei fluidi e con una legge che abbiamo già incontrato nel primo capitolo,
parlando della portanza degli aerei: il principio di Bernoulli, secondo cui la
pressione in un fluido decresce al crescere della velocità del fluido stesso. Ma
procediamo con ordine.
Il primo a notare questo fenomeno fu… (provate a indovinare chi?) il solito
Isaac Newton. Ancora lui, già. Sembra in effetti che non gli sfuggisse proprio
nulla. Fatto sta che il fisico inglese, assistendo a una partita di tennis nel
lontano 1671, si accorse che la pallina colpita di taglio con la racchetta – e
quindi in forte rotazione su se stessa – seguiva una traiettoria diversa da quella
prevista dalle sue leggi della dinamica, spiazzando completamente l’avversario
in attesa di riceverla. Tuttavia, nonostante l’osservazione, Newton non fu in
grado di interpretare correttamente il fenomeno.
Gli studi di meccanica dei fluidi andarono avanti, ma solo verso la fine del
XIX secolo, il fisico e matematico scozzese Peter Tait (1831-1901) tornò a
dedicarsi allo studio dell’argomento applicato allo sport, spinto soprattutto
dalla sua passione per il golf, altra disciplina in cui i “tiri a effetto” sono
all’ordine del giorno. In particolare, Tait notò le differenze di gittata del tiro a
seconda del tipo di rotazione impressa alla pallina. Una rotazione retrograda,
nota anche con l’espressione anglosassone back-spin, ovvero una rotazione in
senso opposto a quello di moto della pallina, porta la pallina stessa a seguire
una traiettoria più lunga rispetto a quella attesa. Viceversa, una rotazione in
avanti (o anterograda, nota anche con l’espressione inglese di top-spin) porta
la pallina a percorrere una traiettoria più breve, quindi con una gittata ridotta
rispetto a quella calcolata senza prendere in considerazione la sua rotazione
intrinseca. Anche il fisico scozzese si limitò però alle osservazioni e poco più.
Non riuscì a comprendere appieno la natura del fenomeno, di cui si ebbe
piena comprensione solo nel 1852, grazie agli studi e agli esperimenti del
fisico tedesco Heinrich Gustav Magnus (1802-1870). Questo è il motivo per
cui il fenomeno è diventato noto con il nome di “effetto Magnus”.
Per risolvere il problema del “tiro a effetto”, il fisico tedesco eseguì una serie
di esperimenti, fra i quali spicca l’osservazione del comportamento di un
cilindro rotante attorno al proprio asse immerso in fluido in movimento.
Giocando con il cilindro rotante, Magnus osservò gli stessi comportamenti
studiati da Tait sulle palline da golf: nel caso di rotazione retrograda del
cilindro rispetto al verso della corrente, emergeva la presenza di una forza che
spingeva il cilindro verso l’alto (ricordate la portanza delle ali degli aerei?),
mentre nel caso di rotazione anterograda faceva la sua comparsa una forza che
110
spingeva il cilindro verso il basso (classico esempio di portanza negativa).
Fu grazie a questi studi che Magnus fu finalmente in grado di fornire la
spiegazione fisica del fenomeno, che, in linea generale, consiste nella
deviazione della traiettoria di un corpo rotante in un fluido in movimento, e si
manifesta quindi in misura maggiore o minore – a seconda del tipo di palla
impiegata e dello strumento usato per metterla in rotazione – in molti degli
sport in cui si ha a che fare con palloni, palle e palline (calcio, pallavolo,
baseball, tennis, ping pong, golf e così via). In tutti questi casi il fluido in
movimento è ovviamente l’aria. Ma vediamo come funziona.
Innanzi tutto, perché l’effetto Magnus si manifesti sono necessarie due
condizioni: la presenza dell’aria e che la palla sia in rotazione su se stessa
mentre è in volo. Ora, c’è da sapere che, a causa dell’attrito, una palla in
rotazione nell’aria trascina con sé lo strato d’aria immediatamente a contatto
con essa, e lo stesso accade a questo strato d’aria rispetto a quello contiguo. In
pratica, attorno alla palla si formano degli strati sferici concentrici, ognuno in
rotazione a una certa velocità.
Consideriamo allora un pallone calciato da destra verso sinistra e
ipotizziamo, per comodità, che stia viaggiando in orizzontale, ruotando in
avanti su se stesso attorno a un asse di rotazione parallelo al campo di gioco
(quindi in senso antiorario). Ora mettiamoci su un sistema di riferimento
solidale al moto di traslazione del pallone (in questo sistema di riferimento il
pallone è fermo e a muoversi è l’aria che gli viene incontro) e andiamo a
misurare le velocità dell’aria che scorre sopra e sotto il pallone stesso. Nella
parte in basso, dove la superficie del pallone – con l’aria che trascina con sé
nella rotazione – e l’aria scorrono nello stesso verso, l’aria a contatto con la
palla avrà dunque una velocità maggiore (le velocità si sommano, perché
concordi) rispetto alla parte superiore, dove invece scorrono in direzione
opposta (e quindi le velocità si sottraggono, perché discordi). In altre parole,
nel momento in cui il pallone è dotato di moto sia rotatorio che traslatorio, la
velocità dell’aria aumenta sopra o sotto al pallone in base al verso di rotazione
del corpo, proprio a causa del trascinamento dell’aria attorno al pallone stesso
(attenzione, quindi: senza attrito, questo ragionamento non sarebbe valido!).
Ora, se ricordiamo il principio di Bernoulli, è facile dedurre che la differenza
di velocità dell’aria che si trova a contatto con la parte superiore del pallone
rispetto a quella a contatto con la parte inferiore crea una differenza di
pressione fra i due lati della sfera. In particolare, sapendo che a minore
velocità corrisponde maggiore pressione e viceversa, abbiamo che la
pressione sopra il pallone è maggiore della pressione sotto. Il risultato netto è
111
che sul pallone agisce una forza, perpendicolare alla direzione di moto e
orientata verso il basso.
Fig. 4 L’effetto Magnus piega la traiettoria della palla in rotazione su se stessa.
In pratica, la rotazione in avanti produce, come si è visto, una portanza
negativa che fa abbassare il pallone più rapidamente rispetto alla traiettoria
parabolica attesa in assenza di rotazione e dovuta alla sola azione della forza di
gravità. È il classico effetto che si ottiene con un colpo top-spin giocando a
tennis o a ping-pong, ovvero con il lato battente della racchetta inclinato verso
il basso in modo da colpire la pallina dal basso verso l’alto, imprimendole
così la rotazione in avanti.
Oltre che dal già citato Mariolino Corso, tiri di punizione di questo tipo li
abbiamo visti calciare anche da Andrea Pirlo che, in ambito nazionale,
condivide con un altro grande del calcio italiano, Francesco Totti, il famoso
“rigore a cucchiaio”, basato sullo stesso principio… ma con la rotazione del
tipo back-spin. La palla, calciata da sotto, prende infatti una controrotazione
che ne allunga la gittata, facendola rimanere in volo quel tanto che basta in più
perché il portiere si tuffi da un lato e non riesca più a recuperare la posizione
centrale, nonostante l’apparente lentezza del pallone.
L’effetto Magnus può essere abilmente impiegato non solo per superare
dall’alto la barriera di calciatori, ma anche per aggirarla quando questa copre
la visuale della porta o, comunque, per effettuare i cosiddetti “tiri a giro”, di
cui è stato maestro Alessandro Del Piero. Per ottere il “tiro a giro” è
sufficiente (si fa per dire) colpire la palla di taglio, ovvero lateralmente,
imprimendole così, oltre al movimento in avanti, anche una rotazione oraria o
antioraria (se vista dall’alto), questa volta con asse di rotazione perpendicolare
112
al terreno di gioco. In questo caso, supponendo di assistere alla scena
dall’alto, il pallone subirà una deviazione verso sinistra se in rotazione
antioraria, mentre la sua traiettoria piegherà verso destra se il calciatore l’avrà
messo in rotazione oraria. L’effetto dipende in particolare dalla velocità di
rotazione della palla: tanto maggiore è questa, tanto maggiore è la deviazione
dalla traiettoria senza rotazione.
Attenzione: l’effetto Magnus si manifesta solo ed esclusivamente in presenza
di attrito con l’aria. In assenza di attrito, infatti, si verificherebbe l’effetto
opposto, ovvero che a una rotazione oraria del pallone corrisponderebbe una
traiettoria piegata a sinistra e, viceversa, a una rotazione antioraria
corrisponderebbe una traiettoria piegata a destra. Ecco perché le palline da
golf hanno tutte quelle fossette e le palle da tennis sono ricoperte di stoffa: lo
scopo è sfruttare appieno gli effetti dell’attrito, che va dunque ringraziato per
la sua capacità di rendere così spettacolari le loro traiettorie!
Con la tecnica appena descritta è anche possibile fare gol direttamente da
calcio d’angolo o comunque da posizioni impossibili perché particolarmente
angolate. Campione, in questo genere di giocate, è il brasiliano Roberto
Carlos, che, nella sua lunga carriera, ha segnato gol a effetto incredibili, da
calcio d’angolo, da posizioni angolatissime, su calci di punizione impensabili.
Gli annali del calcio riportano un suo calcio di punizione come quello in cui si
è visto uno degli effetti più ampi mai realizzati. Il 3 giugno 1997, in una partita
contro la Francia valevole per il Torneo di Francia (competizione amichevole
internazionale cui erano state invitate a partecipare le squadre nazionali di
Italia, Inghilterra e Brasile), Roberto Carlos, che vestiva la maglia verde-oro
della nazionale brasiliana, calciò da 34 metri di esterno sinistro, dopo una
lunga rincorsa. Con una velocità di picco di 115 chilometri orari, il pallone, in
forte rotazione antioraria (proprio causa del tiro di esterno sinistro) aggirò la
barriera e si infilò nell’angolino basso alla sinistra di Fabien Barthez, il
portiere francese, dopo aver colpito l’interno del palo. Al termine della partita
Barthez, che era rimasto impietrito, ammise l’errore, dichiarando di aver
valutato il pallone molto al di fuori dello specchio della porta, considerata la
traiettoria iniziale. In effetti, il pallone deviò di quasi 6 metri rispetto alla sua
ipotetica traiettoria rettilinea iniziale!
Un divertissement: una partita di calcio… lunare
Nel dicembre 1972, gli astronauti della missione Apollo 17 Eugene Cernan e
Harrison Schmitt, gli ultimi uomini a mettere piede sulla Luna, si
improvvisarono calciatori, passandosi di piede una pietra lunare che sulla
113
Terra sarebbe pesata oltre 90 kg. Ma quanto pesava sulla Luna? Con una
massa 81 volte minore di quella della Terra e un raggio quasi 4 volte più
piccolo, la Luna ha una gravità alla superficie pari a circa 1/6 di quella
terrestre. Così, il “pallone di pietra lunare” pesava appena 15 kg:
sufficientemente leggero per essere calciato da un uomo.
Sarebbe possibile giocare a pallone sulla Luna? Certo, ma con alcuni
accorgimenti. Proviamo allora a immaginare una partita sul nostro satellite,
sfruttando le competenze che abbiamo ormai acquisito sulla forza di gravità e
sulle leggi della dinamica.
In teoria, un calciatore che vuol fare un lancio lungo sa che la massima
distanza si raggiunge calciando la palla con un angolazione di 45° rispetto al
terreno. Imprimendo alla palla una velocità di 20 metri al secondo (circa 70
km orari), sulla Luna questa viaggia per quasi 240 metri. Ma c’è di più. Sul
nostro pianeta, quel calcio spedirebbe la palla ad “appena” 10 metri di altezza,
ben poca cosa rispetto ai 60 metri che raggiungerebbe sulla Luna, oltre tutto
percorrendo una parabola perfetta, a causa della totale assenza di atmosfera
(non c’è resistenza dell’aria). D’altra parte, con la gravità così debole, un
rilancio da fondo campo del portiere può far volare la palla per oltre 15
secondi: un’eternità, per il gioco del calcio (provate a contarli, uno a uno:
sembrano non passare mai!). Sulla Terra, lo stesso tiro la farebbe volare per
meno di 3 secondi – fortunatamente, aggiungiamo. Sulla Luna, un calciatore
avrebbe tutto il tempo di piazzarsi per colpire al meglio di testa, ma la velocità
del gioco ne risentirebbe assai.
Consideriamo ora un portiere che si tuffi orizzontalmente per parare una
palla insidiosa tirata verso l’angolino. Se la porta di un campo di calcio lunare
avesse le stesse dimensioni di quelle terrestri (7,32 metri di lunghezza per 2,44
metri di altezza: queste misure sono state regolamentate in Inghilterra verso la
fine del XIX secolo e corrispondono a una lunghezza di 8 iarde per un’altezza
di 8 piedi!), sarebbe difficilissimo “dosare” i tiri e i movimenti. A meno che
tutti i calciatori e la palla non fossero accuratamente zavorrati. In effetti,
dandosi la stessa spinta che si darebbe sulla Terra per stendersi e parare la
palla sul palo, un portiere atterrerebbe molto oltre il palo stesso, lasciando la
porta scoperta. Saltando in alto, invece che a 2,5 metri arriverebbe a 15 metri
di altezza! Una partita di calcio lunare richiede una preparazione atletica
completamente diversa e degli allenamenti specifici per limitare, piuttosto che
amplificare, le proprie capacità fisiche. Basti pensare che un contrasto o una
spinta in area di rigore fra due giocatori farebbero atterrare la sfortunata
vittima del fallo a diversi metri di distanza dal punto di impatto con
114
l’avversario. D’altra parte, un calciatore di 70 kg terrestri sulla Luna peserebbe
meno di 12 kg! Non è un caso che il gruppo rock britannico Police, all’inizio
nel brano intitolato Walking on the Moon (A passeggio sulla luna), canti la
seguente frase: «Puoi fare passi giganteschi, camminando sulla Luna»: così
giganteschi da percorrere oltre 5 metri a falcata, correndo lungo la fascia!
Accennavamo al fatto che sulla Luna non c’è alcuna atmosfera (motivo per
cui gli astronauti erano dotati di caschi, tute pressurizzate e respiratori). Ora,
sappiamo che il suono viaggia in aria alla velocità di circa 340 metri al
secondo… ma se non c’è aria, come fa a propagarsi il suono uscente dal
fischio dell’arbitro? Non c’è alcuna possibilità che questo accada, ovviamente.
Ecco perché l’arbitro dovrebbe dotarsi di un fischietto collegato via radio con
tutti i calciatori… ed eventualmente con il pubblico! Oltre che senza
atmosfera, la superficie lunare è però anche priva di acqua. Nessuna
possibilità quindi di far crescere il manto erboso tipico dei campi da calcio. Si
giocherà quindi sulla miscela di polvere fine e di detriti rocciosi, chiamata
“regolite”. Un po’ come nei campetti di periferia… Ma attenzione, perché
alcuni astronauti mostrarono reazioni allergiche!
Allora, niente atmosfera né acqua, quindi niente suono, niente manto
erboso, ma anche niente vento, niente resistenza dell’aria, nessuna possibilità
di calciare con l’effetto, niente luce diffusa che rende il cielo diurno sulla
Terra brillante e di un colore celeste uniforme. Il cielo lunare è completamente
nero e pieno di stelle anche di giorno. Ma una di queste è brillantissima: il
Sole.
Dove potrebbe svolgersi una partita del genere? Perché i terrestri possano
assistere al campionato lunare occorre che questo si giochi sulla faccia visibile
della Luna, nei periodi in cui questa è illuminata dal Sole. Alcuni “mari”
lunari, le zone scure della Luna, sono abbastanza estesi e pianeggianti per
ricavarci campi da calcio. Le partite sarebbero trasmesse solo per mezzo di
una rete di satelliti lunari. La ragione è semplice: il telescopio spaziale Hubble,
che orbita attorno alla Terra a circa 400 km di altitudine, riesce a risolvere
sulla superficie lunare dettagli di poco inferiori alle dimensioni di un campo
da calcio (110 metri di lunghezza per 65 metri di larghezza). Ottimo per gli
astronomi, ma inutile per gli appassionati di calcio lunare!
Ora, mettere una flotta di satelliti in orbita attorno alla Luna non è
particolarmente economico, come sanno bene per esempio alla NASA,
(acronimo di National Aeronautics and Space Administration, in italiano “Ente
Nazionale per le attività Spaziali e Aeronautiche”) l’agenzia spaziale
statunitense che, oltre a mandare, prima e unica, l’uomo sulla Luna – fra il
115
luglio 1969 e il dicembre 1972, nell’ambito del progetto Apollo, sono state
inviate sette missioni, di cui sei andate a buon fine, con dodici uomini in
totale che hanno messo piede sul suolo lunare –, ha realizzato nel corso degli
ultimi anni diverse missioni in orbita attorno al nostro satellite, per indagare
più a fondo le sue caratteristiche superficiali e valutare su di essa la presenza o
meno di acqua (naturalmente ghiacciata). Fra queste, una sonda robotizzata
dotata di un’ottima “vista” è la Lunar Reconnaissance Orbiter (LRO), lanciata
nel giugno del 2009 e attualmente in funzione, che è stata addirittura capace di
produrre immagini degli equipaggiamenti abbandonati dagli astronauti sulla
Luna (bandiere comprese!), smascherando definitivamente i sostenitori della
“teoria del complotto”, secondo cui le missioni umane sulla Luna erano state
solo una finzione cinematografica.
CURIOSITÀ SCIENTIFICHE SUL CALCIO
Oltre alle curiosità connesse all’effetto Magnus, il gioco del calcio offre altre innumerevoli curiosità
scientifiche. Vediamone alcune, tanto per far capire come questo sport attiri l’interesse anche di fisici e
matematici.
Palla “lunga”… ma come?
In tutti i trattati di fisica c’è scritto che un cannone, per raggiungere la gittata massima, ovvero per
scagliare un proiettile il più lontano possibile, deve sparare con un angolo di alzo pari a 45°. Ma secondo
Nicholas Linthorne e David Everett, ricercatori dello sport alla Brunel University di Uxbridge (Inghilterra),
questa regola nel calcio non vale. Mettendo in relazione la lunghezza del lancio e il tempo di volo con
l’inclinazione con cui la palla viene calciata i due sono infatti giunti alla conclusione, pubblicata nel 2006
su Sports Biomechanics, che un calciatore raggiunge la massima gittata tirando con un angolo
compreso fra 20° e 35°. In altre parole, una palla calciata ad alzo di 45° in media vola meno e cade più
vicina di una calciata con un alzo minore.
Dunque il calcio viola le leggi della fisica? Ovviamente no. Più semplicemente, la struttura del nostro
scheletro e la disposizione dei nostri muscoli sono tali che le gambe imprimono la loro forza massima
calciando la palla con quella angolazione. Ed è proprio questa forza a far sì che la palla viaggi più veloce
e più a lungo.
Il numero perfetto? 22!
Perché una squadra di calcio è composta da undici giocatori? La risposta l’ha trovata, nel 2006, Metin
Tolan, professore di fisica sperimentale all’Università di Dortmund, in Germania. Secondo Tolan, infatti,
ventidue è il numero perfetto perché una partita di calcio sia avvincente. Se escludiamo i portieri, venti
persone rappresentano la “copertura” ottima per un’area di 7000 metri quadrati (è la superficie di un
campo di calcio): non troppo densi e ravvicinati, né troppo distanti e rarefatti.
«Fattori decisivi sono il tempo necessario a un giocatore per prendere una palla passata e continuare
giocare e il tempo che l’avversario necessita per riconquistarla», spiega il fisico. Per entrambe queste
reazioni occorrono in media tre secondi: il tempo giusto perché il gioco sia regolare ed entusiasmante,
secondo Tolan. Ma perché ciò accada, occorre che fra un calciatore e un compagno di squadra ci sia
sempre una distanza media confrontabile con quella che c’è fra lo stesso calciatore e un giocatore della
squadra avversaria: cosa che si ottiene se in campo ci sono appunto venti giocatori, oltre ai portieri.
La “girandola” delle sostituzioni
Una squadra sta vincendo, ed ecco che l’allenatore sostituisce un attaccante con un difensore. In
un’altra partita è sotto di un gol, e l’allenatore mette in campo un’altra punta per rinforzare l’attacco. Ma
esiste una strategia vincente per le sostituzioni? Secondo Nobuyoshi Hirotsu e Mike Wright,
dell’Università di Lancaster, Inghilterra, esiste, e l’hanno individuata nel 2002 studiando un intero
116
campionato di Premier League britannica. Inserendo nel modello la capacità di segnare, quella di non
subire gol, quella di tenere palla e quella di riconquistarla, nonché i vari ruoli in campo, i due matematici
hanno scoperto che, a seconda dei minuti restanti e del numero di sostituzioni disponibili, è possibile
stimare i punti finali in classifica in base al tipo di sostituzione.
Così, suddividendo i ruoli dei calciatori inizialmente in panchina in cinque categorie (difensori, difensori
centrali, mediani, centrocampisti e attaccanti), più dettagliate della tradizionale suddivisione in tre ruoli,
Hirotsu e Wright hanno calcolato che le migliori strategie di sostituzione si hanno se la configurazione
iniziale per una squadra di casa è la 2-2-1-3-2 (una sorta di 4-4-2), mentre per la squadra in trasferta è
la 1-2-2-3-2 (un 5-3-2). Ovviamente sempre in termini di probabilità… E comunque, anche se i lavori dei
ricercatori non trovano diretta applicazione nella realtà, sono oltre dieci anni che i due continuano a
sfornare ricerche sull’argomento, a dimostrazione che il gioco del calcio va ben oltre il gioco in sé!
117
V
Fisica aliena
... e dell’impossibile!
Fin qui abbiamo parlato di leggi e fenomeni che possiamo sperimentare tutti
i giorni nelle nostre attività outdoor. Ma, come potete immaginare, c’è tanta
fisica anche fuori dall’atmosfera terrestre! In proposito, abbiamo deciso di
fare una selezione serratissima, e di ammettere in finale solo due argomenti
“alieni”: gli asteroidi, che potrebbero caderci sulla testa, e i buchi neri, che
invece potrebbero deglutirci. Così, tanto per rimanere su pensieri ottimistici –
si fa per dire! – e collegare comunque i due temi a questioni che possano in
qualche misura riguardarci direttamente (no, state tranquilli, un asteroide può
caderci davvero sulla testa, ma che la Terra passi vicino a un buco nero e che
questo ci deglutisca è davvero una possibilità remotissima).
Però... manca ancora qualcosa. Non vogliamo farvi mancare un rapido
cenno alla fisica dell’impossibile (o del possibile, ma con parecchie
limitazioni). Allora chiudiamo il capitolo – e il libro – parlandovi dei
wormhole, gallerie che ci permetterebbero di spostarci rapidamente nello
spazio e nel tempo, e del fenomeno – questo sì, reale e sperimentato – del
teletrasporto quantistico. Ma ricordate, se non volete fare la fine del
protagonista del film L’esperimento del dottor K del 1958 (il titolo originale
del film è The fly, La mosca), è meglio continuare a muoversi con i mezzi
descritti nel primo capitolo!
118
GLI ASTEROIDI, CORPI MINORI DEL SISTEMA SOLARE
Quando si pensa al Sistema Solare, la mente va subito al Sole e al suo
ineguagliato corteo di pianeti: Mercurio, Venere, Terra, Marte, Giove, Saturno,
Urano e Nettuno (Plutone è stato classificato come “pianeta nano” e non
appartiene quindi più alla famiglia dei pianeti veri e propri). In realtà, però, al
nostro sistema planetario non appartengono solo questi corpi maggiori, ma
anche una miriade di corpi minori, che pure orbitano attorno alla stella Sole e
le cui dimensioni possono andare dal frammento microscopico fino al
planetoide sferico di qualche migliaio di chilometri di diametro, passando da
corpi di dimensioni intermedie e forme più o meno irregolari.
I corpi minori sono divisi in due grandi categorie, pur avendo molte
caratteristiche in comune: le comete e gli asteroidi (detti anche “pianetini”).
Questi ultimi, in particolare, sono sostanzialmente concentrati nella fascia
orbitale compresa fra Marte e Giove, molti altri si trovano raccolti in un’ampia
zona oltre l’orbita di Nettuno, ma altri ancora hanno orbite che svariano in
pratica in tutto il Sistema Solare (alcuni anche interne all’orbita terrestre).
CERERE, IL PRIMO ASTEROIDE
Con un diametro di poco inferiore a 1000 km, Cerere è il più grande asteroide della cosiddetta “fascia
principale”, ovvero quella zona del Sistema Solare compresa esattamente fra le orbite di Marte e Giove.
Cerere è anche l’asteroide più massiccio della fascia, in quanto contiene circa il 30 per cento della
massa di tutti gli altri asteroidi combinati.
La sua scoperta si deve all’italiano Giuseppe Piazzi (1746-1826), che lo scorse casualmente la prima
volta la notte del 1° gennaio 1801 dall’Osservatorio di Palermo, mentre era intento ad analizzare la
posizione delle stelle di un catalogo. Confuso all’inizio per una stella, Cerere venne osservato da Piazzi
nelle notti immediatamente successive, mostrando un evidente moto proprio rispetto alle stelle di
sfondo. Fu così che Piazzi poté annotare sul suo Diario che: «La sera del tre [gennaio] il mio sospetto
divenne certezza, essendomi assicurato che essa non era Stella fissa».
Cerere fu considerato a lungo come pianeta, e rimase elencato come tale in tavole e libri astronomici
per circa mezzo secolo, finché non furono scoperti ulteriori pianetini: fu William Herschel a coniare il
termine “asteroide” (simile a stella) per descrivere questi oggetti.
Fra i corpi della fascia principale, Cerere (il cui nome ufficiale è il latino Ceres, dal nome della dea
romana protettrice del grano) è uno dei pochi ad avere forma praticamente sferica, grazie al fatto di
avere una massa sufficiente a modellarlo gravitazionalmente: per questo motivo l’Unione Astronomica
Internazionale lo ha promosso al rango di “pianeta nano”, insieme a Plutone, Eris (l’asteroide già noto
come Xena), Haumea e Makemake. Così, Cerere è l’unico “pianeta nano” del Sistema Solare interno.
Giuseppe Piazzi
Giuseppe Piazzi nacque a Ponte in Valtellina nel 1746. Entrato nell’Ordine dei Teatini nel 1764, terminò il
suo noviziato tre anni dopo, e si dedicò allo studio della matematica e dell’astronomia. Dopo alcuni anni
dedicati all’insegnamento, nel 1780 Piazzi ottenne la concessione alla costruzione di un osservatorio
astronomico a Palermo, che prese il nome di Osservatorio Nazionale del Regno delle Due Sicilie. Qui
Piazzi scoprì l’asteroide Cerere, cui egli stesso dette il nome di “Cerere Ferdinandea”, in onore di re
Ferdinando III di Sicilia (che nel 1816 divenne Ferdinando I delle Due Sicilie). In onore dell’astronomo
119
italiano, invece, venne battezzato “Piazzia” il millesimo asteroide scoperto (nel 1923).
Rischi da impatto
È noto che il nostro pianeta ha subito, nel corso della sua lunga storia,
collisioni con altri corpi, molti di piccole dimensioni, altri notevoli. Ancora
oggi, nonostante i dintorni dell’orbita terrestre siano “puliti”, l’atmosfera della
Terra è quotidianamente bombardata da milioni di frammenti – per un totale
di centinaia di tonnellate di massa – con le dimensioni tipiche del granello di
sabbia (ma alcuni possono andare da pochi millimetri a qualche centimetro)
che danno origine al fenomeno delle meteore, più noto con il nome di “stelle
cadenti”.
L’impatto più catastrofico è stato senz’altro quello che ha dato origine alla
Luna che, secondo la teoria più accreditata, è una vera e propria “costola”
della Terra: circa 50 milioni di anni dopo la formazione del Sistema Solare
(avvenuta attorno a 4,6 miliardi di anni fa), un asteroide delle dimensioni di
Marte impattò il nostro pianeta, ancora caldo, immettendo così in orbita una
quantità di materiale sufficiente a dare origine alla Luna.
Molto più di recente, anche se in tempi remoti, l’impatto con un grosso
asteroide causò – o comunque innescò – la grande estinzione del Permiano
(dal nome del periodo geologico al quale dette fine), circa 250 milioni di anni
fa. Sicuramente meno nota dell’estinzione dei dinosauri (avvenuta “soltanto”
65 milioni di anni fa, anch’essa probabilmente innescata da un impatto
cosmico), ma di sicuro più disastrosa, l’estinzione del Permiano vide la
scomparsa di oltre il 90 per cento delle forme di vita marine e di oltre il 70 per
cento di quelle terrestri. A quell’epoca i continenti della Terra non erano
ancora separati e le terre emerse erano unite in un unico grande
supercontinente, la Pangea. A causa dei grandi movimenti geologici successivi
è praticamente impossibile trovare le tracce dell’immane cratere che l’impatto
dell’asteroide, dal diametro stimato di una decina di chilometri, lasciò sulla
crosta terrestre. Ma molti crateri da impatto sono ancora ben visibili, come per
esempio il Meteor Crater, che si trova nel deserto dell’Arizona, a circa 50 km
da Flagstaff. È uno dei crateri da impatto meglio conservati: circondato da una
“corona” di materiale sollevato dall’impatto di 45 metri di altezza, ha un
diametro di 1200 metri ed è profondo 170 metri. A generarlo, circa 50.000
anni fa, durante il Pleistocene, fu un meteorite metallico (nickel-ferro) di 50
metri di diametro, che doveva viaggiare a una velocità di diversi chilometri al
secondo. L’impatto produsse un’esplosione con un’energia equivalente ad
almeno 2,5 milioni di tonnellate di tritolo, pari a circa 150 volte l’energia delle
120
bombe atomiche impiegate a Hiroshima e Nagasaki.
Al giorno d’oggi, il rischio che la Terra possa essere nuovamente bersaglio
di un asteroide non è altissimo, ma non è nemmeno nullo. Per questo motivo
esistono molti progetti dedicati alla ricerca e al controllo delle orbite di quegli
asteroidi le cui orbite sono pericolosamente vicine a quella del nostro pianeta.
Di questi, collettivamente chiamati NEO (dall’inglese Near-Earth Object; o
anche NEA, dove la A sta per Asteroid), se ne conoscono già alcune migliaia.
Sulla base delle dimensioni (almeno 150 metri di diametro) e dei parametri
orbitali (minima distanza dall’orbita terrestre sotto 7,5 milioni di chilometri, 20
volte la distanza media Terra-Luna), già alcune centinaia sono classificati
come PHO (Potentially Hazardous Object, oggetto potenzialmente
pericoloso): è infatti sufficiente una piccola perturbazione gravitazionale
perché uno di questi oggetti diventi un proiettile scagliato contro la Terra.
Nel corso degli anni la Terra ha subito centinaia di incontri ravvicinati con
piccoli asteroidi, l’ultimo dei quali è avvenuto il 15 febbraio 2013, quando
2012 DA14, un asteroide di 30 metri di diametro e una massa stimata di 40.000
tonnellate, è passato ad appena 27.700 km dalla Terra, molto meno di 1/10
della distanza Terra-Luna. A oggi, quello di 2012 DA14 è l’incontro più
ravvicinato di un asteroide di queste dimensioni con il nostro pianeta.
SPECIAL EFFECTS
Il crollo del Muro di Berlino e dell’impero sovietico era ancora lontano e forse addirittura imprevedibile
quando nel 1979 uscì il film Meteor. Uno scienziato statunitense (interpretato da Sean Connery) ha
progettato un’arma nucleare appositamente ideata per respingere l’eventuale minaccia rappresentata
da un asteroide in rotta di collisione con il nostro pianeta, ma temporaneamente puntata verso il
territorio sovietico come ulteriore deterrente. Quando però una cometa appena scoperta impatta con
l’asteroide Orpheus e un gigantesco frammento di questo sta per piombarci addosso, ci si rende conto
che la potenza americana non può fare niente se non viene aiutata dai sovietici, anch’essi in possesso
di un’arma equivalente (e parimenti illegale e segreta). Il disgelo fra le due superpotenze impedisce che
l’umanità si estingua – anche se qualche frammento più piccolo che anticipa l’arrivo del corpo principale
riesce a fare notevoli danni in molte parti del Pianeta –, ma il rischio corso è stato grande.
L’idea di inviare testate nucleari contro asteroidi minacciosi è vecchia quanto il nucleare stesso, ma in
realtà, fino a una ventina di anni fa non si pensava che la Terra potesse correre grossi pericoli in tal
senso. Lo spazio interplanetario nei nostri dintorni appariva incredibilmente sgombro di detriti cosmici –
a parte quelli prodotti da migliaia di satelliti artificiali messi in orbita dall’uomo – e l’oggetto
astronomicamente più vicino era la pallida e silenziosa Luna, a ben 384.000 km di distanza e comunque
in lento ma inesorabile allontanamento.
Ma a partire dal 1991 la situazione cambiò drasticamente. Fu in quell’anno che lo Spacewatch
Telescope, un piccolo strumento ubicato nel comprensorio di Kitt Peak vicino a Tucson, Arizona, e
appositamente dedicato alla ricerca e all’osservazione di asteroidi con orbite potenzialmente pericolose
per il nostro pianeta, scoprì il primo oggetto fra quelli che vennero in seguito catalogati come “NEO”,
ovvero Near Earth Objects: un meteoroide che sfiorò la Terra (in termini astronomici), passando a soli
170.000 km di distanza, ovvero a meno della metà della distanza che ci separa dalla Luna. Da quel
momento la popolazione di questi oggetti è aumentata di anno in anno tanto che adesso il “vicinato”
della Terra è considerato troppo affollato e minaccioso e noi non dormiamo sonni tranquilli. Perciò una
121
rete di ricerca internazionale si dedica esclusivamente all’attività di monitoraggio dello spazio
circostante la Terra. E sono stati forse gli annunci periodici di probabili futuri rischi di impatto fra questi
oggetti e il nostro pianeta – oltre, soprattutto, alla grande risonanza mass-mediatica avuta dall’impatto
fra i frammenti della cometa Shoemaker-Levy 9 e il pianeta Giove nel 1994 – a convincere qualche
sceneggiatore e regista cinematografico che il filone catastrofico degli impatti interplanetari a rischio di
estinzione era da sviluppare, magari ben condito da effetti speciali di sicura presa sul pubblico, sempre
molto affascinato dall’idea di un’esplosione nucleare nello spazio o dalla visione di una città come New
York distrutta da una “pietra cosmica”.
Nel 1998, nel giro di pochi mesi, sono uscite le pellicole hollywoodiane Deep Impact e Armageddon,
ambedue nel filone “fine del mondo per cause naturali” e i cui protagonisti hanno il compito di evitare
l’estinzione di massa dell’uomo causata dal terrificante impatto di un corpo di grandi dimensioni – in
questi casi una cometa – con la Terra. La soluzione prospettata è quella di bombardare con testate
nucleari il meteoroide inviando una missione di salvataggio (in Armageddon facendo atterrare sul nucleo
cometario una squadra di esperti trivellatori, guidati da Bruce Willis, per inserire le cariche esplosive in
profondità). Entrambe, infine, mostrano incredibili effetti speciali: distruzioni di città, onde di maremoto,
piogge di meteore, esplosioni nucleari e via dicendo.
Ma in Deep Impact c’è qualcosa di più, forse anche di più preoccupante: la possibilità che il disastro
diventi inevitabile e che ci si trovi costretti a scegliere chi salvare, magari con una “lotteria”, invitandolo a
ritirarsi in rifugi sotterranei appositamente realizzati e attrezzati insieme a medici, artisti, scienziati e –
potevano mancare? – militari. Insomma, una sorta di Arca di Noè per l’umanità, soggetta a
un’inquietante “selezione artificiale” dai criteri tutt’altro che ovvi. Ed è piuttosto questa che dà da
pensare, non la consueta e ormai abusata visione di immani distruzioni. All’uscita dal cinema ci
domandiamo se quella del salvataggio dall’estinzione con estrazione a sorte – questo sì che è un
“effetto speciale” – sia un’idea originale dello sceneggiatore o piuttosto un documento segreto del
Pentagono di cui qualcuno ha spifferato qualcosa all’esterno. E la preoccupazione che sia vera questa
seconda ipotesi è tutt’altro che remota.
Ma più in generale, alla visione di questi film, ma anche di altri di argomento vagamente scientifico,
viene da pensare se sia una notizia o una scoperta scientifica, anche rilevante per il futuro dell’umanità,
e il conseguente dibattito nell’opinione pubblica a stimolare la realizzazione di un certo tipo di pellicola o
se non avvenga il contrario. Ovvero, che sia l’uscita di un film di successo ad aprire gli occhi
dell’opinione pubblica sensibilizzandola su quel determinato problema. Pensiamo a film come
Philadelphia (1993) sul dramma dell’AIDS, Risvegli (1990) sul mistero di alcune patologie neurologiche
(protagonista Robert De Niro), Coma profondo (1978) sul problema dei trapianti, Extreme Measures
(1996, con Hugh Grant e Gene Hackman) sulle chirurgie riabilitanti o, magari, anche Contact (1997)
sulla ricerca di vita intelligente nell’Universo, fino al celebre The Day After Tomorrow (2004), sui rischi
dell’effetto serra e del cambiamento del clima.
Se quest’ipotesi fosse vera dovremmo preoccuparci: certamente non per l’atto di sensibilizzazione
provocata dai film su un certo argomento (anzi, ben vengano!), ma perché un argomento su cui non
venga realizzato almeno un film di successo rischia di non essere seriamente preso in considerazione
dall’opinione pubblica. Forse è questo l’unico grande, incredibile “effetto speciale” del cinema.
Curiosità...
La missione Deep Impact è esistita davvero. Non stiamo scherzando. Il 4 luglio 2005 (non è una data
scelta a caso!) la cometa Tempel 1 è stata “bombardata” con un proiettile lanciato dalla sonda Deep
Impact, appunto, appositamente progettata per «vedere l’effetto che fa», come cantava il nostro Enzo
Jannacci (1935-2013). Alla velocità di impatto di circa 37.000 km/h, ha prodotto sul nucleo cometario un
bel cratere con un diametro che raggiunge i 200 metri e una profondità di oltre 30 metri, mentre il “fuoco
d’artificio” è stato addirittura visibile dai telescopi al suolo, pur avvenendo a circa 430 milioni di chilometri
di distanza. Un’altra curiosità è che la cometa Tempel 1 è stata visitata nuovamente il 14 febbraio 2011
dalla sonda Stardust nell’ambito di una missione volta a osservare meglio il cratere creato dalla Deep
Impact. La Tempel 1 è stata la prima cometa a essere visitata due volte da una sonda spaziale.
L’estinzione dei dinosauri
Per molto tempo l’estinzione dei dinosauri è stata un mistero. I primi a
collegare questo evento con l’impatto di un meteorite furono il fisico
122
californiano Luis Alvarez e suo figlio Walter, geologo, i quali basarono la loro
ipotesi sulla scoperta di un sottile strato geologico con un’anomala
abbondanza di iridio, molto raro sulla Terra, ma presente in alcuni tipi di
asteroidi. Tale strato si trova esattamente in corrispondenza del confine fra i
periodi Cretaceo e Terziario ed è quindi datato a circa 65 milioni di anni fa.
Secondo molti ricercatori furono le gravi alterazioni del clima planetario
conseguenti all’impatto a causare la rapida scomparsa di molte specie viventi,
fra cui, appunto, i dinosauri. In realtà, adesso sembra accertato che
l’estinzione fosse già iniziata per altre cause, come la riduzione del livello di
ossigeno dovuta all’aumento dell’attività vulcanica. Tuttavia, la scoperta, nella
penisola messicana dello Yucatan, del cratere di Chicxulub, largo oltre 170
chilometri, sembra confermare a quella data l’impatto distruttivo di un
meteorite di oltre 10 chilometri di diametro.
Le Scale Torino e Palermo
Imitando i geologi che, per valutare un terremoto, impiegano la scala
Mercalli – dal nome del vulcanologo Giuseppe Mercalli (1850-1914), che la
propose nel 1884 –, basata sulla fenomenologia osservata, e la scala della
magnitudo Richter – dal nome del fisico e sismologo statunitense Charles
Francis Richter (1900-1985), che per primo la propose nel 1935 –, basata
sull’energia rilasciata dall’evento tellurico, anche gli astronomi che si
occupano di NEO hanno creato due scale per la valutazione del rischio da
impatto di un NEO con il nostro pianeta. Curiosamente, le due scale prendono
il nome di Scala Torino e di Scala Palermo (in inglese, rispettivamente Torino
Scale e Palermo Technical Impact Hazard Scale; dai nomi delle città in cui
sono state presentate per la prima volta). Mentre la prima – nata
originariamente come A Near-Earth Object Hazard Index – è una scala a
passi discreti (da 0 a 10) ideata per comunicare con il pubblico i rischi
associati a un possibile impatto, la seconda è una scala continua di tipo
logaritmico che, come suggerisce anche l’attributo technical nel nome
completo in inglese, è ad esclusivo uso degli addetti ai lavori.
123
METEOROIDI, METEORE, METEORITI
Il fenomeno delle “stelle cadenti”, nome popolare con cui sono note le
meteore – questo è invece il termine scientifico corretto – è originato
dall’ingresso nella nostra atmosfera di grani di polvere di varie dimensioni
che, incontrando le molecole di aria, bruciano per attrito lasciando una scia
luminosa che, se osservata di notte, può diventare anche visibile ai nostri
occhi. L’atmosfera che avvolge il nostro pianeta è bombardata di continuo da
materiale interplanetario che incrocia l’orbita della Terra, e questi impatti
possono avvenire naturalmente anche durante il giorno (le piogge diurne
vengono rivelate con tecniche radar). Il fenomeno però diventa visibile e
talvolta assume aspetti spettacolari soltanto di notte, quando appunto la scia
luminosa solca il nero cielo notturno. Le dimensioni di questi grani di polvere
sono spesso molto ridotte (dell’ordine dei millimetri o dei centimetri), ma se
uno di questi frammenti ha dimensioni e massa leggermente maggiori può
originare un fenomeno luminoso ancor più spettacolare che prende il nome di
bolide e può diventare visibile anche di giorno: la scia di un bolide può infatti
per un breve intervallo di tempo essere tanto luminosa da “fare ombra” (come
per esempio la Luna piena) e persistere in cielo anche per lungo tempo dopo
l’evento meteorico, come è accaduto nei cieli russi il 15 febbraio 2013. Per
esempio, un grano di due soli grammi di massa è sufficiente a generare una
meteora della stessa luminosità di Sirio, la stella più brillante del cielo.
Le stelle cadenti quindi non sono stelle nel senso proprio del termine,
tutt’altro. Esse hanno un’origine assolutamente interna al Sistema Solare: il
loro comportamento e il loro destino sono infatti legati a un altro genere di
corpi minori del nostro sistema planetario, anch’essi ben noti per la
spettacolarità e il fascino delle loro apparizioni, le comete. Sono queste le
responsabili degli sciami meteorici: a ogni loro passaggio al perielio (il punto
di massimo avvicinamento al Sole), le comete perdono materiale
abbandonandolo lungo la loro orbita. Questo materiale poi, perturbato
gravitazionalmente dal Sole e dai pianeti, si distribuisce in un ampio spazio
lungo questa orbita, potendo così anche intersecare l’orbita terrestre. I grani
che, al momento in cui la Terra ne attraversa l’orbita, entrano in atmosfera
prendono il nome di meteore – meteora è definito tale fenomeno atmosferico
–, altrimenti sono genericamente chiamati meteoroidi. I meteoroidi più grandi,
la cui orbita li porta a impattare la superficie terrestre prima che si consumino
completamente per l’attrito, prendono il nome di meteoriti. Attenzione a
124
distinguere i vari nomi: meteoroide è il generico grano orbitante, meteora è il
fenomeno legato all’ingresso in atmosfera di un meteoroide, meteorite è un
meteoroide che riesce a raggiungere la superficie del nostro pianeta senza
disintegrarsi nell’attraversamento dello strato d’aria che ci sovrasta.
Lo studio delle orbite dei meteoroidi costituenti i diversi sciami conosciuti
ha permesso di determinare che tutti hanno una cometa come progenitrice.
Per lo sciame delle Perseidi, per esempio, è la P/Swift-Tuttle, mentre per le
Leonidi è la cometa P/Tempel-Tuttle, così chiamate dai nomi dei loro
scopritori (la P indica che sono comete periodiche). I vari frammenti
percorrono infatti orbite molto vicine a quella della cometa progenitrice, per
cui si ha la certezza che la pioggia di meteore sia costituita proprio da
materiale abbandonato da questa cometa durante i suoi vari passaggi
ravvicinati con il Sole: sono questi ultimi la causa della progressiva
disintegrazione del nucleo cometario da cui si staccano i frammenti che
generano poi gli sciami di meteore.
Ma che cosa accade quando uno di questi frammenti entra in atmosfera? I
grani penetrano negli strati più esterni di questa alla velocità di qualche decina
di chilometri al secondo. Le piogge più spettacolari si hanno quando gli
impatti sono frontali, ovvero quando i frammenti entrano in collisione diretta
con l’atmosfera, sommando così le due velocità (quella della Terra e quella
dei frammenti che le vengono incontro). Il fenomeno luminoso inizia a
un’altezza di 110-115 km ed è dovuto alla scia di gas ionizzati generata
dall’impatto dei meteoroidi con le molecole di aria. Il fenomeno si conclude
generalmente dopo un breve lasso di tempo (qualche decimo di secondo) a
un’altezza di circa 90 km dal suolo, quando il frammento viene
completamente vaporizzato.
Le migliori condizioni di visibilità del fenomeno si verificano quando il
radiante, ovvero la zona di cielo da cui sembrano “irradiarsi” le scie luminose
per un semplice effetto prospettico, è ben alto sopra l’orizzonte, cioè nel
periodo in cui gli impatti sono proprio frontali. La costellazione in cui si trova
il radiante dà il nome allo sciame: le Perseidi hanno il loro radiante nella
costellazione di Perseo, le Leonidi in quella zodiacale del Leone e così via.
Occorre quindi capire qual è il momento in cui la costellazione dove è situato
il radiante dello sciame è meglio visibile nell’arco della nottata. Il motivo per
cui lo “sciame delle Perseidi” ha i suoi picchi di intensità sempre nella
seconda parte della nottata, cioè molto dopo la mezzanotte, è dovuto al fatto
che la costellazione di Perseo, verso la metà di agosto, comincia a diventare
meglio visibile a partire dalla mezzanotte ed è poi osservabile per tutto il resto
125
della notte. Analoghi ragionamenti valgono per tutti gli sciami.
In genere non è facile prevedere il numero di meteore all’ora che daranno
vita alla pioggia, ma un tasso orario (tecnicamente si parla di Zenithal Hourly
Rate, o ZHR, tasso orario zenitale, che rappresenta il numero di meteore
appartenenti a uno sciame osservate in condizioni standard ideali di visibilità)
di circa cinquanta-cento meteore è una buona stima per il massimo annuale di
attività delle Perseidi, mentre per le Leonidi, negli anni intorno al passaggio al
perielio della cometa progenitrice (la Tempel-Tuttle ha un periodo di 33 anni
circa), si può arrivare anche a diverse migliaia di meteore l’ora.
126
BUCHI NERI, MISTERI DEL COSMO
Bene, sin qui abbiamo parlato di asteroidi e dei potenziali rischi connessi alla
loro caduta sul nostro pianeta. Ma chiunque si avvicini all’astronomia prima o
poi sente forte la curiosità verso gli oggetti più misteriosi dell’Universo: i
buchi neri. Veri e propri “signori dell’oscurità”, in grado di mangiare
qualunque atomo passi nelle loro vicinanze e di non lasciare uscire nemmeno
la luce, tanto intensa è la loro gravità, questi oggetti sono un vero problema
per i fisici, che ancora non sanno capire che cosa può succedere alla materia
una volta che vi sia caduta dentro, e per gli astronomi, che spiegano i
fenomeni più energetici del cosmo proprio invocando la loro presenza, senza
però avere mai la possibilità di osservarne uno direttamente.
Cerchiamo di capire qualcosa di più di questi affascinanti oggetti celesti,
parlando di quanto è stato scoperto grazie agli studi teorici e alle osservazioni
dallo spazio, e quanto ancora resta da svelare del loro mistero.
Che cos’è un buco nero
Il nome buco nero (in inglese black hole) fu coniato nel 1967 dall’astrofisico
teorico statunitense John Archibald Wheeler (1911-2008) per riferirsi a un
corpo celeste la cui gravità era così intensa da non lasciar scappare nemmeno
la luce. “Nero” perché non emette luce. Ecco il motivo di tanto mistero:
poiché i buchi neri non sono luminosi, non possiamo vederli mai direttamente
e siamo costretti a cercarli e studiarli solo attraverso gli indizi indiretti che la
loro presenza lascia nell’ambiente circostante. In altre parole, se un buco nero
mangia una stella, noi non “vediamo” il buco nero, ma possiamo osservare
comunque gli effetti devastanti del suo intenso campo gravitazionale.
Nonostante sia stato Wheeler a coniare l’espressione “buco nero” riferendosi
al possibile stadio finale di una stella collassata su se stessa sotto l’effetto della
gravità, l’idea che potessero esistere corpi simili – almeno dal punto di vista
teorico – risale a oltre due secoli fa. Furono l’inglese John Michell (17241793) e il francese Pierre-Simon de Laplace a ipotizzare, l’uno
indipendentemente dall’altro, l’esistenza di “stelle invisibili”, semplicemente
usando le leggi della dinamica e la legge di gravitazione universale di Newton
(adesso i buchi neri sono correttamente descritti utilizzando la teoria della
relatività generale di Einstein). In Esposizione del sistema del mondo (1798),
Laplace scrisse: «Una stella luminosa, della stessa densità della Terra, e con un
diametro pari a 250 volte quello del Sole, non permetterebbe, a causa della
127
sua attrazione gravitazionale, ai suoi raggi luminosi di raggiungerci; è dunque
possibile che i corpi celesti più grandi e più luminosi siano, per questo
motivo, invisibili».
Il concetto che sta alla base dell’idea di Laplace è quello di velocità di fuga.
Un buco nero, infatti, è un oggetto così compatto che la sua gravità è in grado
di trattenere anche la luce, che ha la massima velocità possibile (pari a circa
300.000 km/s). In pratica, per fuggire dal buco nero occorrerebbe una velocità
superiore a quella della luce, ma ciò è impossibile!
È chiaro che un astro del genere cessa di essere visibile, perché nemmeno la
luce riesce a sfuggire dalla sua intensa gravità. Fu Einstein a spiegarlo con la
deflessione della luce da parte di un campo gravitazionale. In pratica, nelle
vicinanze di un buco nero, lo spazio-tempo è così incurvato che anche le
traiettorie dei raggi luminosi si ripiegano su loro stesse senza via di scampo.
(Un esempio: per trasformare il Sole in un buco nero dovremmo concentrare
tutta la sua massa in una sfera di 3 km di raggio, mentre la Terra dovrebbe
diventare una pallina con una raggio di appena 9 mm!)
Oggi non siamo in grado di sapere che cosa accada davvero alla materia e
all’energia che vi cadono dentro. Una sorta di lieto fine, però, può esistere
anche cadendo in un buco nero. Sì, perché i buchi neri, anche se molto
lentamente, “evaporano”. Ovvero, riemettono tutta la materia e l’energia da
cui sono composti. In altre parole, non sono così neri come li dipinge la
relatività generale. A dimostrarlo fu, negli anni Settanta, l’inglese Stephen
Hawking (1942), applicando le leggi della meccanica quantistica. Prima o poi,
quindi, la materia caduta nei buchi neri uscirà nuovamente fuori. Basterà
attendere qualche migliaio di miliardi di miliardi di miliardi di miliardi di
miliardi di miliardi di miliardi di anni! (In confronto, l’età del nostro universo
è di circa 13,7 miliardi di anni).
LA VELOCITÀ DI FUGA
Se lanciamo un sasso verso l’alto, per la forza di gravità, esso rallenta sempre di più fino a raggiungere
un’altezza massima e poi ricade a terra. Con una spinta maggiore della precedente, il sasso
raggiungerà un’altezza maggiore, ma invertirà sempre il suo moto. Solo imprimendogli una certa
velocità limite, saremmo in grado di farlo sfuggire definitivamente dal campo gravitazionale della Terra.
Tale velocità limite, detta appunto velocità di fuga, dipende solo dalla massa e dalle dimensioni dell’astro
da cui si vuole sfuggire. Per la Terra, per esempio, vale 11,2 km/s, mentre per il Sole è pari a 618 km/s.
Per le nane bianche, di massa simile al Sole, ma molto più piccole (hanno diametri di poche decina di
migliaia di chilometri), la velocità di fuga è di circa 7000 km/s, per le stelle di neutroni, con masse non
molto superiori e dimensioni pari a quelle di una grande metropoli, arriva a 150.000 km/s.
I tre (o quattro) tipi di buco nero
128
Fino a una quindicina di anni fa, le osservazioni davano conto di due soli
tipi di buco nero: quelli stellari, ovvero con masse confrontabili con quella del
Sole o non molto superiori, e quelli supermassicci, con masse che vanno da
qualche centinaio di migliaia a molti milioni di masse solari. Ma da qualche
tempo, grazie alle immagini e agli spettri ad alta risoluzione di satelliti per
raggi X come Chandra e XMM-Newton, un terzo tipo ha fatto la sua
apparizione sulla scena: il buco nero di massa intermedia, con masse tipiche di
migliaia di volte quella del Sole. Ma andiamo con ordine.
I buchi neri stellari sono quelli noti da più tempo. Essi si originano quando
una stella di grande massa, al termine della sua evoluzione, esaurisce tutto il
suo combustibile nucleare e collassa su se stessa per effetto della propria
gravità. L’evento, un’esplosione che squassa l’astro – è il fenomeno noto
come supernova – è catastrofico: se il nucleo della stella supera la decina di
masse solari, nessuna forza nucleare è in grado di contrastare il collasso
gravitazionale e il risultato finale è un buco nero.
Tutt’altra origine hanno i buchi neri supermassicci, individuati per la prima
volta nei nuclei attivi di alcune galassie. Diverse sono le ipotesi sulla loro
formazione: dal buco nero stellare che in milioni di anni mangia tutte le stelle
che lo circondano, all’ammasso di buchi neri che si fondono insieme, a,
infine, un’enorme nube di gas che collassa direttamente in un buco nero
supermassiccio.
I buchi neri supermassicci sono fra gli oggetti più energetici del cosmo. Si
trovano al centro di moltissime galassie (se non di tutte; anche la nostra ne ha
uno), talvolta rendendo i loro nuclei luminosissimi. Le galassie con il buco
nero centrale ancora avvolto da una grande quantità di materiale in caduta e
quindi in grado di produrre grandissime quantità di energia sono dette attive,
e i loro nuclei sono appunto detti nuclei galattici attivi. I quasar, per esempio,
ovvero gli oggetti più distanti del cosmo che noi siamo in grado di osservare,
sono galassie attive in cui solo il nucleo, brillantissimo, è visibile da miliardi
di anni-luce di distanza.
Ancora un mistero restano invece i buchi neri di massa intermedia, che
secondo alcune ricerche sarebbero stati individuati in alcune galassie o al
centro di ammassi stellari particolarmente densi (ammassi globulari). Su
questo tipo di oggetti incombe però lo scetticismo di molti astronomi, anche
se alcune recenti ricerche ipotizzano la presenza di buchi neri di taglia
intermedia anche in prossimità del centro della nostra galassia.
Stephen Hawking ha anche teorizzato l’esistenza di un quarto tipo di buco
nero, quello mini, o micro, con masse di appena un miliardo di tonnellate
129
(circa la massa di una grande montagna). Dovrebbero essere oggetti
primordiali, ovvero nati nei primi istanti di vita dell’Universo, quando la
pressione era elevatissima. Ma di questi non si è ancora trovata alcuna traccia.
Come funziona un buco nero supermassiccio? All’origine delle incredibili
luminosità dei nuclei galattici attivi ci sono le altissime temperature raggiunte
dal gas in caduta a spirale verso il buco nero supermassiccio. La materia
forma un disco di accrescimento o, meglio, una ciambella (“toro”) che
avvolge il “mostro”. Il gas, riscaldato a milioni di gradi, emette radiazione
praticamente a tutte le lunghezze d’onda, dalle onde radio ai raggi X.
L’accrescimento di materia è una fonte molto efficiente di energia: ne produce
a un tasso 10 volte superiore a quello in funzione nelle stelle (reazioni
nucleari).
In circa il 10 per cento dei casi, si osservano anche dei violenti getti di
materia fuoriuscire in direzioni opposte. In questi getti, probabilmente causati
dagli intensi campi magnetici presenti nelle vicinanze del buco nero, la materia
si allontana dal buco nero viaggiando a velocità molto prossime a quella della
luce.
Perché l’Universo non è risucchiato dai buchi neri?
La sorte ultima dell’Universo è oggetto di discussione da secoli, ma il suo
studio assunse una prima formulazione scientifica solo dopo la scoperta della
legge di gravitazione universale da parte di Isaac Newton, nel 1687. Il quesito
fu posto così dal canonico Richard Bentley in una lettera indirizzata allo
scienziato: se tutto si attrae, come fa l’Universo a non crollare su se stesso? In
realtà, due corpi celesti attratti reciprocamente dalla gravità, possono, dopo un
primo avvicinamento, addirittura allontanarsi indefinitamente, oppure orbitare
uno attorno all’altro senza mai cadersi addosso l’un l’altro.
Anche ipotizzando che ogni galassia dell’Universo contenga un buco nero
massiccio al suo interno, le zone “a rischio” sono quelle centrali, mai quelle
periferiche (il Sole non cadrà mai nel buco nero centrale della nostra galassia).
Quindi difficilmente vedremo il nostro universo, oltre tutto in espansione,
interamente fagocitato dai propri buchi neri. C’è però chi ipotizza che
l’Universo stesso sia un enorme buco nero: ma allora noi saremmo già al suo
interno!
130
CYGNUS X-1: IL PRIMO (E UNICO?) CANDIDATO
La nostra galassia non è immune dalla presenza di potenziali candidati a
buco nero. Per fortuna nessuno è così vicino a noi da rappresentare una
minaccia per la sopravvivenza della Terra o del Sistema Solare. Nonostante
l’elevato numero di sorgenti di raggi X compatte osservate (le candidate
migliori per ospitare un buco nero), non esiste infatti ancora alcuna certezza
su nessun candidato. Fra questi, l’unico che ancora resiste strenuamente a
ogni possibile altra interpretazione delle osservazioni è il sistema binario
compatto noto come Cygnus X-1, ovvero la sorgente X più luminosa della
costellazione del Cigno.
Questo sistema, con un periodo orbitale di circa cinque giorni e mezzo, è
composto da una stella blu molto calda e di grosse dimensioni (circa 30 masse
solari, di diametro circa 20 volte quello solare) facilmente visibile anche con
un binocolo o con un telescopio amatoriale e da una secondaria invisibile la
cui massa stimata è di una quindicina di masse solari, fatto che lo rende uno
dei buchi neri di tipo stellare più massicci finora conosciuti nella nostra
galassia.
A una distanza di 6100 anni luce, se la secondaria fosse una stella normale,
sarebbe anch’essa facilmente visibile. Misure molto accurate hanno permesso
di determinare la rotazione del buco nero, che si stima abbia “appena” 6
milioni di anni, un tempo relativamente breve dal punto di vista astronomico,
ma sufficiente per farlo “ingrassare” a spese della stella compagna, da cui
risucchia continuamente gas: l’“orizzonte degli eventi”, che è proprio il punto
di non ritorno per il materiale in caduta dal disco di accrescimento verso il
buco nero, ruota più di 800 volte al secondo.
Contrariamente alla teoria dell’evoluzione stellare sulla formazione dei buchi
neri stellari, sembra che questo “mostro del cielo” non sia nato dall’esplosione
di una supernova, ma da un collasso stellare verificatosi senza passare per
quella fase. Gli astronomi ipotizzano che l’astro progenitore del buco nero
fosse una stella con una massa iniziale molto grande, addirittura maggiore di
100 masse solari, che si sarebbe poi drasticamente ridotta grazie all’azione di
intensi venti stellari, che avrebbero spazzato via gran parte degli strati esterni
della stella.
La sua invisibilità, l’intensa emissione X prodotta dal sistema e, infine, la
stima della massa hanno indotto la maggioranza degli astronomi a pensare di
essere davanti al primo caso accertato di buco nero stellare. Ma per lungo
131
tempo c’è stato qualche scettico: e fra questi troviamo anche l’inglese
Hawking, uno dei maggiori studiosi di buchi neri e protagonista, nel 1974, di
una curiosa scommessa con il collega statunitense Kip Thorne (1940), che
invece era già all’epoca un deciso sostenitore della candidatura di Cygnus X-1
a buco nero. Hawking riconobbe la sconfitta solo nel 1990, davanti a dati che
non permettevano più dubbi sulla natura dell’oggetto.
Quella sulla natura di Cygnus X-1 non è l’unica scommessa di Hawking.
Dopo decenni di studi teorici sui buchi neri, lo scienziato, famoso anche per i
suoi libri divulgativi sull’argomento, ha scoperto che quello che aveva sempre
pensato su questi misteriosi oggetti non era vero. In particolare, Hawking
aveva ipotizzato che la materia, una volta caduta nel buco nero, sarebbe
scomparsa per sempre, e con essa tutto il suo contenuto di informazione. Era
così certo di questo che nel 1997 ci scommise sopra con il collega statunitense
John Preskill. Ma il 21 luglio 2004, in un congresso sulla relatività a Dublino,
Hawking ha dato ragione a Preskill (inviandogli l’enciclopedia promessa). I
buchi neri non fanno proprio sparire tutto, anzi, hanno una sorta di
“memoria”. Al loro interno, infatti, potrebbero ancora conservare tracce di ciò
che hanno ingoiato. Cosicché, “evaporando” (cioè, come si è detto, emettendo
lentamente radiazione per effetto quantistico), restituirebbero questa
informazione al nostro Universo. Ma, nonostante la fama di Hawking, c’è
ancora molto scetticismo.
132
COME SI INDIVIDUA UN BUCO NERO
Naturalmente, non avremo mai alcuna possibilità di individuare un buco
nero isolato nello spazio. Sono solo gli effetti sulle stelle e sulla materia che lo
circondano a fornirci indizi sull’eventuale presenza di uno di questi oggetti.
Per spiegarlo, l’astrofisico John Archibald Wheeler ideò una curiosa analogia.
Supponiamo di trovarci in una sala da ballo scarsamente illuminata dove tutte
le donne siano vestite di bianco e gli uomini abbiano invece abiti scuri.
Guardando le coppie ballare, vedremo le donne muoversi in una coreografia
che ci farà con facilità intuire la presenza dei partner maschili, seppure
invisibili.
In effetti, solo da qualche anno si è “accesa una luce” sui buchi neri. Grazie
a strumenti e tecniche sempre più sofisticate da terra e dallo spazio i buchi
neri sono meno misteriosi, o almeno è meno misterioso l’ambiente che li
circonda. Un buco nero infatti non è visibile direttamente, e l’unico modo per
individuarne uno, di qualsiasi tipo, è che sia circondato da una sufficiente
quantità di materia (stelle e gas caldo) che gli orbita attorno a distanza
ravvicinata.
Per i buchi neri stellari, per esempio, significa osservare il moto orbitale di
una stella attorno a una compagna invisibile in un sistema binario. I sistemi
binari compatti – composti da due astri molto vicini fra loro di cui uno è
invisibile – sono in effetti un obiettivo privilegiato degli astrofisici in cerca di
buchi neri. L’indizio della presenza di un buco nero (o di una stella di
neutroni) è la forte emissione nei raggi X. Il motivo è il seguente. Il buco
nero, con la sua intensa attrazione gravitazionale, può strappare materia dalla
stella compagna. Questo gas si dispone su un disco appiattito, cadendo a
spirale verso il buco nero. È l’attrito prodotto dalle collisioni fra le particelle
del gas in caduta a riscaldare gli strati più interni del disco fino a temperature
di alcuni milioni di gradi, producendo l’intensa emissione di raggi X.
Grazie alle osservazioni in banda X, svolte nel corso di molti decenni, sia
nella nostra che in alcune galassie vicine sono state scoperte sorgenti binarie
compatte, fra cui una decina di sistemi contenenti potenziali candidati a buco
nero. Il problema più grande per sciogliere il nodo è infatti quello di
determinare la massa dell’astro invisibile. Questa, anche se con grande
approssimazione, è determinabile studiando il moto della compagna o, con
ancora maggiore difficoltà, misurando la luminosità X della materia in caduta,
legata da una relazione alla massa del corpo su cui cade.
133
Discorso analogo vale per i buchi neri supermassicci osservati nei nuclei di
molte galassie e le cui masse vengono stimate misurando le velocità orbitali
dei gas in caduta nel “mostro”. In questo caso sono proprio le osservazioni
svolte nel visibile (con telescopi da terra e dallo spazio) e in banda radio (con
radiotelescopi a terra) a mostrare ripidi aumenti di velocità delle nubi di gas
orbitanti al centro delle galassie. La spiegazione è che queste alte velocità
orbitali vengono causate dall’intenso campo gravitazionale di un oggetto
massiccio. L’osservazione in banda X serve poi a confermare l’elevata
produzione di energia causata dalla materia in caduta verso il buco nero.
Fu l’italiano Riccardo Giacconi a intraprendere, all’inizio degli anni
Sessanta, le ricerche nell’astronomia X (lavorando però negli Stati Uniti). Il
premio Nobel assegnatogli nel 2002 è il riconoscimento per i suoi «contributi
pionieristici all’astrofisica, che hanno portato alla scoperte delle sorgenti X nel
cosmo». Negli ultimi anni le scoperte sui buchi neri si sono moltiplicate.
Autori di importanti osservazioni, oltre all’osservatorio orbitante per raggi X
Chandra della NASA, sono stati i due satelliti europei XMM-Newton e
Integral, il primo lanciato dall’agenzia spaziale europea ESA alla fine del 1999,
il secondo attivo dall’ottobre del 2002. Entrambi scrutano il cielo con occhi
“speciali”. Il primo ha infatti un telescopio per raggi X, mentre il secondo è
dedicato in particolare allo studio dei raggi gamma. E rapide e intense
emissioni di raggi X e gamma sono proprio le “tracce” che gli astrofisici
cercano quando vanno a caccia di buchi neri.
A emettere raggi X è infatti la materia caldissima in caduta verso il “mostro”
che la sta fagocitando. I raggi gamma sono invece l’indizio della nascita di un
nuovo buco nero. A emetterli sono stelle di grandissima massa che esplodono
come supernovae. E quello che resta di queste immani esplosioni è proprio un
buco nero.
134
IL TELETRASPORTO: FANTASIA O REALTÀ?
Gallerie di tarli e paradossi del nonno
Nel 1957, lavorando a degli sviluppi matematici della teoria della relatività
generale, John Archibald Wheeler introdusse il concetto di wormhole –
letteralmente “buco di verme”, ma tradotto in italiano con l’espressione
“galleria di tarlo” –, per descrivere degli ipotetici tunnel nello spazio-tempo,
ovvero delle gallerie gravitazionali (in realtà l’idea era stata già teorizzata nel
1921 dal matematico e fisico teorico tedesco Hermann Weyl, 1885-1955). Noti
con il termine tecnico di “ponti di Einstein-Rosen”, in onore dei due scienziati
che nel 1935 pubblicarono un articolo sull’argomento (Nathan Rosen, 19091995, è stato un fisico israeliano, già collaboratore di Albert Einstein),
sarebbero essenzialmente delle “scorciatoie” per spostarsi rapidamente da un
punto a un altro dell’Universo, in quanto permetterebbero di viaggiare tra di
essi più velocemente di quanto la luce impiegherebbe a percorrere la distanza
attraverso lo spazio normale.
Per spiegare il concetto di wormhole si pensi a come può muoversi un
verme che voglia andare da una parte all’altra di una mela (che è il suo
“universo”). Se viaggia sulla sua superficie, il verme è costretto a percorrere
metà della sua circonferenza per muoversi fra due punti opposti della mela,
mentre se decide di scavare un cunicolo direttamente attraverso il frutto, la
distanza che deve percorrere è ovviamente inferiore (è infatti pari al
diametro). Ebbene, il foro attraverso la mela rappresenta proprio il cunicolo
spazio-temporale.
Purtroppo ancora non ci è dato di sapere se i wormhole esistano davvero e
se sia possibile viaggiare nello spazio-tempo come in tanti film di
fantascienza. Un celebre esempio di wormhole cinematografico è quello del
già citato film Contact (1997), tratto dall’omonimo romanzo del famoso
astronomo e divulgatore statunitense Carl Sagan (1934-1996), autore della
celebre trasmissione televisiva di divulgazione scientifica Cosmos (1980).
Ma le “gallerie di tarlo”, oltre a garantire viaggi nello spazio – non solo fra
due punti dello stesso Universo, ma addirittura mettendo in comunicazione
due universi separati –, permetterebbero anche viaggi nel tempo! Tuttavia
molti fisici, fra cui il solito Stephen Hawking, ritengono che la Natura,
attraverso le leggi della fisica, impedisca tali fenomeni (è l’ipotesi della
“censura cosmica”), proprio a causa dei paradossi che sarebbero implicati da
un viaggio nel tempo, sapientemente mostrati nel romanzo La macchina del
135
tempo (1895) dello scrittore inglese Herbert George Wells (1866-1946) o nel
film Ritorno al futuro (1985) del regista statunitense Robert Zemeckis (1951)
e nei due capitoli successivi. Il problema tipico è quello noto con il nome di
“paradosso del nonno”: se, viaggiando indietro nel tempo, uccidessimo nostro
nonno prima che lui possa avere figli (ovvero uno dei nostri genitori!), noi
non potremmo nascere, quindi nemmeno viaggiare nel tempo né uccidere il
nonno… rendendo di nuovo possibile la nostra nascita, e quindi il viaggio nel
tempo, e l’uccisione… e così via, in un ciclo infinito! Questo paradosso e
alcune sue suggestive varianti, come quella in cui un viaggiatore nel tempo
uccide se stesso da giovane, vengono utilizzati per dimostrare l’impossibilità
logica dei viaggi a ritroso nel tempo.
Allora, se i wormhole non esistono, forse non ci resta altro che il
teletrasporto.
«Beam me up, Scotty!» (Tirami su, Scotty!)
I cultori di Star Trek, una delle serie TV più longeve e famose della storia,
avranno certamente riconosciuto l’ordine con cui il comandante
dell’astronave Enterprise, il leggendario Capitano Kirk, chiedeva al suo
ufficiale Montgomery “Scotty” Scott, ingegnere capo della nave e gestore del
sistema di teletrasporto, di venire “tirato su” a bordo dell’Enterprise da
qualunque altro luogo si trovasse in quel momento (la superficie di un
pianeta, un’altra astronave ecc.). Solo fantascienza o il teletrasporto è
veramente possibile?
Nei termini in cui si realizza il teletrasporto alla Star Trek, dove a venire
trasferita è la materia di cui il Capitano Kirk è composto, siamo sicuramente
nel campo della fantascienza, ma è anche vero che esperimenti su un
particolare tipo di teletrasporto, noto come “teletrasporto quantistico”, sono
stati realizzati in varie parti del mondo, anche in Italia, con risultati molto
promettenti.
Nel teletrasporto quantistico però non si trasferisce a distanza materia reale,
ma viene esclusivamente trasferita l’“informazione” che ne descrive
esattamente lo stato fisico in cui si trova. Con questa tecnica non si
teletrasporta un corpo o un oggetto materiale, bensì la “funzione d’onda”
matematica relativa a quel corpo o quell’oggetto. L’informazione sullo stato
fisico della particella è infatti tutta contenuta nella sua funzione d’onda, che
esprime, in termini probabilistici, qual è la sua posizione, a che velocità si
muove, se è dotata di spin (cioè se ruota su se stessa come una trottola e in
quale verso), quanta energia ha e altro ancora. È proprio questa funzione
136
d’onda a raccogliere tutta l’informazione possibile per ricostruire altrove quel
corpo o quell’oggetto.
I primi esperimenti di teletrasporto vennero fatti nel 1997: il primo da un
gruppo di ricercatori dell’Università di Innsbruck guidato dall’austriaco Anton
Zeilinger, oggi all’Università di Vienna, l’altro, pubblicato immediatamente
dopo, ma più complesso, da un gruppo di fisici guidato da Francesco De
Martini, dell’Università “La Sapienza” di Roma. Sono loro i veri pionieri degli
esperimenti sul teletrasporto quantistico. Entrambi riuscirono a trasportare a
distanza le informazioni quantistiche – ovvero dati come l’energia o lo spin
della particella – per riprodurre esattamente lo stato di un fotone, una
particella di luce.
Solo pochi anni prima, nel 1993, Charles Bennett e collaboratori erano
riusciti a dimostrare presso il centro di ricerca dell’IBM di Yorktown (Stati
Uniti) che era possibile teletrasportare stati quantistici attraverso canali di
comunicazione classici – come una telefonata o un messaggio di posta
elettronica, fatto che garantisce che non vi sia alcun superamento della
velocità della luce, limite invalicabile della “trasmissione di informazioni” –
rispettando certe condizioni imposte dalla meccanica quantistica, la scienza
dell’infinitamente piccolo che sta alla base di questi studi. In pratica, De
Martini e Zeilinger misero alla prova le ricerche teoriche di Bennett, aprendo
così la strada allo studio sperimentale del teletrasporto quantistico.
Entanglement, il magico intreccio fra particelle
Ma che cosa succede veramente in un esperimento di teletrasporto
quantistico? Alla base del fenomeno del teletrasporto si ha l’effetto a distanza
che si manifesta fra due particelle quantisticamente correlate o intrecciate,
dette entangled, evidenziato per la prima volta in un celebre articolo firmato
da Einstein, Podolsky e Rosen nel 1935 (Einstein e Rosen li abbiamo già
incontrati parlando dei wormhole, Boris Podolsky, 1896-1966, fu un fisico
russo naturalizzato statunitense). L’entanglement, termine inglese usato
appunto per definire questa proprietà, consiste proprio nell’“intreccio”,
quantisticamente inestricabile, di più particelle, i cui stati non possono più
essere descritti singolarmente: in estrema sostanza, due particelle entangled si
comportano come se fossero un tutt’uno, anche se si trovano molto distanti
l’una dall’altra.
Se guardiamo le due particelle singolarmente otteniamo che i risultati di
misure ripetute si presentano con valori casuali, cioè da queste non si ricava
nessuna informazione utile, mentre se eseguiamo misure sulle due particelle e
137
le confrontiamo si osservano delle correlazioni che si mantengono anche se
cambiamo tipo di misura. Ovvero, se eseguiamo una certa misura su una
particella intrecciata, la particella gemella ne subirà l’effetto, e collasserà in
uno stato ben preciso (che dipende dal risultato ottenuto dalla misura sulla
prima particella), anche se le due particelle si trovano a notevole distanza. In
altre parole, dal risultato di una misura sullo stato di una particella
appartenente a una coppia entangled è possibile conoscere immediatamente lo
stato della seconda particella, quand’anche quest’ultima si trovasse a distanze
astronomiche.
Consideriamo il caso in cui Alice desidera teletrasportare una particella
all’amico Bob, che si trova distante da lei. Ora, in base alle “regole” del
teletrasporto, Alice non può “consegnare” a Bob la particella vera e propria,
ma solo le informazioni che servono per ricrearne una esattamente identica
all’originale e, soprattutto, indistinguibile da quella. Alice e Bob si dividono la
coppia di particelle intrecciate (nel caso in cui le due particelle intrecciate sono
fotoni, uno viene spedito ad Alice e l’altro a Bob), a questo punto Alice fa
interagire la particella che vuole teletrasportare con la particella intrecciata a
sua disposizione. Ne ottiene un certo risultato che poi comunica a Bob
attraverso un canale classico, per esempio la linea telefonica o internet.
Quando Bob riceve da Alice il risultato della misura esegue una certa
operazione (il tipo di operazione dipende dal risultato ottenuto) sulla particella
intrecciata da lui posseduta, ottenendo così la stessa particella che inizialmente
era di Alice.
138
Fig. 5 Modello schematico di un sistema per il teletrasporto quantistico.
Sembra tutto molto semplice, ma le condizioni a cui il teletrasporto può
realizzarsi sono assolutamente vincolanti, come appunto dimostrato da
Bennett: Alice non può conoscere lo stato della particella teletrasportata; lo
stato di partenza viene perso nel processo, ovvero la particella viene distrutta
dal processo di misura e “ricostruita” da Bob in un posto lontano; il
teletrasporto richiede comunque un canale di comunicazione classico fra Alice
e Bob.
«Si-può-fare!» (Frankenstein Junior)
La domanda allora sorge spontanea: il teletrasporto quantistico può avere
applicazioni pratiche? Certamente sì. Intanto occorre considerare che il
teletrasporto è un protocollo appartenente alla “teoria dell’informazione
quantistica”, che è un’estensione della “teoria dell’informazione classica”,
quella che sta alla base di ogni trasmissione significativa di segnali tramite
telefoni, radio, TV. Ma, soprattutto, lo studio del teletrasporto porterà in un
futuro lontano alla realizzazione di un nuovo tipo di elaboratore, il computer
139
quantistico, per mezzo del quale saremo in grado di risolvere problemi
attualmente impossibili da affrontare da un normale computer, come, per
esempio, la “fattorizzazione in numeri primi” di un numero molto grande,
oggi fondamento di ogni cifratura criptata, per usi di segreto bancario, militare
e altro ancora.
Intanto, nel gennaio del 2009 un gruppo di fisici guidato da Christopher
Monroe dell’Università del Maryland (Stati Uniti) ha teletrasportato lo stato di
un atomo di itterbio a un secondo atomo identico che si trovava a un metro di
distanza. Non sarà il teletrasporto di Star Trek ma, considerata la complessità
di un atomo rispetto a un fotone, è un altro bel passo in avanti verso il
computer quantistico.
Il teletrasporto di fotoni è andato indubbiamente molto avanti rispetto ai
primi esperimenti, tanto che a settembre 2012 un gruppo internazionale di
ricercatori, fra cui ritroviamo Anton Zeilinger (che nel 2004 era riuscito a
teletrasportare le proprietà di alcuni fotoni per 600 metri, scavalcando il
Danubio attraverso un sottopassaggio dove passa la rete fognaria di Vienna),
ha pubblicato un articolo in cui dichiara di aver “teletrasportato” dei fotoni
dall’isola di Tenerife all’isola di Las Palmas, nell’arcipelago delle Canarie
(luogo senz’altro più ameno delle fogne della capitale austriaca), distanti ben
143 chilometri, stracciando ogni record precedente di distanza. A novembre
2012, invece, un altro gruppo di fisici guidato dal cinese Jian-Wei Pan,
dell’Università della Scienza e della Tecnologia di Hefei (Cina), ha pubblicato
una ricerca dove mostra di aver applicato per la prima volta il teletrasporto
quantistico a un oggetto macroscopico, costituito da un gruppo di 100 milioni
di atomi di rubidio delle dimensioni complessive di 1 millimetro.
Il gatto di Schrödinger e il computer quantistico
I computer attuali basano il loro funzionamento sulla codifica
dell’informazione mediante l’uso di bit, dove ogni bit può assumere il valore
0 o 1. Nei computer quantistici si sfrutta invece il principio di sovrapposizione
valido per i sistemi quantistici: al bit si sostituisce così il “quantum-bit” o
“qubit”, che può trovarsi anche in uno stato in cui vale sia 0 che 1. Proprietà
che permetterebbe di aumentare la potenza di calcolo in maniera drammatica:
basti pensare che un’operazione che oggi richiede anni di calcolo potrebbe
essere risolta in pochi secondi.
La paradossalità del principio di sovrapposizione quantistico è descritta dal
famoso “esperimento concettuale” noto con il nome di “gatto di Schrödinger”,
dal nome del fisico austriaco Erwin Schrödinger (1887-1961), che lo propose.
140
In questo esperimento un gatto – o un qualunque altro essere vivente – può
trovarsi in uno stato in cui è simultaneamente sia vivo che morto. Uno stato
impossibile per la fisica classica dei corpi macroscopici, ma comune nel
mondo microscopico, governato dalla meccanica quantistica.
141
Ringraziamenti
Lo so, forse è un ringraziamento anomalo, ma prima di tutto vorrei
ringraziare la casa editrice: per aver creduto in me sin dalla prima proposta
(era La fisica in casa) e per avermi nel corso degli anni rinnovato stima e
fiducia. La ringrazio anche per l’ottimo e puntuale lavoro di revisione del
testo (ma se trovate errori, la responsabilità è ovviamente mia).
Voglio infine manifestare tutta la mia gratitudine a chi, con la propria
presenza costante, mi aiuta ogni giorno della mia vita. Sono sempre loro,
attenti, comprensibili, disponibili, i componenti della mia splendida famiglia:
mia moglie Ester e i miei figli Giulia e Leonardo. È soltanto grazie alla loro
pazienza e alla loro capacità di sopportare le mie prolungate latitanze perché
curvo sulle pagine di questo libro che sono riuscito a completarlo e a
consegnarlo alle stampe nei tempi previsti dall’editore. Ma soprattutto perché,
grazie a loro, la vita è divertente e degna di essere vissuta.
142
Bibliografia
Gli scaffali delle librerie sono pieni di libri che trattano la fisica in maniera
divulgativa. Molti però affrontano soprattutto la fisica cosiddetta “di frontiera”
(o Big Science), ovvero quella dell’infinitamente grande o dell’infinitamente
piccolo, la cui ricerca si conduce tipicamente con grandi progetti e altrettanto
grandi (e costosi) strumenti, come telescopi orbitanti, missioni interplanetarie
e acceleratori di particelle. Ma, se si esclude l’ultimo capitolo, in questo libro
abbiamo trattato la fisica della nostra quotidianità, quella che spiega come
funzionano i fenomeni cui assistiamo (consapevoli o no) tutti i giorni. Per
questo motivo, a parte alcuni necessari riferimenti bibliografici a libri che
affrontano temi astronomici e di meccanica quantistica, abbiamo voluto
limitarci a quei titoli che, per livello di approfondimento e per argomenti
trattati, più si avvicinano a questo che avete appena finito di leggere.
I libri che trovate nell’elenco che segue sono frutto di una selezione molto
personale. Alcuni ci hanno guidato nell’esposizione, altri ci hanno ispirato
nella scelta degli argomenti, altri ancora li abbiamo segnalati semplicemente
perché ci sembrano buone (talvolta ottime) letture per chi vuole avvicinarsi
alla comprensione di questa splendida disciplina che è la fisica.
Naturalmente, per raccontarvi di alcuni argomenti un po’ più specialistici,
abbiamo fatto riferimento ad articoli scientifici originali (spesso in inglese).
Abbiamo tuttavia ritenuto non opportuno riportarli in questo elenco, perché
sono pubblicazioni specialistiche e quindi dense di formule. Ma sappiate che
se navigate un po’ in Rete e cercate alcuni dei nomi che abbiamo citato in
queste pagine, troverete anche i relativi riferimenti bibliografici.
Buone letture, dunque.
Le date di pubblicazione dei libri in elenco si riferiscono alle edizioni da noi
consultate. Di alcuni testi, soprattutto di quelli più datati, è possibile che
esistano ristampe o edizioni più recenti.
Aczel A., Entanglement. Il più grande mistero della fisica, Cortina, Milano
2004.
Atkins P.W., Le regole del gioco. Come la termodinamica fa funzionare
143
l’universo, Zanichelli, Bologna 2010.
Caprara G., Belloni L., La scienza divertente, Rizzoli, Milano 2002.
Corbò G., Il fisico in salotto, Salani, Milano 2010.
Ekeland I., Come funziona il caos. Dal moto dei pianeti all’effetto farfalla,
Bollati Boringhieri, Torino 2010.
Feynman R. P., Sei pezzi facili, Adelphi, Milano 2000.
Filocamo G., Mai più paura della fisica, Kowalski, Milano 2011.
Filocamo G., La fisica in ballo, Liberodiscrivere, Genova 2005.
Fiolhais C., Fisica per tutti, Tropea, Milano 2008.
Fiolhais C., Nuova fisica per tutti, Tropea, Milano 2010.
Franklin B., Autobiografia, Garzanti, Milano 1999 (trad. it. Giuseppe
Lombardo).
Frova A., Perché accade ciò che accade, Rizzoli, Milano 1995.
Frova A., La fisica sotto il naso, Rizzoli, Milano 2001.
Frova A., Ragione per cui, Rizzoli, Milano 2004.
Frova A., Se l’uomo avesse le ali, Rizzoli, Milano 2007.
Frova A., La scienza di tutti i giorni, Rizzoli, Milano 2010.
Giuffrida A., Sansosti G., Manuale di meteorologia, Gremese, Roma 2006.
Gleick J., Caos. La nascita di una nuova scienza, Rizzoli, Milano 2000.
Hawking S., Dal Big Bang ai buchi neri, Rizzoli, Milano 1988.
Krauss L., La fisica di Star Trek, Longanesi, Milano 1996.
Ludwig N., Guerrerio G., La scienza nel pallone. I segreti del calcio svelati
con la fisica, Zanichelli, Bologna 2011.
Marenco M., La fisica della domenica. Brevi escursioni nei quattro elementi,
Sironi, Milano 2011.
Masci S., Peres E., Pulone L., Fisica. La scienza che ci spiega come funziona
il mondo, Ponte alle Grazie, Milano 2004.
144
Prigogine I., Le leggi del caos, Laterza, Bari 2003.
Ricci E., Fisica, Giunti, Firenze 2007.
Ricci E., Atlante di fisica, Giunti, Firenze 2011.
Ricci E., La fisica in casa, Giunti, Firenze 2013 (seconda edizione).
Rigutti A., Meteorologia, Giunti, Firenze 2007.
Rigutti M., Comete, meteoriti e stelle cadenti, Giunti, Firenze 1997.
Rivieccio G., Dizionario delle scoperte scientifiche e delle invenzioni, Rizzoli,
Milano 2001.
Vacca R., Anche tu fisico, Garzanti, Milano 2008.
Walker J., Il luna park della fisica, Zanichelli, Bologna 1981.
Wheeler J.A., Gravità e spazio-tempo, Zanichelli, Bologna 1993.
Zeilinger A., La danza dei fotoni. Da Einstein al teletrasporto quantistico,
Codice, Torino 2012.
145
Argomenti trattati
A
Accelerazione
- accelerazione di gravità
- accelerazione gravitazionale
- accelerazione negativa
Accensione
- accensione comandata
- accensione spontanea
Acido nitrico
Acqua
- bomba d’acqua
- acquaforte
Aeriforme
Aeroplano
Aerosol
- aerosol atmosferico
Alcool
- alcool etilico
- alcool metilico
Aliante
Alisei
Alvarez
- Luis Alvarez
Ammasso
- ammasso globulare
- ammasso stellare
Ammoniaca
Anidride carbonica
Annals of Improbable Research
Antartide
Anticiclone
Apollo
Archimede di Siracusa
Arcobaleno
Argento
Argon
146
Aria
- circolazione verticale dell’aria
- aria ionizzata
- massa d’aria
- trascinamento dell’aria
Aristotele
Asse
- asse di figura
- asse di precessione
- asse giroscopico
- tenacia dell’asse
Assorbimento
Asteroide
- 2012 DA14
- Cerere
- Xena
Astronauta
Atmosfera
- assenza di atmosfera
- circolazione complessiva dell’atmosfera
- elementi minoritari dell’atmosfera
Attrattore
- attrattore strano
Attrito
- attrito aerodinamico
- coefficiente di attrito
- forza di attrito
Avancorsa
Azoto
- composti dell’azoto
- molecola di azoto
- ossidi di azoto
B
Back-spin
Banda X
Bandoneón
Baricentro
- proiezione del baricentro
Barsanti
- Eugenio Barsanti
Barthez
- Fabien Barthez
Bennett
- Charles Bennett
Bentley
- Richard Bentley
Benzina
147
Bernoulli
- Daniel Bernoulli
Bicicletta
Biomasse
- combustione delle biomasse
Biossido (o diossido) di carbonio
Bit
Black hole
Bolide
- scia del bolide
Bosone di Higgs
Bottiglia di Leida
Brecht
- Bertolt Brecht
Brinamento
Buco nero
- buco nero di massa intermedia
- buco nero mini (o micro)
- buco nero stellare
- buco nero supermassiccio
- tipi di buco nero
Buys Ballot
- legge di Buys Ballot
C
Calciatore
Calcio
Calore
- conduttori di calore
- flusso di calore
- trasmissione del calore
Camera
- camera di combustione
- camera stagna
Campo
- campo elettrico
- campo elettrostatico
- campo gravitazionale
Candela
Carbone
Carlos
- Roberto Carlos
Cella
- cella convettiva
- cella polare
Censura cosmica
148
Centro
- centro di gravità
- centro di spinta
Cerere
Ceres
Cernan
- Eugene Cernan
Cervello
Chaptal
- Jean-Antoine Chaptal
Chilogrammo-massa
Chilogrammo-forza (kg)
Chilometro lanciato
Ciclo
- ciclo biologico
- ciclo dell’acqua
- ciclo Otto
- ciclo termodinamico
Ciclone
- occhio del ciclone
- ciclone tropicale
Cielo Filho
- César Cielo Filho
Cilindro rotante
Clausius
- Rudolf Clausius
Cloro
Clorofluorocarburi
Coalescenza
Collasso gravitazionale
Collisione
Colloide
Colombo
- Cristoforo Colombo
Color Tango
Combustibile fossile
Cometa
- cometa di Halley
- P/Swift-Tuttle
- P/Tempel-Tuttle
- Shoemaker-Levy
Comportamento tissotropico
Compressione adiabatica
Condensatore
149
Condensazione
- nucleo di condensazione
Conduzione
Connery
- Sean Connery
Controller
Controrotazione
Convezione
- flusso di convezione
Coriolis
- Gaspard-Gustave de Coriolis
Corrente
- ascensionale
- convettiva
- verticale
Corso
- Mario Corso
Costa Concordia
Cratere di Chicxulub
Cretaceo
Cristallo
Curva
- curve “in conduzione”
Cygnus X
D
D’Arienzo
- Juan D’Arienzo
Dalton
- John Dalton
De Caro
- Francisco De Caro
De Martini
- Francesco De Martini
De Niro
- Robert De Niro
Decelerazione
Deep Impact
- missione Deep Impact
Deforestazione
Del Piero
- Alessandro Del Piero
Densità
Di Sarli
- Carlos Di Sarli
150
Dielettrico
Diffusione
- diffusione di Rayleigh
- teoria sulla diffusione
Dimensione frazionaria
Dinamica
- dinamica caotica
- leggi della dinamica
- prima legge della dinamica
- seconda legge della dinamica
- terza legge della dinamica
- tre leggi della dinamica
Dinosauro
- estinzione dei dinosauri
Dipendenza sensibile dalle condizioni iniziali
Dirigibile
Dispersione eterogenea
DNA
Drenaggio
E
Effetto
- effetto serra
- effetto Coriolis
- effetto farfalla
- effetto giroscopico
- effetto Magnus
- effetto Tyndall
Einstein
- Albert Einstein
Elastam (elastan)
Elettrone
Elicottero
Elio
Emisfero
- emisfero australe
- emisfero boreale
Energia
- energia chimica
- energia cinetica
- energia di movimento
- energia di posizione
- energia elastica
- energia eolica
- forme dell’energia
- energia meccanica
- energia nucleare
- energia potenziale
- energia raggiante
151
- energia solare
- energia termica
Entanglement
Entropia
Enunciato
- enunciato di Clausius
- enunciato di Kelvin
Eolo
Epilessia
Equazione
- equazione di Bernoulli
- equazione di Van der Waals
Equilibrio termico
Eris (già noto come Xena)
Eruzione vulcanica
ESA
Escursione termica
Espansione adiabatica
Etere
Everett
- David Everett
F
Fase
- fase disperdente
- fase dispersa
- spazio della fase
Feedback
- feedback positivo
Fenomeno elettrico atmosferico
Ferdinando III (poi Ferdinando I)
Ferrel
- William Ferrel
- celle di Ferrel
FINA
Fisica aliena
Fissione nucleare
Fluido
- fluido newtoniano
- fluido non newtoniano
- fluido refrigerante
Fluidodinamica
Formula
Forza
- forza aerodinamica
152
- forza centrifuga
- forza centripeta
- forza conservativa
- forza di attrazione gravitazionale
- forza di attrazione
- forza di attrito
- forza di coesione
- forza di Coriolis
- forza di galleggiamento
- forza di gravità
- forza di trascinamento
- forza elettrica
- forza fittizia
- forza gravitazionale
- forza impulsiva
- forza inerziale
- forza interatomica
- forza intermolecolare
- forza meccanica
- forza peso
- forza reale
Foschia
Fotosintesi
Franklin
- Benjamin Franklin
Frattale
- geometria del frattale
- frattale naturale
Freccia del tempo
Frenata
Freon
Fulmine
Fusione nucleare
G
Galassia
- galassia attiva
Galilei
- Galileo Galilei
Galleggiamento
Galleria di tarlo
Gardel
- Carlos Gardel
Gas
- gas attivo
- gas ideali
- gas inattivo
- gas inerte
- gas ionizzati
- moli del gas
- gas naturale
153
- gas nobile
- nube di gas
- gas perfetti
- equazione di stato dei gas
- gas rarefatto
- gas reale
- gas semipermanente
- gas serra
- temperatura del gas (T)
Gasolio
Gel idrocolloidale
Ghiaccio
- strato opaco di ghiaccio(o bianco)
- strato trasparente di ghiaccio
Giacconi
- Giuseppe Giacconi
Giocatore
Giove Pluvio
Giro della morte
Giroscopio
- giroscopio elettronico
Golf
Gotan Project
GPL
Gradiente del flusso
Graham Bell
- Alexander Graham Bell
Grandinata
Grandine
Grant
- Hugh Grant
Gravitazione
Guinness Book of Records
H
Hamilton
- William Rowan Hamilton
Hindenburg
- Paul von Hindenburg
Halley
- Edmond Halley
Hadley
- celle di Hadley
- George Hadley
- John Hadley
Hirotsu
- Nobuyoshi Hirotsu
154
Hiroshima
Herschel
- William Herschel
Hackman
- Gene Hackman
Haumea
Hawking
- Stephen Hawking
I
Idrogeno
Ig Nobel
Impulso
Inerzia
Inversione termica
Ionizzazione
Ipotesi del continuo
Iridio
Irraggiamento
Isocora
- isocora di combustione
- isocora di scarico
Isolante termico
Istiophorus platypterus
J
Jacobi
- Carl Gustav Jacob Jacobi
Jannacci
- Enzo Jannacci
Joule
- James Prescott Joule
L
Lagrange
- Joseph-Louis Lagrange
Lampo
Laplace
- Pierre-Simon de Laplace
Latini
- Brunetto Latini
Lattice naturale
Lavoro
- lavoro meccanico
Lavoisier
- Antoine-Laurent Lavoisier
Legge
155
- legge di Avogadro
- legge di Boyle e Mariotte
- legge di Charles
- prima legge di Gay-Lussac
- seconda legge di Gay-Lussac
- legge di gravitazione universale
Leonardo da Vinci
Leonidi
Linea della massima pendenza
Linthorne
- Nicholas Linthorne
Liquido
LRO (Lunar Reconoissance Orbiter)
Luna Park
Luna
- faccia della Luna
Lycra
M
Magnus
- Heinrich Gustav Magnus
Makemake
Mandelbrot
- Benoît Mandelbrot
Mappa meteorologica
Massa
- massa gravitazionale
- massa inerziale
Materia
- cambiamenti di stato della materia
- quarto stato della materia
- stati della materia
- stato aeriforme della materia
- stato liquido della materia
- stato solido della materia
Materiale interplanetario
Matteucci
- Felice Matteucci
Meccanica
- meccanica dei fluidi
- leggi della meccanica
- meccanica quantistica
- meccanica statistica
Mercalli
- Giuseppe Mercalli
Metano
Meteor Crater
156
Meteore
Meteorite
- meteorite metallico
Meteoroide
- orbita del meteoroide
Meucci
- Antonio Meucci
Michell
- John Michell
Mie
- Gustav Mie
Migliacci
- Franco Migliacci
Milonga
Modugno
- Domenico Modugno
Mole
Momento
- momento angolare
- conservazione del momento angolare
- momento meccanico
Mondo sublunare
Mongolfiera
Monossido di carbonio
Monroe
- Christopher Monroe
Mont Saint-Michel
Montagne russe
Motilità
Moto
- moto accelerato
- moto ascendente
- moto atmosferico
- moto caotico
- moto di precessione
- moto discendente
- moto in caduta libera
- moto periodico
- moto rettilineo uniforme
- moto rotatorio
- moto smorzato
- traiettoria di moto
- moto traslatorio
- moto trasversale
Motore
- motore a carburazione
- motore a combustione interna
157
- motore a due tempi
- motore a iniezione
- motore a scoppio
- motore a quattro tempi
- motore a scoppio
- motore ad accensione comandata
- motore ad accensione spontanea
- motore Diesel
Mulinello di Joule
Muro di Berlino
Musschenbroek
- Pieter van Musschenbroek
N
N (azoto)
Nagasaki
Narcotango
NASA
(National
Aeronautics
Administration)
Near-Earth Asteroid (NEA)
Nebbia
Near-Earth Object (NEO)
Nernst
- Walther Nernst
Nettuno
Neve
- neve “calda”
- neve “fredda”
Newton (N)
- Isaac Newton
Nitrati
Nitrogène
Norton
- Lorenz Edward Norton
Nucleo
- nucleo cometario
- nucleo di ghiacciamento
- nucleo galattico attivo
- nucleo igroscopico
Nuotare
O
O (ossigeno)
Onda
- onda elettromagnetica
- funzione d’onda
- onda luminosa
- onda sonora
158
and
Space
Opera
- opera morta
- opera viva
Ossigeno
- livello di ossigeno
- molecola di ossigeno
Otto
- Nikolaus August Otto
Ozono
- buco dell’ozono
- ozono stratosferico
- ozono troposferico
P
Palermo Technical Impact Hazard Scale
Pallone
- pallone lunare
Pan
- Jian-Wei Pan
Pangea
Parabola
Paradosso del nonno
Paraffina
Parafulmine
Parametro orbitale
Parapendio
Parnell
- Thomas Parnell
Pascoli
- Giovanni Pascoli
Pendio
Pendolo
- pendolo invertito
- moto del pendolo
Perielio
Periodicità spaziale
Perlage
Permiano
Perseidi
Perturbazione gravitazionale
Pesce vela
Peso
- peso apparente
- peso specifico
Petrolio
159
Phelps
- Michael Phelps
Pianeta nano
Pianetino
Piano inclinato
Piazzi
- Giuseppe Piazzi
Piazzia
Piazzolla
- Ástor Piazzolla
Piogge acide
Pioggia
- goccia di pioggia
Pirlo
- Andrea Pirlo
Pistone
Pivot
Planetoide
Plasma
Pleistocene
Plutone (pianeta nano)
Podolsky
- Boris Podolsky
Poincaré
- Jules-Henri Poincaré
Police
Poliuretano
Ponte
- ponte capillare
- ponte di Einstein-Rosen
Portanza
- portanza negativa
Portiere
Poseidone
Posizione idrodinamica
Potassio
- isotopo radioattivo del potassio
Potentially Hazardous Object
Potenza
Potenziale elettrico
Potere delle punte
Precipitazione
160
Premier League
Preskill
- John Preskill
Pressione (P)
- pressione barometrica
Principio
- principio d’inerzia
- principio di Archimede
- principio di azione e reazione
- principio di Bernoulli
- principio di conservazione dell’energia
- principio di conservazione dell’energia meccanica
- principio di conservazione del momento angolare
- principio di galleggiamento
Processo
- processo di evaporazione
- processo fotosintetico
Propano
Propulsione
Pugliese
- Osvaldo Pugliese
Pulviscolo atmosferico
Q
R
Quantum-bit
Quasar
Radiante
Radiazione
- radiazione infrarossa
- radiazione solare
- radiazione ultravioletta
- radiazione visibile
Radiotelescopio
Raggi X
Raggio di curvatura
Rame
Rayleigh
- John William Strutt Rayleigh
Razzo
Reazione
- reazione vincolare
Regione
- regione equatoriale
- regione polare
Regolite
Reologia
161
Reopessia
Resistenza
- resistenza dell’aria
- resistenza idrodinamica
- misura della resistenza
Respirazione
Reticolo
- reticolo cristallino
- reticolo ordinato
Retroazione
- retroazione positiva
Reversibilità
Rice Burroughs
- Edgar Rice Burroughs
Richter
- Charles Francis Richter
Rigidità
Rigore a cucchiaio
Rischio da impatto
Roller coaster
Rosen
- Nathan Rosen
Rotazione
- rotazione anterograda
- rotazione antioraria
- asse di rotazione
- moto di rotazione
- rotazione oraria
- rotazione retrograda
- velocità di rotazione
Rugiada
- punto di rugiada
S
Sabbia
- cascata di sabbia
- castelli di sabbia
- sabbia idrofobica (o idrorepellente)
- proprietà meccaniche della sabbia
- scienza della sabbia
Sabbie mobili
Saetta (o folgore)
Sagan
- Carl Sagan
Satellite
- “Chandra”
- XMM-Newton
Saturazione
162
- punto di saturazione
Scacchi
Scala
- scala della magnitudo Richter
- scala Mercalli
- scala Palermo
- scala temporale climatica
- scala Torino
Scalmo
Schmitt
- Harrison Schmitt
Schrödinger
- Erwin Schrödinger
- gatto di Schrödinger
Schulz
- Charles M. Schulz
Sci
- sci “a clessidra”
- sci alpino
- sci carving (o carve)
Sciame
- sciame delle Perseidi
- sciame meteorico
Sciancratura
Scienza
- scienza del caos
- scienza meteorologica
Sciolina
- sciolina dura
- sciolina morbida
Scorrevolezza
Scott
- Gordon Scott
Sestante
Sforzo di taglio
Shoemaker-Levy 9 (cometa)
Sistema
- sistema binario compatto
- sistema caotico
- sistema colloidale
- sistema complesso
- sistema di riferimento
- sistema di riferimento inerziale
- sistema di riferimento non inerziale
- sistema dinamico complesso
- sistema planetario
- retroazione del sistema
- Sistema Solare
- traiettoria del sistema
163
Ski-men
Slalom speciale
Smartphone
Smog
Soletta
Solido
- solido amorfo
- solido meccanico
Soluzione omogenea
Sommerfeld
- Arnold Sommerfeld
Sommergibile
Sostanza reopessica
Sostituzione
Spacewatch Telescope
Spandex
Special effect
Spinta
- spinta aerostatica
- spinta di Archimede
- spinta idrostatica
Statica
Stato
- stato aeriforme
- stato di quiete
- stato fluido
- funzioni di stato
- stato gassoso
- stato solido
Stella
- stella cadente
- stella invisibile
- stella polare
Stratosfera
Struttura
- struttura biomeccanica
- struttura frattale
Sublimazione
Super Santos
Super Tele
Superficie lunare
Supernova
Tablet
164
T
Tait
- Peter Tait
Tangente
Tango
- tango elettronico
Tarzan
Tasso di umidità
Telescopio Hubble
Teletrasporto
- teletrasporto di fotoni
- teletrasporto quantistico
Temperatura (T)
- temperatura ambiente
- temperatura critica
- temperatura di combustione
Tempo
- tempo di residenza
- tempo meteorologico
- previsioni del tempo
Teorema delle forze vive
Teorema di Nernst
Teoria
- teoria dei quattro elementi
- teoria dell’informazione classica
- teoria dell’informazione quantistica
- teoria della relatività
- teoria delle incursioni multiple
- teoria delle stringhe
Termodinamica
- prima legge della termodinamica
- princìpi della termodinamica
- principio zero
- secondo principio della termodinamica
- terzo principio della termodinamica
Termometro
Terziario
Thomson
- William Thomson (Lord Kelvin)
Thorne
- Kip Thorne
Tiro
- tiro a effetto
- tiro a giro
- gittata del tiro
Tissotropia
Titanic
Tolan
165
- Metin Tolan
Top-spin
Torino Scale
Toro
Torre di caduta
Torsione
Totti
- Francesco Totti
Trade wind
Trail
Trasformatore di energia
Trasformazione
- trasformazione a pressione costante
- trasformazione a volume costante
- trasformazione adiabatica
- trasformazione isobara
- trasformazione isocora
- trasformazione isoterma
- trasformazione termodinamica
Traslazione
- moto di traslazione
Troilo
- Aníbal Troilo
Troposfera
Tuono
Tyndall
- John Tyndall
U
Uragano
- uragano Katrina
- uragano Sandy
Urto
V
Vapore
- vapore acqueo
- condensazione del vapore
Velocità
- velocità angolare
- velocità della luce
- velocità di fuga
- quadrato della velocità
Vento stellare
Vescica natatoria
Vetro
Vibrazione
166
Vincolo
[Publio] Virgilio [Marone]
Viscosità
- viscosità della pece
Volume (V)
Vulcano
W
Wells
- Herbert George Wells
Weyl
- Hermann Weyl
Wheeler
- John Archibald Wheeler
Willis
- Bruce Willis
Wilson
- David Gordon Wilson
Wormhole
Wright
- Mike Wright
- Orville Wright
- Wilbur Wright
Z
Zeilinger
- Anton Zeilinger
Zemeckis
- Robert Zemeckis
Zenithal Hourly Rate
Zero
- zero assoluto
- zero centigrado
Zeus
Zolfo
- ossido di zolfo
167