POLITECNICO DI MILANO
Corso di Laurea in Ingegneria per l’Ambiente e il Territorio
Analisi dell'umidità al suolo ed
in quota: una applicazione sull'Europa
Relatore: prof. Antonio Ghezzi
Elaborato di laurea di:
Stefano Nardin
Matr. 755789
Giacomo Varisco
Matr.755899
Anno accademico 2012/2013
Dopo un percorso lungo e faticoso siamo giunti al punto in cui si
vede la meta.
Per questo dobbiamo ringraziare molte persone, che in modi
diversi ci sono state vicino, ci hanno sostenuto, ci hanno aiutato, ci
hanno dato la forza quando credevamo di averla esaurita.
Un ringraziamento particolare va al Professor Antonio Ghezzi,
senza il quale non saremmo mai riusciti a fare questo lavoro, che
ci ha dato consigli, ci ha permesso di imparare e di crescere
attraverso la sua professionalità.
Ringraziamo inoltre tutte le persone e le istituzioni che hanno
collaborato al lavoro di tesi.
Sentitamente grazie.
Stefano Nardin
Giacomo Varisco
Indice
1 INTRODUZIONE ……………………………………………………………………………… 1
2 L’UMIDITÀ ………………………………………………………………………….………. 4
2.1 L’umidità atmosferica …………………………………………………….…. 4
2.2 Umidità assoluta, specifica e relativa …………………………………. 4
2.3 La condensazione del vapore acqueo …………………………….....… 6
2.4 La formazione delle nubi ………………………………………………..…. 7
2.4.1 Cause meteorologiche della formazione
delle nubi ……………………………………………………..…. 9
2.4.1.1 Sollevamento convettivo ………………………. 10
2.4.1.2 Sollevamento ciclonico ………………………… 11
2.4.1.3 Sollevamento orografico o forzato ……….… 12
2.4.1.4 Sollevamento frontale ………………………..…. 13
2.4.2 Formazione delle gocce e dei cristalli
di ghiaccio nelle nubi …………………………………….… 13
2.4.3 Tipi di nubi ……………………………………………………..... 15
2.5 Meccanismo di formazione delle precipitazioni ………………... 18
2.5.1 Accrescimento per condensazione ………………………. 19
2.5.2 Accrescimento per coalescenza …………………………… 20
2.5.3 Accrescimento dei cristalli di ghiaccio:
processo di Bergeron – Findeisen……………………... 24
2.5.4 Tipologie di precipitazione ……………………………….….. 27
2.6 Termodinamica atmosferica ………………………………………..…... 29
2.6.1 Termodinamica dell’aria secca ………………………….… 29
i
2.6.1.1 I sistemi termodinamici e l’equazione
di stato dei gas perfetti ………………….…... 29
2.6.1.2 L’equazione di stato per l’aria secca …….… 32
2.6.1.3 Il primo principio della
termodinamica per l’aria secca …………..… 33
2.6.1.4 Il gradiente termico verticale
dell’atmosfera ………………………………….... 34
2.6.2 Termodinamica dell’aria umida ……………………….... 35
2.6.2.1 Trasformazioni adiabatiche
per l’aria umida ………………………………..… 35
2.6.2.2 L’equazione di stato per l’aria umida ……... 37
3 GLI STRUMENTI DI MISURA DELL’UMIDITÀ DELL’ARIA ……………... 41
3.1 Igrometri diretti ………………………………………………………….….. 43
3.1.1Igrometri meccanici ……………………………………....….. 43
3.1.2 Igrometri elettrici ………………………………………..….…. 45
3.1.3 Altri sensori diretti ……………………………………………. 52
3.2 Igrometri indiretti ………………………………………………………..…. 53
3.2.1 Igrometri a specchio condensante …………………….…. 53
3.2.2 Psicrometri ………………………………………………………… 57
3.2.3 Igrometri a sali saturi …………………………….…….…….. 61
3.2.4 Igrometri elettrolitici ……………………………..…….….. 63
3.2.5 Altri sensori indiretti ……………………………….……….... 64
3.3 Criteri di scelta degli strumenti di misura ……………………...….. 65
3.4 Il telerilevamento ……………………………………………………..……… 68
3.4.1 Uso dello spettro elettromagnetico
nel telerilevamento ………………………………………….….. 71
ii
3.4.2. Classificazione dei sensori …………………………..…… 73
4 IL CLIMA IN EUROPA …………………………………………………………………… 76
4.1 I climi e le macro regioni europee ………………………………....… 77
4.1.1 Clima e ambiente Atlantico ………………………………….. 82
4.12 Clima e ambiente Mediterraneo …………………………… 83
4.1.3 Clima e ambiente continentale …………………………….. 85
4.1.4 Clima e ambiente artico ……………………………………... 88
4.1.5 Clima dell'ambiente alpino ……………………………….... 89
5 L’APPLICAZIONE …………………….………………………………………………….… 91
5.1 Visualizzazione e preparazione dato ………………………..........… 95
5.2 Elaborazioni ……………………………………………………...………...… 97
6 DISTRIBUZIONI DI PROBABILITA’ ……………………………..……………... 104
6.1 La variabile casuale ………………………………………..………………... 104
6.2 Distribuzione normale o gaussiana ………………….………….......... 106
6.3 Distribuzione lognormale ……………………………….………………... 110
6.4 Distribuzione gamma …………………………………….……………….... 111
7 IL SOFTWARE R …………………………………………………………………..…… 113
7.1 Importazione dei dati in R ………………………………….……….. 113
7.2 Adattamento ad una distribuzione nota ………………………... 114
7.2.1 Test di Komogorov – Smirnov …………………….….. 116
7.2.1.1 Risultati test Komogorov – Smirnov …… 117
7.3 Analisi di omogeneità della varianza ………………...…….…… 121
iii
7.3.1 Risultati del test di omogeneità della varianza …..…. 121
8 CONCLUSIONI ……………………………………………………………………….…. 125
8.1 Sviluppi futuri ……………………………………………………………… 128
APPENDICE 1 ………………………………………………………………………………… 130
A1.1 NCAR …………………………………………………………………………… 130
APPENDICE 2 ………………………………………………………………………………… 133
A2.1 BIOMI ……………………………………………………………………….….. 133
APPENDICE 3 ……………………………………………………………………………….…140
A3.1 CLIMA DETTAGLIATO PER ALCUNI DEI PRINCIPALI PAESI
EUROPEI ……………………………………………………………………..….….… 140
APPENDICE 4 ………………………………………………………………………………… 145
A4.1 SOFTWARE R ………………………………………………………………. 145
iv
1
Introduzione
La ricerca di una possibile correlazione con la tematica del cambiamento
climatico, il legame con la nubi ed il loro ruolo di filtro verso le radiazioni , la
fondamentale influenza sulla conservazione di cibo ed oggetti, la capacità di
condizionare in modo sostanziale la qualità della vita in ambienti di
quotidiana frequentazione potendo determinare criticità per la salute ed il
benessere della persona; queste son solo alcune delle motivazioni che hanno
spinto e sostenuto il nostro lavoro e i nostri sforzi spingendoci ad investigare
e caratterizzare il comportamento dell’umidità al variare di alcune condizioni
al contorno.
L’obiettivo dichiarato della nostra analisi è svolgere una valutazione critica di
come, e se, i diversi regimi di umidità varino in funzione alcuni parametri
come latitudine, longitudine, quota e di come siano variati nel tempo, così da
poter
individuare
legami e corrispondenza tra fattori geografici e/o
temporali e la risposta atmosferica in termini di umidità.
Per queste trattazioni abbiamo utilizzato dati di umidità relativa circoscritti,
per motivi di onerosità delle trattazioni, ad una superficie europea, estesa a
sud a tutto il nord Africa desertico e ad ovest al primo tratto di oceano
atlantico.
L’umidità, parametro atmosferico complesso e continuo, è la misura della
quantità di vapore acqueo presente in atmosfera (o in generale in una massa
d'aria).
Uno studio critico ed esaustivo della sua distribuzione, spaziale ed in quota,
può sicuramente essere punto di partenza per migliorare e approfondire la
comprensione dei fenomeni di nuvolosità.
1
La presenza di vapore acqueo nell’atmosfera infatti, risulta determinante per
la formazione delle nubi stesse. Nubi che sappiamo essere elemento
fortemente condizionante rispetto al clima.
Esse svolgono infatti un’importante e duplice funzione: di filtro rispetto alle
radiazioni solari e di luogo formazione e sviluppo delle gocce destinate alle
precipitazioni.
Ciò conferma ulteriormente l’importanza dell’umidità quale fattore
meteorologico in grado di influenzare fortemente la climatologia e quindi la
vita quotidiana.
Il clima dipende infatti, oltre che da fattori geografici locali e morfologici,
anche dai movimenti delle masse d’aria sul territorio. Lo scontro di masse
d’aria con caratteri di umidità e temperatura distinti determina la formazione
di cicloni ed anticicloni, permanenti e stagionali che governano la
climatologia delle piogge in Europa come nel resto del mondo.
L’umidità, ha sempre condizionato l’uomo e la sua quotidianità sia per la
conservazione di oggetti che di alimenti.
Ciò ha fatto si che fin dall’antichità si sia cercato di capire e misurare questo
fenomeno.
I primi tentativi documentati di misura “strumentale” della umidità risalgono
al 1430 circa quando Nikolaus Chrypffs (Cusano) (1401-1464) inventa il
primo strumento meteorologico. Una sorta d’igrometro con il quale cercò di
determinare il grado di umidità dell’aria pesando delle palle di lana. Nel 1500
circa quindi, Leonardo Da Vinci (1452-1519) costruisce un anemoscopio e un
indicatore meccanico dell’umidità. Nel Codice Atlantico, una raccolta di 393
carte autografate da Leonardo e raccolte da Pompeo Leoni (1533-1608), ci
sono schematizzati questi strumenti.
Nonostante la precocità dell’interesse scientifico per questo tema, risulta
tuttora molto difficile trovare serie storiche di umidità complete e di
lunghezza considerevole, se non puntualmente per stazioni isolate.
2
Tuttavia l’umidità, essendo un parametro poco variabile, può giustificare, a
seconda delle finalità dell’analisi, un utilizzo di serie di lunghezza limitata,
cosa ingiustificata qualora si fosse trattato di un parametro caratterizzato da
forte discontinuità, come ad esempio le precipitazioni.
Per l’analisi da noi effettuata sono stati utilizzati dati globali dal 1979 al 2010.
Si è rivelato necessario avvalersi di considerazioni statistiche che ci
aiutassero e permettessero di descrivere e caratterizzare almeno in parte i
nostri campioni, verificandone l’adattabilità a distribuzioni note e
valutandone l’omogeneità, in riferimento ovviamente alle condizioni locali di
tipo morfologico e climatico.
3
2
L’umidità
2.1 L’umidità atmosferica
L'umidità atmosferica è determinata dalla quantità di vapore acqueo
presente nell'aria. Le radiazioni solari riscaldano l'acqua e la superficie
terrestre generando l'evaporazione dell'acqua sotto forma di vapore acqueo
che dà vita a diversi fenomeni atmosferici (nubi, nebbia, pioggia, ecc.). Il
vapore acqueo contribuisce alla formazione delle nubi, tramite il fenomeno
della condensazione, e al funzionamento del ciclo dell'acqua dalla fase iniziale
di evaporazione alla fase finale delle precipitazioni piovose.
2.2 Umidità assoluta, specifica e relativa
Vari sono i parametri significativi quando si parla di umidità:
 Umidità assoluta: è la quantità di vapore acqueo espressa in grammi
contenuta in un metro cubo d’aria. L'umidità assoluta aumenta
all'aumentare della temperatura, l'umidità di saturazione aumenta più
che proporzionalmente quindi l'umidità relativa tende a scendere.
Quando un abbassamento di temperatura porta a far coincidere
l'umidità assoluta con quella di saturazione si ha una condensazione
del vapore acqueo e il valore termico prende il nome di temperatura
di rugiada. In corrispondenza di questo valore se si ha una superficie
fredda si ha la rugiada (brina a valori sotto lo zero), se la
condensazione riguarda uno strato sopra il suolo si ha la nebbia.
È un valore poco apprezzabile e per questo si preferisce l'utilizzo
dell'umidità specifica. L'umidità assoluta può essere espressa in
4
termini di massa di acqua per volume di atmosfera o in pressione
parziale relativa del vapore rispetto agli altri componenti atmosferici
(kg/m³ o Pa).
 Umidità specifica: è il rapporto della massa del vapore acqueo e la
massa d'aria umida; in letteratura si può trovare anche un'altra
definizione: rapporto tra la massa del vapore acqueo e la massa d'aria
secca. In termodinamica si preferisce questa seconda definizione
perché, rapportandosi alla massa d’ aria secca, questa non varierà mai
nei normali processi termodinamici (sopra la temperatura di 132 K),
al contrario della massa di aria umida (per esempio: con la
condensazione del vapore nell'aria umida, il fluido può essere
facilmente sottratto).
 Umidità relativa: indica il rapporto percentuale tra la quantità di
vapore contenuto da una massa d'aria e la quantità massima (cioè a
saturazione) che il volume d'aria può contenere nelle stesse condizioni
di temperatura e pressione. Alla temperatura di rugiada l'umidità
relativa è per definizione del 100%. L'umidità relativa è un parametro
dato dal rapporto tra umidità assoluta e l'umidità di saturazione. È
svincolato dalla temperatura e dà l'idea del tasso di saturazione del
vapore
atmosferico,
e
delle
ripercussioni
sui
fenomeni
evapotraspirativi delle colture. Il deficit di saturazione è dato dalla
differenza tra umidità assoluta e umidità di saturazione.
Esempio: se una massa d'aria ha una temperatura propria, ad
esempio, di 15 °C con una quantità di umidità relativa pari al 50%,
affinché tale umidità possa raggiungere il 100% (saturazione) a
pressione costante, e, magari depositarsi (condensazione) sarà
necessario abbassare la temperatura della massa d'aria, ad esempio,
di 5 °C, portarla cioè da 15 °C a 10 °C.
L’aria si definisce satura quando ha raggiunto la quantità massima di vapore
che può contenere a quella temperatura. Quando è pura e non ci sono nuclei
5
di condensazione, può contenere una quantità di vapore superiore al limite di
saturazione condizione che si definisce soprassatura.
L’umidità, caratterizzata da una limitata variabilità, pur essendo una
grandezza tipicamente puntuale, può essere considerata una grandezza
estensiva.
Ciò permette di estendere concettualmente un valore puntuale ad un intorno
areale stabilito, consentendo di inquadrare l’umidità entro i confini della
teoria della meccanica del continuo.
Figura 2.1 Andamenti dell’ umidità relativa in funzione della
temperatura
2.3 La condensazione del vapore acqueo
Volendo trattando in modo rigoroso il tema dell’umidità non si può
prescindere dal considerare ed introdurre alcuni dei fenomeni meteorologici
maggiormente collegati ad essa: nubi e precipitazioni.
Le nubi sono infatti agglomerati visibili di particelle d’acqua allo stato liquido
(goccioline) o solido (cristalli di ghiaccio) in sospensione nell’atmosfera,
principalmente in troposfera.
6
Il loro aspetto è in continua evoluzione e trasformazione perché sono sempre
in perenne movimento e cambiamento di stato.
Una nube è un insieme di centinaia di microscopiche gocce per centimetro
cubo con un raggio all’incirca di 10 micron. Le dimensioni tipiche sono,
infatti, dell’ordine di 10-102 micron, mentre la concentrazione (numero di
gocce per litro d’aria) varia tra 103 e 107 in funzione delle dimensioni. Con
queste dimensioni e concentrazioni il conglomerato è otticamente opaco alle
lunghezze d’onda visibili per effetto della diffusione della luce e viene così,
per contrasto, riconosciuto come nube.
Le precipitazioni hanno luogo quando la nube diventa instabile, quando, cioè,
alcune gocce iniziano ad accrescersi a scapito delle altre.
In atmosfera, e principalmente nella troposfera, l’aria ha un contenuto di
vapore nella percentuale massima del 4% in volume, con importanti
variazioni sia nello spazio che nel tempo. Sebbene quindi la sua
concentrazione sia piuttosto modesta, il suo ruolo è fondamentale in
numerosi processi che avvengono in atmosfera.
La sua importanza è legata al fatto che è l’unico tra i gas atmosferici a subire
cambiamenti di fase nell’intervallo di pressioni e temperature che si
incontrano in atmosfera.
Inoltre, i calori latenti per i suoi cambiamenti di fase hanno valori molto
elevati, determinando importanti scambi di calore con l’aria e, di
conseguenza, sensibili variazioni di temperatura.
2.4 La formazione delle nubi
La formazione delle nubi è sempre legata a un processo di condensazione o di
sublimazione del vapore acqueo presente nell’atmosfera, che dà origine alle
goccioline o ai cristalli di ghiaccio.
Da un punto di vista termodinamico, perché si abbia condensazione o
sublimazione del vapore devono innanzitutto essere state raggiunte le
condizioni di saturazione. Se in una data massa d’aria in condizioni di
saturazione, l’umidità aumenta ulteriormente, quella in eccesso condensa
7
sotto forma di goccioline. Affinché il processo possa continuare con
formazione di quantità sufficienti di gocce o cristalli per la formazioni della
neve, e in modo che queste rimangano stabili (senza evaporare), le condizioni
di saturazione devono essere mantenute abbastanza a lungo.
La saturazione di una massa d’aria, e quindi la condensazione del vapore, può
essere raggiunta o mediante il raffreddamento dell’aria umida o attraverso
l’umidificazione della massa d’aria.
La maggior parte delle nubi sono causate da processi di raffreddamento.
Al diminuire della temperatura l’aria si avvicina alla saturazione essendo
minore la quantità di vapore che vi può essere contenuta.
Da un punto di vista termodinamico il raffreddamento di una massa d’aria
può essere ottenuto mediante i seguenti processi:
 raffreddamento isobarico;
 raffreddamento adiabatico o espansione adiabatica.
Nel raffreddamento isobarico la massa d’aria rimane alla stessa pressione e
viene raffreddata con processi diabatici, ovvero tramite perdita di calore
verso il sistema esterno (suolo o masse d’aria adiacenti). La temperatura, nel
diminuire, può arrivare ad eguagliare la temperatura di rugiada,
determinando così le condizioni di saturazione:
T  Td => U  100%
Nel caso del raffreddamento adiabatico si suppone invece che non vi sia
scambio di calore fra la massa d’aria e l’ambiente circostante.
Affinché la temperatura della particella d’aria possa diminuire, senza che vi
sia apprezzabile scambio di calore con l’aria circostante, deve o diminuire la
pressione oppure aumentare il volume.
Di fatto il raffreddamento adiabatico è prodotto dal sollevamento della massa
d’aria: incontrando pressioni via via minori (la pressione atmosferica
8
diminuisce con la quota), essa subirà un processo di espansione adiabatica
con conseguente raffreddamento. Anche sollevamenti che durano ore
possono essere considerati adiabatici poiché l’aria è un cattivo conduttore di
calore. La saturazione interviene nel momento in cui la temperatura scende
fino a eguagliare la temperatura di rugiada.
L’apporto di umidità dall’ambiente esterno, in condizioni isotermiche è il
secondo processo che può portare alla saturazione.
Supponendo costante la temperatura, l’apporto di umidità fa aumentare il
valore di q, che può cosi raggiungere il suo valore massimo. Quando ciò
avviene la massa d’aria umida raggiunge il suo punto di saturazione.
L’aumento di umidità è un processo di scambio del vapore che può avvenire o
tra una superficie umida (ad esempio marina) e la massa d’aria sovrastante o
per rimescolamento di due masse d’aria con caratteristiche termodinamiche
differenti.
Nel primo caso, sono le leggi di trasporto turbolento nello stato limite a
governare lo scambio di vapore dalla superficie verso la massa d’aria. La
velocità di tele scambio è funzione sia del grado di umidità della massa d’aria
che dell’intensità del vento.
Nel caso del rimescolamento sono le condizioni termodinamiche delle due
masse d’aria che vengono a contatto a determinare il grado di umidità e il
possibile stato di saturazione della massa d’aria risultante.
2.4.1 Cause meteorologiche della formazione delle nubi
Diverse possono essere le condizioni meteorologiche che nella troposfera
danno luogo alle trasformazioni termodinamiche appena descritte.
Il raffreddamento isobarico è un fenomeno che avviene di frequente e che
porta sia alla formazione di nubi che di nebbie.
Nel caso della nebbia è la superficie terrestre (suolo o mare), che si suppone
più fredda (per irraggiamento o perché gelata nel primo caso, per la maggior
inerzia termica rispetto all’aria nel secondo), a sottrarre calore alla massa
9
d’aria sovrastante. E’ cosi che, in presenza di aria stagnante, cielo sereno e
calma di vento, si formano foschie e nebbie notturne. Se la saturazione viene
raggiunta soltanto nei primi 20-50 cm di aria adiacenti al suolo si ha la
formazione di rugiada (se T > 0°C) o di brina (T < 0°C).
Nel caso di formazione delle nubi il raffreddamento avviene per
irraggiamento dello strato d’aria umido verso strati superiori più secchi e
trasparenti alla radiazione termica. Anche in questo caso il processo può
durare poche ore e dar luogo a nuvolosità stratiforme.
Il raffreddamento adiabatico è prodotto dal sollevamento della massa d’aria.
Ricordiamo che una massa d’aria non satura e in movimento verticale verso
l’alto si raffredda di circa 1 grado ogni 100 metri.
Se l’aria è sufficientemente umida il raffreddamento dà luogo, a una certa
quota (base della nube), alla condensazione del vapore sotto forma di nubi, le
quali seguitano a svilupparsi verso l’alto fin dove persistono il moto verticale
e le condizioni di saturazione che l’hanno originata.
I moti verticali ascendenti possono insorgere per quattro distinte cause:
 convezione;
 convergenza e divergenza;
 ostacolo orografici;
 fonti.
2.4.1.1 Sollevamento convettivo
Il sollevamento convettivo si ha quando la massa d’aria viene sospinta verso
l’alto dalla forza di galleggiamento (forza di Archimede), determinata da
condizioni di inabilità termica rispetto all’ambiente circostante.
Dai terreni maggiormente riscaldati dal sole (un campo arato, una vasta area
edificata o un suolo roccioso) si staccano, nelle ore centrali della giornata,
“bolle” d’aria calda che, per via della loro minore densità rispetto
all’ambiente circostante, vengono sospinte verso l’alto. In questo modo si
10
originano delle correnti ascendenti (moti convettivi), le cui velocità verticali
sono in genere abbastanza intense (2-10 m/s).
Se la massa d’aria è sufficientemente umida. Raggiunto un certo livello
(livello di condensazione), essa condenserà dando inizio alla formazione
della nube.
A questo punto il processo di condensazione, liberando il calore latente di
evaporazione, contribuirà a riscaldare ulteriormente la massa d’aria, che
acquisterà così una maggior instabilità: il moto convettivo può, cosi, spingersi
fino a notevoli altezze (anche 10-12 km fino ai limiti della troposfera),
portando alla formazione di nuvole a forte sviluppo verticale quali cumuli e
cumulonembi. A distanza di molte centinaia di metri, l’aria calda riscende al
di sopra delle aree più fresche, quali ad esempio il boscoa adiacente al campo
arato o il prato che circonda il villaggio.
2.4.1.2 Sollevamento ciclonico
Nei grandi centri barici (cicloni, anticicloni, promontori, saccature) l’aria è
costantemente animata da lenti movimenti verticali (dell’ordine di pochi
centimetri al secondo) i quali sono ascendenti sulle aree di bassa pressione e
discendenti su quelle di alta.
La causa di innesco di un ciclone è la parziale fuoriuscita orizzontale di aria
(divergenza) in corrispondenza dei rami ascendenti (sud-occidentali) del
getto polare. La divergenza nell’atmosfera genera un calo di pressione al
suolo e un risucchio di aria verso l’alto per colmare il vuoto creatosi. La
diminuzione di pressione al suolo richiama sul luogo aria dalle zone
adiacenti: la convergenza dell’aria sul luogo di diminuzione della pressione
causa infine i moti verticali ascendenti.
Queste correnti verticali producono un raffreddamento sulle aree di bassa
pressione e un riscaldamento su quelle di alta pressione (fenomeno della
subsidenza).
Il raffreddamento associato alle depressioni raramente supera 1-2°C in 12
ore, però è quasi sempre accompagnato da condensazione del vapore acqueo.
11
2.4.1.3 Sollevamento orografico o forzato
Il sollevamento forzato si ha quando una massa d’aria in movimento
orizzontale è costretta a sollevarsi di fronte a un ostacolo orografico
(ascendenza orografica forzata).
Le velocità di sollevamento sono dell’ordine di 0,5-1 m/s, con una
diminuzione di temperatura nell’unità di tempo superiore a quella rilevata
nei grandi centri barici.
Il raffreddamento in genere causa la condensazione del vapore acqueo con
estese formazioni nuvolose e precipitazioni sul lato sopravento.
Se in partenza l’aria è non satura il suo iniziale moto di ascesa avviene lungo
un’adiabatica secca, raffreddandosi di 1°C ogni 100 metri, fino al livello in cui
tale raffreddamento non produce la condensazione: il calore liberato dalla
condensazione produce attenua il raffreddamento dell’aria in ascesa. Il
sollevamento prosegue ora secondo l’adiabatica satura con un gradiente
termico che dipende dai valori iniziali di temperatura, umidità specifica e
velocità ascensionale. Un valore realistico per tale gradiente termico è di
0,6°C ogni 100 metri. Il movimento ascendente dell’aria sul lato sopravento
di una catena montuosa (ad esempio le Alpi), con formazione di nubi e
precipitazioni, viene denominato Staü. In tale fase le abbondanti
precipitazioni essiccano la massa d’aria in ascesa. Quando poi questa
travalica sul versante sottovento, nel loro moto discendente, subisce un
riscaldamento per compressione adiabatica di 1°C ogni 100 metri.
Tale guadagno di calore, non dovendo essere utilizzato per far rievaporare le
nubi formatesi nella fase di ascesa (le masse d’aria sono ormai secche), viene
assorbito interamente dalla massa d’aria, che pertanto giunge al suolo più
calda e secca (venti fo Föhn) di quanto non fosse in origine.
12
2.4.1.4 Sollevamento frontale
Si parla di sollevamento frontale quando la componente verticale del moto ha
origine dallo scontro di masse d’aria di diversa provenienza e quindi con
caratteristiche termodinamiche differenti.
Una massa d’aria calda in movimento verso una zona occupata da aria più
fredda è costretta a scivolare sopra quest’ultima. Il fronte caldo è la linea
ideale che delimita al suolo l’invasione di aria calda verso aree prima
occupate da aria fredda.
Viceversa aria fredda in movimento verso regioni occupate da aria calda si
incunea sotto quest’ultima, sollevandola con violenza. Il fronte freddo è la
linea che delimita al suolo l’irruzione di aria fredda verso aree prima
occupate da aria più calda.
2.4.2 Formazione delle gocce e dei cristalli di ghiaccio nelle nubi
Il Raggiungimento delle condizioni di saturazione, attraverso i processi
termodinamici determinati dalle condizioni meteorologiche sopra descritte,
non è però sufficiente per la formazione delle goccioline e quindi delle nubi.
Ogni giorno dalla superficie terrestre evaporano nell’atmosfera 1000 miliardi
circa di tonnellate d’acqua.
Il vapore liberato da oceani, mari, laghi, fiumi e vegetazione viene trasportato
verso l’alto dalle correnti aeree ascendenti. Nell’ascesa l’aria si raffredda, per
espansione adiabatica, fino a raggiungere, prima o poi, la saturazione. A
questo punto sarebbe naturale attendersi che, qualora l’ascesa prosegua,
l’ulteriore raffreddamento determini l’unione delle molecole di vapore
eccedente generando in tal modo le goccioline della nube (droplet). In realtà
il processo non è così semplice e spontaneo, perché la neonata goccia tende a
disgregarsi per evaporazione tanto più rapidamente quanto più è piccola. In
particolare, in condizioni di saturazione, due molecole di vapore potrebbero
restare unite soltanto per un cento milionesimo di secondo; per la
formazione di una goccia di 3 molecole, la terza dovrebbe incontrare le altre
13
in tale brevissimo lasso di tempo e il terzetto risulterebbe poi 100 volte più
durevole, e così via.
Nelle nubi ogni goccia contiene in media 500 miliardi circa di molecole
d’acqua.
Come è stato possibile metterle tutte insieme? Si potrebbe supporre che là
dove si è generata la gocciolina vi siano stati, in tempi brevissimi, miliardi di
urti molecolari casuali. Ma si può dimostrare che un simile evento sarebbe
possibile soltanto se il numero di molecole di vapore fosse di gran lunga
superiore a quello che si riscontra abitualmente in natura in condizioni di
saturazione. In particolare, in 1 cm3 di aria, si formerebbe una goccia ogni
1000 anni se la concentrazione di vapore fosse il triplo di quella di
saturazione, una goccia al secondo per saturazioni 4 volte superiori e 1000
gocce per concentrazioni quintuple.
Bisogna inoltre ricordare che l’equazione di Clausius-Clapeyron, che definisce
le condizioni di saturazione in funzione della temperatura, vale per il vapore
contenuto in una massa d’aria a contatto con una superficie piana di acqua
pura. Se invece il vapore saturo è in equilibrio con le goccioline di una nube,
la pressione di vapore saturo E, a parità di temperatura, deve essere
maggiore rispetto alla pressione di vapor saturo in equilibrio con la
superficie piana liquida.
Infatti la forza di coesione che tiene insieme le molecole in una goccia(la
tensione superficiale) è minore di quella su una superficie piana liquida,
cosicché le molecole di vapore riescono a fuggire più facilmente da una goccia
sferica che da una superficie piana. Pertanto, in condizioni di saturazione, il
vapore nell’ambiente, per mettersi in equilibrio con le gocce sferiche di una
nube, deve esercitare una pressione E maggiore di quella in presenza di una
superficie piana, ovvero deve essere presente in concentrazioni molto
maggiori.
Teoricamente, si può arrivare a valori elevati di sovra saturazione (U = 200 –
500%), senza che si abbia la condensazione del vapore.
14
In realtà, in natura il vapore acqueo non raggiunge mai sovra saturazioni così
elevate, e allora occorre supporre che le gocce di nube si formino con qualche
altro processo.
La sovra saturazione è una condizione di instabilità: fattori esterni possono
rompere facilmente l’equilibrio e determinare la formazione di gocce.
La presenza in atmosfera di quantità sempre largamente sufficienti di
particelle con caratteristiche igroscopiche (nuclei Igroscopici) è il motivo per
cui non si osservano mai valori elevati di sovra saturazione e la
condensazione avviene in condizioni vicine al punto di saturazione.
Gran parte delle particelle di pulviscolo atmosferico, con dimensioni
comprese tra 0,1 e 4 micron, funge da nucleo di condensazione, ovvero
agevola il “coagulo” delle molecole di vapore acqueo in microscopiche
goccioline.
In assenza di nuclei igroscopici la condensazione avviene soltanto se si
raffredda la massa d’aria satura al di sotto do -40°C oppure in presenza di
sovra saturazioni dell’ordine dell’800%.
2.4.3 Tipi di nubi
Le nubi presentano una grande varietà di forme e dimensioni. La loro
classificazione è fatta in base a:
 intervallo di quote generalmente occupate nel loro sviluppo verticale;
 rapporto caratteristico tra dimensioni orizzontali e estensione
verticale.
Per convenzione internazionale è stato stabilito di suddividere verticalmente
la parte dell’atmosfera, in cui le nubi si presentano abitualmente, nelle
seguenti tre regioni, con riferimento alle zone temperate delle medie
latitudini:
 regione superiore, cha va da 5 a 13 km;
15
 regione media, cha va da 2 a 7 km;

regione inferiore, cha va dagli strati prossimi al suolo a 2 km.
Le nubi vengono suddivise in nubi alte, nubi medie e nubi basse a seconda
che occupino quote dell’alta , della media o della bassa troposfera.
Di norma alle medie latitudini le nubi alte sono costituite solo da aghi di
ghiaccio e quelle basse da goccioline liquide. Le nubi medie possono
presentare, a seconda della quota e della latitudine, l’uno o l’altro aspetto
oppure una coesistenza delle due fasi. In genere, le nubi formate da
goccioline d’acqua hanno contorni non ben delimitati e , se abbastanza
spesse, presentano ombre proprie nella parte inferiore, le nubi costituite da
cristalli di ghiaccio hanno invece una struttura sfilacciata e contorni non ben
definiti. Con le prime si formano aureole o corone lucenti intorno al sole o
alla luna, con le seconde, per effetto della rifrazione e della riflessione dei
raggi solari o lunari, si formano gli aloni.
In
relazione al rapporto tra dimensioni orizzontali e verticali, le nubi
vengono distinte in:
 Nubi cumuliformi: sono caratterizzate da dimensioni orizzontali
paragonabili al loro sviluppo verticale. In genere si presentano come
formazioni isolate associate a moti convettivi . Quando questi moti
sono particolarmente intensi l’estensione verticale della nube può
superare quella orizzontale: è il caso delle nubi temporalesche
(cumulonembi) che possono estendersi dagli stati prossimi al suolo
fino a notevoli altezze, spesso oltre la troposfera. In generale le nubi
cumuliformi si formano per una rapida ascesa di aria umida
determinata dal riscaldamento degli strati d’aria prossimi al suolo
(convezione termica), dal sollevamento forzato da un a catena
montuosa o quando aria più calda viene violentemente sollevata da
aria più fredda in veloce movimento orizzontale (fronte freddo. Le
nubi cumuliformi possono essere late, medie o basse;
16
 Nubi stratiformi: le dimensioni orizzontali sono nettamente prevalenti
rispetto allo spessore verticale. Il loro aspetto è abbastanza uniforme
come conseguenza della stratificazione termica dell’aria in cui si
formano e dell’assenza di moti convettivi. Le nubi stratiformi, molto
simili agli estesi banchi di nebbia che si osservano al suolo nelle
fredde giornate autunnali e invernali, si formano per raffreddamento
isobarico di uno strato d’aria al di sotto del punto di saturazione, per
trasporto orizzontale (avvezione) di aria più calda al di sopra di uno
strato d’aria più fredda o per una lenta risalita di aria dal suolo al di
sopra di una massa d’aria più fredda (scorrimento ascendente
caratteristico di un fronte caldo). Le nubi stratiformi possono essere
alte, medie o basse;
 Nubi stratocumuliformi : presentano uno sviluppo orizzontale
predominante rispetto a quello verticale, ma manifestano una
irregolarità di spessore che richiama l’aspetto delle nubi cumuliformi,
evidenziando una debole convezione in un’atmosfera essenzialmente
stabile. Possono essere medie o basse.
In generale delle nubi stratiformi si hanno precipitazione di debole o
moderata intensità, diffuse e spesso persistenti, mentre a quelle cumuliformi
sono associate precipitazioni intense, a volte violente (grandine), localizzate
nello spazio e di breve durata.
17
Tenendo anche conto della loro morfologia, le nubi sono ulteriormente
suddivise in 10 generi, descritti in figura 2.2:
TIPO
NOME
cirri
Alte
cirrocumuli
SIMBOLO CARATTERISTICHE
CI
CC
a carattere stratiforme di aspetto sottile e
filiforme
a carattere cumuliforme di piccole dimensioni
apparenti e con massa tondeggiante
a carattere stratiforme, sottili, ondulati,
CS
cirrostrati
medie
basse
altocumuli
generalmente traslucidi, separati o in piccoli
gruppi
AC
a carattere cumuliforme di piccole medie
apparente
altostrati
AS
a carattere stratiforme, traslucidi od opachi
strtocumuli
SC
a carattere stratiforme irregolare
strati
cumuli
nembostrati
cumulonembi
ST
CU
NS
CB
a carattere stratiforme e continuo molto
regolare
a carattere cumuliforme, convessi o conici
a carattere stratiforme ma di considerevole
spessore
cumuli a forte sviluppo verticale, associati a
fenomeni temporaleschi
Figura 2.2 Tipologia delle nubi
2.5 Meccanismo di formazione delle precipitazioni
Un altro fenomeno legato a doppio filo al fenomeno dell’umidità è quello della
genesi delle precipitazioni, di qualsiasi natura le si intenda.
Alla formazione della precipitazione concorrono vari fenomeni i cui
meccanismi non sono ancora stati interamente chiariti. La teoria attualmente
ritenuta valida è quella proposta nel 1933 dal meteorologo svedese Tor
18
Bergeron. Le precipitazioni possono avvenire solo quando la forza peso delle
gocce sarà maggiore della resistenza offerta dal moto ascendente che ha
portato alla formazione della nube stessa e che tende a mantenere le gocce in
sospensione.
Sono necessarie centinaia di milioni di goccioline presenti nelle nubi, che
hanno diametri dell’ordine dei 10 –
che ha invece dimensioni molto maggiori, con un diametro variabile tra i 500
essenzialmente tre: accrescimento per condensazione, accrescimento per
coalescenza e accrescimento per cristalli di ghiaccio detto processo di Bergeron
– Findeisen.
2.5.1 Accrescimento per condensazione
Il primo meccanismo ipotizzato fu l’accrescimento per condensazione.
L’ascensione delle masse d’aria umida determina la condensazione del
vapore acqueo in agglomerati d’acqua detti gocce. La formazione di una
goccia è quindi un processo non continuo che dipende dalla temperatura e
della densità dell’aria e richiede uno stadio di supersaturazione. Per questa
caratteristica il processo è detto di nucleazione ed è favorito dalla presenza di
particelle solide nell’atmosfera. In ogni caso, anche in assenza di corpi
estranei, una volta oltrepassati determinati valori di densità e temperatura si
formano delle aggregazioni casuali di molecole d’acqua. Superata la soglia
dello stato di equilibrio tra accoppiamenti e scissioni alcune tra queste
aggregazioni riescono a raggiungere una dimensione che consente di formare
un nucleo di accestimento spontaneo. Questa serie di processi richiede uno
scambio di energia importante governato dal principio di minima energia
libera.
Il processo di formazione di nuclei allo stato solido con formazione di granuli
ghiacciati avviene invece per congelamento delle gocce liquide o, in caso di
temperature più basse, per sublimazione del vapore acqueo in granuli di
ghiaccio.
19
La crescita dei nuclei di aggregazione progressiva e le dimensioni finali
dipendono dalle condizioni ambientali in cui si trovano. La supersaturazione
in atmosfera non è molto alta e quindi non consente una crescita troppo
elevata delle gocce e dei cristalli di ghiaccio.
Tuttavia è stato dimostrato che questo fenomeno non può giustificare
completamente l’ingrandirsi delle gocce. Questo perché la condensazione
avviene in presenza di supersaturazione che rende attivi oltre ai nuclei
fortemente igroscopici e di grandi dimensioni, anche quelli piccoli. Quindi ne
consegue che il vapore acqueo non va ad ingrossare le gocce già formate ma
si distribuisce su un numero maggiore di nuclei.
2.5.2 Accrescimento per coalescenza
Questo meccanismo si verifica nelle nubi con temperatura superiore a 0°C e
dà luogo alle precipitazioni delle fasce intertropicali ed equatoriale. In queste
nubi sono presenti gocce molto grosse originatesi su nuclei fortemente
igroscopici – come quelli costituiti da cloruro di sodio – mescolate a
numerose gocce più piccole formatesi su nuclei di condensazione di altra
specie. Le gocce più grandi, spinte verso l’alto dalle correnti ascendenti,
collidono con quelle più piccole e le inglobano, aumentando ulteriormente le
loro dimensioni.
Fino a che le correnti ascensionali riescono a mantenere le gocce in
sospensione, queste ultime continueranno ad accrescersi per coalescenza.
Raggiunta la sommità della nube, dove le correnti sono più deboli e
divergono lateralmente, le gocce vengono trascinate verso il basso dalla forza
di gravità. Inizialmente le correnti ascendenti riescono ad arrestare la caduta
delle gocce e a spingerle nuovamente verso l’alto. Si creano così continui
saliscendi durante i quali le dimensioni ed il peso delle gocce continuano ad
aumentare.
20
Figura 2.3 Coalescenza di una goccia d’acqua
Durante la fase di caduta le gocce più grandi collidono con solo una parte
delle goccioline incontrate sul loro cammino perché alcune di esse vengono
allontanate dal flusso d’aria che si genera attorno alla goccia più grande.
Figura 2.4 Durante la caduta le gocce più grandi collidono con una piccola parte delle gocce più piccole incontrate
sul loro cammino perché alcune di queste ultime vengono deviate dal flusso d’aria presente attorno alla goccia più
grande.
21
In realtà, la semplice collisione non garantisce il verificarsi del fenomeno di
coalescenza.
Sono infatti possibili quattro modalità di interazioni tra gocce che collidono:
 Urto elastico;
 Unione;
 Unione temporanea e successiva separazione, in modo che le gocce
conservino le proprie caratteristiche;
 Unione temporanea e successiva suddivisione in più gocce di minori
dimensioni.
Figura 2.5 Possibili modalità di collisione tra le gocce.
Il verificarsi di una determinata modalità di interazione dipende dalle
dimensioni delle gocce, dalle loro traiettorie e dalle forze elettriche che le
caratterizzano e che le circondano. Inoltre, ogni interazione può essere
descritta attraverso due parametri:
22

Efficienza di collisione, probabilità che una goccia grande possa
collidere con una più piccola incontrata sul proprio cammino;

Efficienza di coalescenza, frazione di gocce che subisce il fenomeno
della coalescenza tra quelle che collidono.
Il prodotto matematico di questi due parametri – che entrambi dipendono
sensibilmente dalle dimensioni della goccia urtante – determina il tasso di
crescita della goccia e viene detto efficienza di collezione.
Figura 2.6 Accrescimento di una goccia per coalescenza, collisione e condensazione.
Esperimenti in laboratorio indicano che l’efficienza di coalescenza si avvicina
all’intero se le goccioline sono cariche elettricamente o se si è in presenza di
un campo elettrico.
Queste condizioni si verificano quasi sempre nelle nubi, in particolar modo in
quelle a sviluppo verticale, quindi spesso l’efficienza di collezione coincide
con quella di collisione.
È quindi necessario determinare la percentuale di collisione all’interno della
popolazione delle gocce per poter descrivere il meccanismo di formazione
della precipitazione.
23
Date due gocce di raggi fissati R ed r, esiste un valore critico del parametro di
impatto, definito come la distanza tra i centri delle due gocce, entro il quale la
collisione avviene quasi sicuramente e fuori dal quale la goccia più piccola
viene deflessa dal suo cammino senza che avvenga l’urto. Sperimentalmente
è stato osservato che la massima efficienza di collisione – e quindi di
collezione – si ha quando il rapporto tra i raggi è di circa 0.6.
È stato dimostrato che il fenomeno di crescita per coalescenza è
favorevolmente influenzato dalla presenza di moti turbolenti, che
permettono alle gocce di collidere e fondersi più rapidamente di quanto non
avvenga all’interno di un’atmosfera in quiete. I vortici d’aria fanno si che le
gocce si concentrino in gruppi più densi, aumentando così la frequenza delle
collisioni.
Inoltre le gocce più grandi subiscono un ulteriore accrescimento a spese delle
gocce più piccole, a causa della differenza di tensione di vapore. Infatti le
gocce a diametro maggiore perdono meno molecole per evaporazione di
quelle a raggio minore.
Si può infine notare che lo spettro di distribuzione delle dimensioni delle
gocce risulta molto più ampio nel caso di crescita per coalescenza rispetto a
quello di crescita per condensazione.
2.5.3 Accrescimento dei cristalli di ghiaccio: processo di Bergeron –
Findeisen
Questo meccanismo si verifica nelle nubi fredde, dove la temperatura è
inferiore a 0°C, o in nubi miste, dove sono presenti sia goccioline sopraffuse
che particelle di ghiaccio.
Quando la temperatura della nuvola è sufficientemente bassa il vapore
contenuto nell’aria circostante diventa saturo rispetto all’acqua e le
goccioline non mostrano alcuna tendenza né ad accrescere né ad evaporare.
Ma la presenza degli aghetti di ghiaccio destabilizza questa situazione di
equilibrio. Questo perché la tensione di vapore in corrispondenza di
saturazione è minore sul ghiaccio rispetto all’acqua e quindi le molecole
24
d’acqua, a parità di temperatura, abbattono più facilmente una superficie
piana liquida che una ghiacciata.
Definendo il rapporto di saturazione come rapporto tra la tensione di vapore
e e la tensione di vapore saturo E, il rapporto di saturazione Si rispetto al
ghiaccio risulta:
Si = e/Ei
da cui:
Si = e/E * E/Ei = S*E/Ei
con S rapporto di saturazione rispetto all’acqua.
Poiché:
E>Ei
Si ha che:
Si>S
Il vapore in atmosfera può trovarsi in condizioni non sature rispetto all’acqua
– goccioline – ma già in condizioni di sovrasaturazione rispetto al ghiaccio –
cristalli di ghiaccio. La coesistenza di queste due condizioni favorisce un
continuo passaggio delle molecole di vapore che dalle goccioline vanno a
depositarsi sui cristalli di ghiaccio. Questi ultimi si accrescono allora
progressivamente, fino a raggiungere anche i 100 μm. A causa del loro peso,
cadono con notevole velocità urtando all’interno della nube le gocce ed i
cristalli che hanno dimensioni e velocità di caduta minori; negli urti numerosi
cristalli di ghiaccio e gocce aderiscono al cristallo più grande, congelandosi al
suo contatto. Avviene quindi nuovamente un fenomeno di coalescenza, che
porta alla formazione di grossi cristalli dalla cui unione hanno poi origine i
25
fiocchi di neve. Questi cristalli arrivano al suolo come tali se la temperatura
degli strati più bassi dell’atmosfera rimane sotto zero, mentre si trasformano
in grosse gocce d’acqua se la temperatura è superiore.
Figura 2.7a - Accrescimento di un cristallo di ghiaccio all'interno di una nube attraverso il processo di Bergeron –
Findeisen. Viene inoltre indicata la tipologia di precipitazione che raggiunge il suolo.
oppure
Figura 12.7b
26
La forma dei cristalli di ghiaccio è molto variabile. Le modalità di
accrescimento del cristallo, e dunque la sua forma finale, dipendono
essenzialmente dalle condizioni di temperatura ed umidità e dal grado di
sovrasaturazione delle masse d’aria in cui avviene la crescita e non dalla sua
forma iniziale. Infatti, quest’ultima è sempre riconducibile ad un mattoncino
esagonale.
Figura 2.8 Morfologia dei cristalli in funzione delle condizioni ambientali: temperatura e sovrasaturazione rispetto al
ghiaccio.
2.5.4 Tipologie di precipitazione
La temperatura alla quale si verifica la condensazione del vapore acqueo
nelle masse d’aria determina la tipologia di precipitazione: pioggia, neve,
grandine, nebbia, rugiada e brina.
27
Per la formazione di pioggia e neve è necessaria la presenza di granelli di
polvere sospesi nell’aria che permettano l’agglomerazione delle molecole
d’acqua. Quando la loro condensazione avviene ad una temperatura
superiore agli 0°C e il diametro della goccia supera gli 0.5 mm si ha la pioggia.
Se invece la temperatura rimane al di sotto degli 0°C, le molecole d’acqua
cristallizzano e si trasformano in ghiaccio. Questi cristalli, attraversando
strati d’aria a temperature superiori agli 0°C, fondono e si aggregano
nuovamente formando fiocchi di neve che possono raggiungere anche
dimensioni notevoli.
Un altro tipo di precipitazione è la grandine. I chicchi di grandine hanno
forma sferica e dimensioni estremamente variabili tra i 5 ed i 125 mm. Sono
costituiti da un nucleo centrale formato da un granello di polvere ed avvolto
alternativamente da uno strato di ghiaccio trasparente e da uno strato di
ghiaccio opaco. La grandine si forma quando le gocce di pioggia sono spinte
da forti correnti verso l’alto, dove ghiacciano, e poi verso il basso, dove
fondono in parte. Ad ogni saliscendi si forma un nuovo strato di ghiaccio ed il
chicco aumenta di dimensione.
Quando invece la condensazione delle molecole d’acqua presenti nelle masse
d’aria si verifica vicino al suolo si ha la nebbia.
Nella stagione calda, durante la notte, quando il suolo si raffredda
maggiormente rispetto all’aria, la condensazione delle molecole d’acqua
forma la rugiada.
Infine, nelle notti invernali, quando la temperatura si abbassa notevolmente,
le molecole d’acqua sublimano direttamente allo stato solido formando la
brina, costituita da piccoli cristalli di ghiaccio.
28
2.6 Termodinamica atmosferica
2.6.1 Termodinamica dell’aria secca
Risulta
ora
necessario
proporre
un’introduzione
a
delle
leggi
termodinamiche che governano il fenomeno umidità..
La termodinamica è quella parte della fisica che si occupa degli scambi di
energia meccanica (lavoro) e termica (calore) tra i corpi e l’ambiente che li
circonda.
Le principali leggi della termodinamica sono basilari per la comprensione dei
fenomeni dell’atmosfera, da quelli più piccoli responsabili della formazione di
una gocciolina di nube e della dispersione di un pennacchio di fumo, a quelli a
grande scala collegati alla circolazione generale atmosferica.
Uno degli scenari più semplici di analisi di questi fenomeni è sicuramente
quello di masse d’aria lontane dalla saturazione (aria secca).
2.6.1.1 I sistemi termodinamici e l’equazione di stato dei gas perfetti
Lo stato termodinamico di un sistema gassoso come l’atmosfera è
determinato dai valori delle grandezze di pressione, volume e temperatura.
Si distinguono sistemi termodinamici :
 isolati (il sistema non scambia né materia né energia con l’ambiente
esterno);
 chiusi (il sistema scambia materia ma non energia con l’ambiente
esterno);
 aperti (il sistema scambia sia materia che energia con l’ambiente
esterno).
Se in un sistema non avviene alcun cambiamento (cioè se pressione,
temperatura, volume, composizione chimica ecc. rimangono costanti), il
sistema si dice in equilibrio termodinamico. Un sistema termodinamico
29
subisce una trasformazione termodinamica quando scambia calore e/o
lavoro (in una parola, energia) con l’ambiente che lo circonda.
Si distinguono trasformazioni:
 isoterme (a temperatura costante);
 isobare (a pressione costante);
 isocore (a volume costante);
 adiabatiche (senza scambi di calore con l’ambiente).
Nelle trasformazioni è necessario fissare per convenzione un segno (+/-) da
dare alle due grandezze calore e lavoro, per distinguere se lo scambio avviene
tra il sistema e l’ambiente o viceversa.
Il calore si assume positivo se acquistato dal sistema e negativo se ceduto dal
sistema all’ambiente, all’opposto il lavoro si assume negativo se subito dal
sistema e positivo se fatto dal sistema sull’ambiente.
Si consideri ora come sistema termodinamico un gas il cui stato sia
determinato dai valori di pressione P, volume V e temperatura T.
Si definisce perfetto (o ideale) un gas che soddisfa le seguenti condizioni:
 le particelle che costituiscono il gas sono puntiformi;
 tra le particelle non esistono interazioni a distanza;
 gli urti tra le particelle sono elastici (cioè avvengono senza perdita di
energia)
 non si manifesta alcun tipo di fenomeno elettrico
Nessun gas reale, e l’aria non fa certo eccezione, possiede questi requisiti: si
tratta di un astrazione che però ha il vantaggio di rendere più semplice lo
studio dei sistemi termodinamici gassosi.
Un gas ideale infatti ubbidisce a leggi fisiche, la cui espressione matematica
risulta di facile comprensione ed utilizzo:
30
 legge di Boyle (trasformazione a temperatura costante) P*V= costante
 legge di Charles (trasformazione a pressione costante) VT = α*V0*T
 legge di Gay-Lussac (trasformazione a volume costante) PT = α*P0*T
dove:
VT = volume del gas alla temperatura T;
V0 = volume del gas alla temperatuta di 0°C;
PT = pressione del gas alla temperatura T;
P0 = pressione del gas alla temperatura di 0°C;
α = valore costante pari a 1/(273,15 °C).
Nelle principali leggi della termodinamica l’unità di misura adottata per la
temperatura è gradi Kelvin (K) e non Celsius (°C).
Il passaggio da una scala all’altra è molto semplice e governato da questa
semplice relazione K=°C+273,15
Le tre leggi viste sopra sono tra loro collegate e con alcuni semplici passaggi
matematici sono riassumibili in un’unica relazione detta equazione di stato
dei gas perfetti :
P*V =n*R*T
dove:
n = numero di moli del gas (una mole è la quantità di gas in cui peso in
grammi è numericamente pari al peso atomico o molecolare del gas);
R = costante di stato dei gas perfetti pari a 8,314 J/(mole*K).
Questa relazione, per quanto relativa ai gas ideali, ha un importanza
fondamentale nello studio dei sistemi termodinamici gassosi, anche perché in
molti casi il comportamento di un gas reale risulta comunque approssimabile
a quello di un gas perfetto.
31
2.6.1.2 L’equazione di stato per l’aria secca
L’aria può essere considerata con buona approssimazione come un gas
perfetto di peso molecolare M=29.
Pertanto anche per l’aria secca l’equazione di stato applicata a un numero n
di moli è espressa da:
P*V=n*R*T
con R = 8,314 J/(mole*K) = 8314 J/(Kmole*K).
Ma, essendo n = m/M (m = massa dell’aria in chilogrammi), si ha:
P*V = (m/M)*R*T = m*(R/M)*T
La quantità R/M è una costante specifica dell’aria, di solito indicata con Ra (Ra
= 287 J/(Kg.K)).
Quindi l’equazione di stato per l’aria diviene:
P*V = m*Ra*T
o, se si considera una massa d’aria unitaria,
P*V = Ra*T.
Poiché m/V = ρ (densità dell’aria), l’equazione di stato diviene:
P = ρ*Ra*T
che è l’equazione di stato per l’aria secca.
Tale relazione è molto utile per ricavare l’espressione della densità dell’aria:
ρ = P/(Ra*T)
32
2.6.1.3 Il primo principio della termodinamica per l’aria secca
Lo studio dei sistemi termodinamici ha portato alla formulazione di una delle
più importanti leggi fisiche, nota con il nome di primo principio della
termodinamica.
L’energia, in natura, non si crea e non si distrugge ma può solo trasformarsi
da una forma a un’altra.
In particolare il lavoro, fatto o subito da un sistema, ed il calore, assorbito o
ceduto, si trasformano l’uno nell’altro, o al più contribuiscono al
cambiamento dell’energia interna del sistema.
Per energia interna di un gas si intende quella forma di energia che il sistema
possiede già di per sé a causa del movimento e della posizione delle singole
molecole che lo compongono (in fisica prendono il nome di energia cinetica e
potenziale molecolare). Nei gas perfetti l’energia interna dipende
esclusivamente dalla temperatura del gas.
Tenendo conto delle convenzioni sui segni di calore e lavoro viste, il primo
principio della termodinamica per i gas perfetti, e quindi anche per l’aria
secca, si esprime simbolicamente attraverso la relazione:
ΔU = ΔQ – ΔL
dove:
ΔU è l’energia interna del sistema;
ΔQ è il calore scambiato tra sistema e ambiente;
ΔL è il lavoro scambiato tra sistema e ambiente.
Conviene ricordare che da un punto di vista matematico, il simbolo Δ (delta)
rappresenta una variazione. Così l’espressione ΔU indica la variazione
dell’energia interna del sistema e non il suo valore assoluto.
A seconda del tipo di trasformazione termodinamica, il primo principio della
termodinamica assume ovviamente espressioni diverse.
33
Trasformazione isoterma: poiché lo stato energetico di un gas è determinato
esclusivamente dalla sua temperatura, se la temperatura è costante lo è
anche l’energia del gas e si ha:
ΔU = 0; ΔQ = ΔL
Trasformazione adiabatica:
ΔQ = 0; ΔU + ΔL = 0
Trasformazione isocora:
ΔL = 0; ΔU = ΔQ
2.6.1.4 Il gradiente termico verticale dell’atmosfera
L’andamento della temperatura con la quota prende il nome di gradiente
termico verticale dell’atmosfera e assume in meteorologia un’importanza
fondamentale.
La stessa stabilità atmosferica e cioè l’attitudine dell’atmosfera nel favorire,
impedire o comunque condizionare i movimenti verticali dell’aria, dipende
direttamente da tale gradiente.
Nella troposfera la temperatura diminuisce con la quota in media di 6,5°C
circa per chilometro (atmosfera in stato subadiabatico o atmosfera
subadiabatica). Lo stato subadiabatico è la norma a quote oltre gli 800-1000
metri, mentre in prossimità del suolo raramente il gradiente termico
verticale è di 6,5 °C per chilometro perché le prime centinaia di metri di
troposfera sono influenzate dagli scambi di calore con il suolo.
Di notte, ad esempio, il raffreddamento del suolo per irraggiamento può
creare inversioni termiche dello spessore anche di 200-300 metri.
Le inversioni termiche con base al suolo possono essere immaginate come un
caso esasperato di atmosfera subadiabatica e possono essere osservate anche
nelle masse d’aria calda provenienti da più basse latitudini, quando sorvolano
34
a lungo il mare, situazione abbastanza frequente quando sui nostri bacini
soffia lo Scirocco.
Viceversa nelle ore diurne il surriscaldamento del suolo si propaga anche alla
bassa troposfera, generando, nei primi 200-800 metri, una forte diminuzione
della temperatura con la quota, fino a 10°C per chilometro (atmosfera in stato
adiabatico) o anche di più (atmosfera in stato superadiabatico). Sul mare i
gradienti termici superadiabatici si osservano solo quando una massa d’aria
abbastanza fredda sorvola un mare più caldo, una situazione, anche questa,
abbastanza frequente sui nostri bacini, quando aria fredda nord-atlantica
sospinta da venti di Maestrale o di Libeccio, entra nel Mediterraneo, un mare
che a parità di latitudine è circa 4°C più caldo del vicino Atlantico.
2.6.2 Termodinamica dell’aria umida
Dopo
aver
esaminato
le
proprietà
termodinamiche
dell’atmosfera
nell’ipotesi,sostanzialmente astratta, di aria secca non contenente vapore
acqueo o comunque lontana da eventuali processi di condensazione, verrà
ora esaminata la condizione più realistica di aria umida, in grado di dar luogo,
sotto determinate condizioni, a processi di condensazione del vapore acqueo
in essa contenuto, caratterizzata dalla presenza di fenomeni elettrici.
2.6.2.1 Trasformazioni adiabatiche per l’aria umida
Si è già visto che una particella di aria secca, in movimento verticale, è
soggetta a espansione o compressione adiabatica, a seconda che il moto sia
diretto verso l’alto o verso il basso, con una conseguente variazione della
temperatura della particella nella misura di 10°C per chilometro (gradiente
termico adiabatico ad).
Si consideri ora invece il movimento verticale di una particella di aria satura.
In questo caso la variazione ΔT di temperatura che avviene al suo interno può
essere vista come somma di due distinti contributi:
35
 una variazione Δa legata all’espansione o alla compressione adiabatica
della massa d’aria in movimento;
 una variazione Δp determinata dalla condensazione del vapore saturo
in eccesso (nel caso in cui la particella sia in moto verso l’alto) o
dall’evaporazione delle goccioline d’acqua (nel caso in cui la particella
si muova verso il basso).
Ad esempio nel caso di una massa d’aria satura in ascesa la trasformazione
adiabatica complessiva, può essere immaginata così composta:
 un primo tratto tra il livello iniziale della pressione (p + Δp) e quello
finale alla pressione p, durante il quale la particella, per espansione,
subisce un raffreddamento Δa;
 un secondo tratto, a pressione p, durante il quale la massa d’aria
satura condensa l’eccesso di vapore determinato dal raffreddamento
Δa. Di conseguenza l’aria viene riscaldata, a pressione costante, di una
quantità Δp legata all’ immissione del calore latente di condensazione.
Il procedimento può essere ripetuto, passo dopo passo, fin quando, nel suo
movimento verso l’alto, la massa d’aria non abbia condensato tutto il vapore
acqueo presente.
Una volta che la massa d’aria è giunta alla saturazione e sono iniziati i
processi di condensazione, si possono verificare due situazioni differenti:
 il vapore condensato rimane all’interno della massa d’aria satura (non
si ha precipitazione); se la stessa massa d’aria subisse ora un
riscaldamento adiabatico (ad esempio per effetto della compressione
in fase di caduta da un pendio), il vapore condensato rievaporerebbe e
la massa d’aria si riporterebbe nelle condizioni iniziali (processo
reversibile);
 parte del vapore condensato precipita verso terra; in questo caso
riscaldando adiabaticamente la stessa massa d’aria, non si riuscirebbe
36
a tornare esattamente alle stesse condizioni di partenza poiché
mancherebbe il contributo dato al riscaldamento dalla rievaporazione
dell’acqua precipitata. La trasformazione è cioè irreversibile e prende il
nome di pseudo adiabatica.
In entrambi i casi, comunque, la variazione complessiva ΔT di temperatura
subita dalla massa d’aria satura per uno spostamento verticale ΔZ è minore
che nel caso di aria secca.
Infatti ora i due termini Δa e Δp sono di segno opposto sia nel caso di aria
satura in ascesa sia in quello di aria satura in discesa e pertanto tendono a
compensarsi. Tuttavia, siccome il temine Δa prevale in assoluto sul termine
Δp, si deduce che, anche nel caso di aria satura, la massa d’aria si raffredda se
è in ascesa e si riscalda se è in discesa. Ma ora il raffreddamento o il
riscaldamento subiti in uno spostamento ΔZ sono ovviamente inferiori al
corrispondente caso dell’aria secca.
2.6.2.2 L’equazione di stato per l’aria umida
Nell'aria è sempre presente una piccola quantità di vapore acqueo,
indicativamente circa 1% in massa, per cui si può correttamente parlare di
aria umida.
L'aria atmosferica “secca” di cui sopra, è, come noto, una miscela di ossigeno
ed azoto (O2 ≅ 23% e N2 ≅ 76% in massa).
La presenza di una quantità così ridotta di vapore acqueo nell’aria potrebbe
apparire, ad un primo esame, di scarsa importanza tecnica.
Ma in realtà anche piccole differenze nelle “modeste” quantità di vapore
presenti nell'aria possono comportare notevoli conseguenze pratiche: ad
esempio influenzare la sensazione di benessere termico delle persone o
influenzare, e in notevole misura, la conservazione di oggetti e manufatti, etc.
L'aria umida viene considerata nella pratica come una miscela di aria (gas) e
di
vapore
acqueo
(vapore
surriscaldato),
37
prescindendo
dalla
sua
composizione in ossigeno ed azoto. Si dice, quindi, che l'aria umida è una
miscela d’aria secca e di vapore acqueo.
Poiché lo stato del vapore può essere considerato “sufficientemente
rarefatto” il comportamento di questo e dell’aria secca, e cioè dell’aria umida,
può essere descritto con buona approssimazione mediante l’equazione di
stato dei gas perfetti. In particolare, indicando con Pt la complessiva
pressione della miscela aria-vapore e con nt il totale del numero di moli
presenti nel volume V, si può scrivere:
Pt*V = nt*R*T
dove nt = na + nv ed essendo na e nv rispettivamente il numero di moli di aria e
di vapore.
L’equazione dei gas perfetti può essere ora scritta anche per ciascun
componente nella forma:
Pa = na* R*T/V
Pv = nv*R*T/V
dove Pa e Pv assumono il significato di pressioni parziali di questi componenti
della miscela.
Si noti che le pressioni Pa e Pv vengono così a rappresentare la pressione che
ciascun componente (aria e vapore) eserciterebbe qualora occupasse da solo,
e alla stessa temperatura T, l'intero volume a disposizione V.
Esplicitando i numeri di moli si ottiene:
na = Pa*V/R*T
nv = Pv*V/R*T
nt = Pt*V/R*T
per cui, sostituendo nella relazione nt = na + nv, si ottiene la relazione tra la
pressione totale della miscela gassosa e le pressioni parziali dei componenti:
Pt = Pa + Pv
38
Questa relazione prende il nome di Legge di Dalton ed è valida per i soli gas
perfetti. Tenendo conto dei bassi valori di Pv nell’aria atmosferica (circa 1300
- 2000 [Pa]) la relazione risulta del tutto corretta.
Si consideri il diagramma (P,V) dell'acqua in figura 2.12: sul diagramma, lo
stato del vapore presente nell'aria sia rappresentato dal punto 1. In questo
stato (P1, V1) nell'aria sono presenti ρv1 = 1/V1 [kg/m3] di vapore. Se è nota la
pressione totale Pt della miscela e, ad esempio, la pressione atmosferica,
risulta anche determinata la composizione della miscela in moli nv/nt
potendosi scrivere:
Pv/Pt = nv/nt
S’immagini, ora, che la temperatura dell'aria atmosferica diminuisca a parità
però della pressione Pt. Durante questo processo la pressione parziale Pv si
mantiene costante, finché la composizione dell'aria umida, definita dal
rapporto nv/nt, rimane inalterata.
Figura 2.9 Diagramma (P,V) dell'acqua
39
La trasformazione 1→2 sul diagramma (P, V) è isobara (la temperatura
diminuisce fino al valore T2). Nello stato 2, il vapore è ormai saturo. Se la
temperatura diminuisce ulteriormente lo stato del vapore non potrà che
spostarsi a destra lungo la curva limite del vapore saturo verso più elevati
valori del volume specifico (minori densità). In corrispondenza, la pressione
Pv e il numero di moli di vapore presenti nella fase aeriforme nv
diminuiranno e si separerà l’acqua, nell'aria si formerà una minuta
dispersione di goccioline (nebbia).
La temperatura T2 è detta temperatura di rugiada dell’aria. L'appannamento
della superficie esterna di un bicchiere contenente una bibita gelata
(formazione di minutissime goccioline d’acqua sulla superficie esterna) è
dovuta proprio al raggiungimento della temperatura di rugiada dell’aria sulla
tale superficie.
Si supponga ora di considerare nuovamente lo stato rappresentato dal punto
1.
È possibile immaginare di raggiungere la saturazione anche muovendosi a
temperatura costante e cioè muovendosi sul diagramma verso sinistra, fino a
giungere al punto 3 (T3 = T1).
Ciò potrebbe essere realizzato mantenendo costante la temperatura dell'aria
in un ambiente e aggiungendo a poco a poco vapore fino a che la Pv,
aumentando progressivamente, non giunge al massimo valore consentito
cioè al valore della pressione di saturazione Ps (T1). In altre parole, la
saturazione del vapore può essere raggiunte sia raffreddando l'aria a Pt =
cost, sia immettendo vapore nell'ambiente a T = cost.
40
3
Gli strumenti di misura dell’umidità
dell’aria
Negli ultimi anni si è assistito ad un crescente interesse verso i sensori di
umidità per il monitoraggio ed il controllo dell’umidità dell’aria non solo in
settori di interesse tradizionali, quali quello del condizionamento ambientale
e meteorologico, ma anche in campo strettamente industriale. Si pensi ai
numerosi processi industriali di controllo nei sistemi di essiccazione, di
produzione e di stoccaggio, ma anche all’aumentato numero di applicazioni
agroalimentari, museali, aeronautiche. A tale scopo differenti tipi di sensori
sono stati sviluppati per soddisfare le diverse condizioni di operabilità
richieste in ciascun campo di applicazione.
Prima di descrivere i principi di misura dell’umidità ed i relativi sensori é
opportuno evidenziare che la misura di umidità é spesso ottenuta tramite
uno o più misure di parametri termoigrometrici differenti, quali: il
titolo w, l’umidità relativa φ, la temperatura di rugiada Tr, la temperatura
di bulbo umido Tu, etc., situazione, questa, meteorologicamente complessa
sia dal punto di vista delle prestazioni di misura che delle limitazioni
operative del sensore.
E' utile sottolineare che l'umidità, come qualsiasi altra grandezza di misura,
può essere misurata in modo "diretto", se il sensore fornisce il parametro di
interesse senza dover conoscerne esplicitamente altri, o in modo "indiretto",
valutando per calcolo il valore del parametro di interesse misurandone
altri ad esso collegati (UNI 4546).
É quindi possibile raggruppare i diversi principi di misura ed i relativi
sensori in due categorie:
 igrometri diretti, che presentano una relazione funzionale
41
esistente tra l’umidità e una proprietà fisica (come ad esempio
gli igrometri a capello, gli igrometri capacitivi, ecc.)
 igrometri
indiretti,
che
effettuano
una
trasformazione
termodinamica e misurano quindi l’umidità indirettamente
sulla
base
di
una
relazione termodinamica (come ad
esempio gli igrometri a specchio condensante in cui viene
effettuata una trasformazione di raffreddamento isobara e
isotitolo,
gli
psicrometri
in
cui
viene
effettuata
una
trasformazione di saturazione quasi adiabatica).
Una classificazione simile può essere effettuata sulla base del parametro
termoigrometrico misurato. In particolare, é possibile distinguere tra
"sensori relativi" e "sensori assoluti" a seconda che questi misurino un
parametro termoigrometrico relativo o assoluto.
Nell'ipotesi di un assegnato valore della pressione dell'aria umida
(generalmente costante e pari alla pressione di 101325 al livello del mare), è
sempre possibile risalire indirettamente da una misura di un parametro
relativo al valore di un parametro assoluto attraverso l'ulteriore misura della
temperatura dell’aria
Ta,
(o
di
un'altra
proprietà
termodinamica
indipendente). In tal caso, la misura indiretta sarà ovviamente affetta da
un’incertezza funzione delle singole incertezze di misura secondo le note
leggi della propagazione.
Nel seguito vengono trattate, tra le numerose metodologie di misura, solo
quelle normalmente utilizzate nelle applicazioni industriali. Sono stati,
inoltre, brevemente esaminati quei sensori ottenuti tramite miglioramenti
tecnologici di principi convenzionali che non hanno trovato ancora
estese
applicazioni industriali. Sono stati, invece, tralasciati quei sensori
basati su principi di misura che non hanno ancora avuto sostanziale
diffusione sul mercato, quali, ad esempio, gli igrometri spettroscopici, gli
igrometri ottici come quelli a ad infrarosso, ad ultravioletto (Lyman alpha) e
a fibre ottiche, gli igrometri acustici come quelli ad ultrasuoni e ad onde
superficiali, gli igrometri ad effetto corona. Sono stati volutamente tralasciati
42
i metodi di tipo primario, come quelli gravimetrici, ed i generatori
di
umidità a due temperature, a due pressioni e a miscelamento, utilizzati
esclusivamente in laboratorio per la taratura. Vanno infine menzionati gli
igrometri a viraggio di colore, che sebbene stiano riscuotendo un certo
interesse dal punto di vista industriale, possono essere considerati più che
degli strumenti di misura degli indicatori qualitativi dell’umidità dell’aria.
Per ognuna delle metodologie di misura esaminate sono state riportate, a
valle di una descrizione sintetica del principio di misura e delle tecnologie
utilizzate, le principali caratteristiche metrologiche in termini di campo di
misura, incertezza e tempo di risposta. Sono, inoltre, evidenziate le
principali caratteristiche operative e modalità di installazione.
3.1 Igrometri diretti
Gli igrometri diretti sono probabilmente i sensori tecnologicamente e
funzionalmente più semplici, pertanto presentano un costo relativamente
basso. Negli ultimi anni la ricerca di nuovi materiali ha portato ad un
sensibile incremento dell’affidabilità dei sensori igroscopici diretti, in
modo particolare quelli di tipo elettrico, consentendone un ampia
applicazione in ambito industriale e di laboratorio.
Gli igrometri diretti possono essere classificati in modo diverso a seconda
del principio di misura (meccanici, elettrici, a risonanza, ecc), delle
tecnologie di produzione (a film sottile, a film spesso, a stato solido, ecc.) o
ancora dei materiali utilizzati (polimerici, ceramici, ecc.). Nel seguito
vengono suddivisi i diversi sensori in funzione del principio di misura in
igrometri meccanici ed igrometri elettrici.
3.1.1 Igrometri meccanici
Il primo e più popolare dispositivo di misura dell'umidità di tipo meccanico
sembra essere stato realizzato per la prima volta dal De Sassure. Franchman
e Regnault misero ulteriormente a punto tale strumento basato sul
43
fenomeno, a tutti ben noto, dell'elongazione di capelli umani in funzione
dell'umidità. Successivamente tali dispositivi sono stati realizzati utilizzando
materiali diversi quali membrane, sia animali che sintetiche, carta, tessuti.
Nei dispositivi ad uscita elettrica, la
variazione dimensionale del materiale igroscopico in funzione del contenuto
di vapor d'acqua assorbito viene trasdotta nella variazione di resistenza
elettrica di un potenziometro o di un estensimetro.
Il campo di misura tipico di tali strumenti va dal 20% al 90%, per
temperature comprese tra 0 e 40°C con una incertezza di misura
raramente inferiore a ±5%. Il sensore, infatti, mostra un comportamento non
lineare ed una sensibilità ridotta agli estremi del campo di misura (ad
esempio per un igrometro a capelli la sensibilità varia da circa 0.5.mm/UR%
m al 15%, fino a circa 0.05 mm/UR% m all'85%).
Le scadenti prestazioni metrologiche, associate alla non trascurabile deriva
nel tempo, ai fenomeni di isteresi, ai fenomeni di contaminazione
superficiale, all’elevato tempo di risposta ed alla elevata sensibilità alle
vibrazioni, rendono utilizzabili tali dispositivi più per indicazioni qualitative
che per applicazioni strettamente metrologiche. D’altra parte la semplicità
costruttiva rende tali strumenti molto economici e comodi per l’assenza di
alimentazione elettrica.
Per tali motivi l'uso in ambiente domestico ne costituisce il principale
campo applicativo. Un impiego altrettanto frequente è quello di registratore
delle condizioni ambientali associato ad un sensore di temperatura ed ad un
sistema di registrazione a pennino. In tal caso il sistema prende il nome di
termoigrografo.
44
Figura 3.1 Sensori di umidità igroscopici a rilevazione meccanica: a) a capello b) a membrana
3.1.2 Igrometri elettrici
I sensori di umidità igroscopici elettrici sono basati sulla variazione delle
proprietà elettriche dell'elemento sensibile in funzione della quantità di
acqua adsorbita o absorbita dall'ambiente di misura. Il principio di
funzionamento dipende dal tipo di elemento sensibile che può misurare
una variazione di capacità, una variazione di resistenza o più in generale
una variazione di impedenza.
Gli igrometri resistivi misurano la variazione di resistenza dell’elemento
sensibile. Si distinguono due modi di conduzione elettrica per questo
tipo di sensori: conduzione di superficie e conduzione di massa. Nel
modello a conduzione di superficie, i contatti elettrici sono disposti sulla
faccia del film igroscopico di cui viene misurata la variazione di resistenza.
Nel modello a conduzione di massa, invece, si misura la variazione della
conduttività nella massa del materiale igroscopico interposto tra i due
elettrodi. E’ inoltre possibile distinguere tra sensori che sfruttano la
variazione di conducibilità ionica di una opportuna soluzione elettrolitica
(ad esempio di LiCl) al variare del contenuto di vapor d'acqua presente
45
nell'ambiente di misura, oppure la variazione di conducibilità elettronica.
Il primo sensore del tipo a variazione di conducibilità ionica fu sviluppato
da F. W. Dunmore intorno alla fine degli anni '30 si basa sulla natura
igroscopica del sale utilizzato. L'adsorbimento del vapor d'acqua contenuto
nell'aria causa una variazione di resistenza elettrica, misurata in c.a. per
evitare fenomeni di polarizzazione, che risulta proporzionale all'umidità
relativa. Il campo di misura caratteristico di tali igrometri é però molto
ristretto, pertanto, per coprire campi di misura più estesi (tipicamente
15÷90 %), é necessario disporre di una batteria di sensori aventi diverse
percentuali di LiCl.
Attualmente gli igrometri resistivi ionici più diffusi sono quelli polimerici
che sfruttano l'incremento della conducibilità ionica di alcuni polimeri
organici al variare della quantità di acqua adsorbita. Ciò é dovuto
all'incremento della mobilità ionica e/o alla variazione della concentrazione
dei portatori di carica.
Un sensore di questo tipo molto noto é il cosiddetto "elemento di Pope".
Analogamente a quello al LiCl, il sensore é costituito da un tubo o da una
superficie piana polimerica su cui sono rispettivamente avvolti a spirale o
disposti a greca due fili paralleli a formare due elettrodi (Figura 3-2).
L’incremento di acqua adsorbita provoca come detto un aumento della
conducibilità superficiale.
La resistenza elettrica del film è di circa 107 Ω intorno al 30-40% U.R. e
decresce esponenzialmente con l’aumentare dell’umidità relativa.
La caratteristica del sensore è pertanto di tipo non lineare del tipo:
avendo indicato con R la resistenza del film resistivo e α e β due
coefficienti caratteristici.
46
Un esempio di substrato utilizzato é il polistirene trattato con acido
solforico. A causa della struttura chimica facilmente compatibile è anche
possibile aumentarne la sensibilità attraverso la copolimerizzazione. Spesso
il polimero si trova accoppiato come elemento igroscopico insieme ad altri
materiali come allumina o silicio. Un problema di non poco conto
nell’utilizzare questi materiali come sensori di umidità è la loro facile
idrosolubilità e la poca resistenza agli agenti atmosferici, anche se possono
comunque avere un impiego a lungo termine dopo essere stati stabilizzati
con una copertura costituita da una pellicola di resina. Inoltre il sensore
risulta altresì molto sensibile alla temperatura rendendo necessaria una
termocompensazione.
Figura 3.2 Schema costruttivo e curva caratteristica tipica di sensori resistivi(Norton, 1989)
Per quanto riguarda gli igrometri a variazione di conducibilità elettronica,
essi sono costruttivamente simili a quelli ionici, ma risultano ancora
poco utilizzati rispetto a questi ultimi. Tra essi i più diffusi sono
probabilmente i sensori a film di carbonio. Essi consistono in un film
igroscopico resistivo realizzato sia in forma cilindrica che in "wafer". Il film
igroscopico é costituito generalmente da un supporto in plastica, sul quale
sono depositati i due elettrodi e da un film sottile di cellulosa gelatinosa
nel quale sono contenuti polveri di carbonio in sospensione.
La maggior parte dei sensori di tipo resistivo presenta dei campi di utilizzo
47
più limitati rispetto ai sensori di tipo capacitivo. Le temperature di impiego
solitamente vanno dai –10°C ai 60°C con un range di umidità che varia dal 5
% al
95% U.R.. I sensori ceramici resistivi presentano, rispetto ai polimerici
resistivi, sia un campo di impiego in temperatura più esteso, che la
possibilità di operare in condizioni di saturazione. Sensibilità, stabilità e
affidabilità del sensore dipendono naturalmente dalla particolare struttura
chimica del materiale adoperato. Mediamente l’incertezza risulta circa pari
al 2-5%. I tempi di risposta tipici sono nell’ordine del minuto, ma esistono
sensori che presentano tempi di risposta anche inferiori. Infine, per alti
valori di umidità possono presentarsi fenomeni di deriva della caratteristica
soprattutto in presenza di gas estranei, quali alcool e ammine, mentre gli
idrocarburi aromatici, vapori acidi ed ossidi acidi come SO2 e NO2 possono
essere addirittura distruttivi.
Gli igrometri capacitivi presentano un funzionamento simile ad un
condensatore in cui il dielettrico è un materiale igroscopico (solitamente
polimerico o ceramico). Generalmente uno degli elettrodi è permeabile al
vapor d’acqua. L’equilibrio igrometrico che si stabilisce tra l’isolante e
l’ambiente, modifica la permettività relativa del dielettrico. Il risultato è una
variazione della capacità dell’elemento sensibile che si trasforma in
un’informazione rappresentativa dell’umidità relativa dell’aria. Questo tipo
di dispositivo è sensibile all’umidità relativa poiché esso è in equilibrio
termico con l’ambiente da caratterizzare. Le caratteristiche elettriche del
dispositivo rendono trascurabile l’energia scambiata con l’ambiente per
autoriscaldamento. Nella maggior parte dei casi la grandezza del sensore è
ridotta e quindi direttamente utilizzabile “in situ”.
Lo schema costruttivo tipico di tale sensore é mostrato in Figura 3-3; esso
consta di un substrato isolante sul quale é depositato mediante attacco
chimico l'elettrodo inferiore costituito da due contatti gemelli. Un sottile film
polimerico, avente uno spessore di circa 1 µm, ricopre tale strato e fa da
supporto all'elettrodo superiore, permeabile al vapor d'acqua, depositato
48
sotto vuoto su tale film. I materiali polimerici utilizzati per sensori
commerciali sono per esempio acetato di cellulosa, polistirene, poliammide.
Il sensore presenta una caratteristica tale che all'aumentare dell’umidità
relativa (e quindi della quantità di acqua absorbita dal polimero) aumenta la
costante dielettrica del polimero absorbente.
Sostanzialmente simili a quelli polimerici dal punto di vista costruttivo i
sensori ceramici sono costituiti da uno strato di materiale ceramico
poroso sulle
cui facce sono disposti due elettrodi generalmente costituiti da un materiale
a porosità più elevata. I sensori ceramici essendo realizzati con processi di
sinterizzazione sono molto stabili sia chimicamente che fisicamente. I
materiali tipicamente utilizzati
sono
ceramiche
porose
sinterizzate
ottenute a partire da ossidi di cromo, magnesio, ferro, stronzio, stagno ed
alluminio. Sono in fase di studio anche le caratteristiche di sensori basati su
ceramiche realizzate a partire da idrossidi di vari metalli sinterizzati.
La curva caratteristica dei sensori capacitivi può essere descritta con buona
approssimazione da una relazione del tipo:
avendo indicato con εf, εw e εo le costanti dielettriche dell’acqua, del film
sensibile e nel vuoto, ν la frazione volumetrica dell’acqua absorbita dal
sensore, A la superficie degli elettrodi ed L lo spessore del dielettrico.
Da tale relazione si evince che all’aumentare del rapporto tra la costante
dielettrica dell’acqua e quella del film sensibile aumenta la sensibilità del
sensore stesso. Inoltre la caratteristica é funzione della frequenza eccitante.
Il campo di misura dei sensori capacitivi è molto ampio e varia tra circa il 5
ed 100%. E’ opportuno comunque tener presente che come per gli igrometri
resistivi molti materiali polimerici non possono essere utilizzati in condizioni
di saturazione a causa della solubilità del polimero stesso; ciò ovviamente
ne limita il campo di misura in condizioni di saturazione.
L’incertezza di misura risulta talvolta migliore del ± 2% con ottime
49
caratteristiche di linearità almeno fino al 90 %.
Il tempo di risposta è variabile a seconda del tipo di polimero (o materiale
ceramico) e della sua porosità da pochi secondi (per l'acetato di cellulosa) a
circa un minuto (per la poliammide). Il campo di impiego in temperatura è
generalmente simile a quello dei sensori resistivi e dipende dal tipo di film
utilizzato.
Figura 3.3 Schema costruttivo e curva caratteristica tipica di un sensore capacitivo
I sensori a variazione di impedenza ad ossido di alluminio, malgrado la
loro non eccellente stabilità, sono molto diffusi per uso industriale per i loro
ottimi tempi di risposta, anche in corrispondenza di bassi valori di umidità.
Essi, inoltre, sono adatti alla misura in presenza di idrocarburi sia gassosi
che liquidi e possono soddisfare i requisiti di sicurezza intrinseca.
Il sensore consiste di uno strato sottile di ossido di alluminio depositato su
di un metallo stabile che ha la funzione di elettrodo. In particolare, se lo
spessore del film di ossido é in film spesso (maggiore di 1 µm) il sensore
risulta sensibile all’umidità relativa, se invece é in film sottile (minore di 0.3
µm) il sensore risulta sensibile all’umidità assoluta. La tecnica attualmente
più utilizzata é quella di deposito in film sottile in seguito descritta.
In tali sensori un sottile rivestimento, usualmente in oro, é depositato per
evaporazione sotto vuoto sull'ossido per formare il secondo elettrodo. Tale
elettrodo é tanto sottile da consentire alle molecole d'acqua il passaggio
50
dall'ambiente di misura verso lo strato poroso e viceversa. Attualmente i
sensori possono essere costruiti utilizzando uno strato di silicio che funziona
da base.
Il vapor d'acqua che circonda l'elemento viene adsorbito o desorbito
dall'ossido di alluminio fino a raggiungere una condizione di equilibrio con
l’ambiente circostante. La quantità di acqua adsorbita, direttamente
proporzionale alla pressione di vapore ed inversamente proporzionale alla
temperatura T, determina una variazione sia della costante dielettrica che
della conducibilità superficiale dell'ossido di alluminio. In figura 4 sono
mostrati rispettivamente lo schema costruttivo e la curva caratteristica
tipica di un sensore ad ossido di alluminio. Dalla curva caratteristica si
evince che essa é approssimativamente esponenziale e ciò implica una
minore sensibilità per bassi valori di umidità.
Sensori tecnologicamente avanzati sono stati ottenuti utilizzando la
tecnologia a film sottile depositando l'alluminio su una base conduttiva di
silicio. In quest'ultima, sono alloggiate un riscaldatore ed un sensore per la
misura della temperatura dell'elemento di ossido. Ottimi risultati sono stati
ottenuti attraverso un sistema di condizionamento del segnale mediante
algoritmi implementati per via software ed hardware in grado di effettuare
le dovute compensazioni alle grandezze di influenza tipiche del sensore.
Figura 3.4 Schema costruttivo e curva caratteristica tipica di un sensore all'ossido di alluminio.
51
Il campo di misura di tali sensori é generalmente compreso, in termini di
temperatura di rugiada, tra -30 e 60 °C, ma esistono realizzazioni che
consentono misure tra -110 e 60 °C (0.01 ÷ 200000 ppmv). L'incertezza
di misura varia tra circa ± 2 °C, in un campo compreso tra -30 e 60 °C, fino
ad un massimo di ± 5 °C per temperature di rugiada inferiori, mentre il
tempo di risposta é di pochi secondi sull'intero campo di misura. Essi,
inoltre, possono essere utilizzati sia a bassissime che ad elevate pressioni
(da 6.7*10-1 a 3.4*107 Pa) e con velocità del flusso di misura variabili da 0
a 0.5 m/s (in aria).
I sensori ad ossido di alluminio presentano effetti rilevanti sulla
caratteristica
umidità-impedenza
in
funzione
della
temperatura,
dell'invecchiamento e della contaminazione superficiale.
I campi di applicazione sono molto vari in quanto essi possono essere
utilizzati sia per gas che per liquidi; in particolare, vengono utilizzati
nell'analisi di idrocarburi, gas criogenici, gas naturale, aria essiccata, olii,
liquidi organici, ecc..
3.1.3 Altri sensori diretti
Accanto ai sensori tradizionali su riportati sono stati recentemente
introdotti sul mercato alcuni interessanti sensori diretti innovativi tra cui i
sensori FET e quelli piezoelettrici.
I sensori FET sono basati sulle proprietà dei transistor ad effetto di campo.
Tale tipologia di sensori viene realizzata integrando il sensore di umidità con
un diodo, utilizzato come termoelemento, sullo stesso chip e fabbricato
secondo gli standard e le tecnologie dei circuiti integrati. La membrana
sensibile all'umidità é costituita ad esempio da acetato di cellulosa ed é
posta tra due elettrodi porosi in oro.
I sensori piezoelettrici misurano la variazione della frequenza di risonanza
del sensore costituito da: i) un cristallo di quarzo, che funge da elemento
per il controllo della frequenza in un circuito oscillante; ii) un rivestimento
igroscopico, generalmente di tipo polimerico che ricopre il cristallo
oscillante; iii) un sistema di misura della variazione della frequenza di
52
risonanza. Tali sensori presentano un campo di misura di 0÷20.000 ppmv
con un incertezza di misura variabile
dell’ordine del 2%V.L; essi risultano sensibili alla contaminazione
superficiale e ad alcuni agenti chimici contaminanti.
3.2 Igrometri indiretti
Tutti gli igrometri indiretti effettuano la misura di umidità sulla base di una
trasformazione termodinamica e misurano quindi l’umidità relativa
indirettamente sulla base di una relazione termodinamica.
In particolare negli igrometri a specchio condensante viene effettuata una
trasformazione di raffreddamento isobara e isotitolo fino a raggiungere le
condizioni di saturazione; la condizione di saturazione viene raggiunta
invece in modo diverso negli psicrometri e nei saturatori adiabatici in cui
viene effettuata una trasformazione adiabatica; negli igrometri elettrolitici la
trasformazione è invece quella di essiccazione. In ogni caso per ottenere
la misura dell’umidità nelle condizioni iniziali è necessaria la conoscenza
delle trasformazioni termodinamiche utilizzate e delle relative relazioni.
Sebbene gli igrometri indiretti siano funzionalmente più complessi di quelli
diretti, essi sono generalmente più accurati e vengono per lo più utilizzati in
laboratorio come campioni di trasferimento.
3.2.1 Igrometri a specchio condensante
La condensazione del vapore atmosferico su di una superficie fredda é stato
da lungo tempo utilizzata come indice del contenuto di vapor d'acqua
presente nell'aria. Basti pensare che 200 anni fa la tecnica dello specchio
raffreddato, su cui osservare l'incipiente condensazione del vapore, era già
utilizzata.
Il principio di misura, comune a tutti gli igrometri a specchio condensante, é
basato sulla progressiva diminuzione della temperatura superficiale di un
elemento sensibile. La conseguente diminuzione della temperatura dell'aria
53
atmosferica che lo lambisce prosegue fino al raggiungimento della
condizione di saturazione con la conseguente formazione di un sottile film
liquido (o solido) sull'elemento. La trasformazione termodinamico
corrisponde ad un raffreddamento isotitolo a pressione costante fino alla
temperatura di rugiada Tr o di brina Tb. Infatti in particolari condizioni
termo igrometriche il raffreddamento del campione di aria può provocare
un passaggio diretto del vapore acqueo dalla fase vapore a quella solida
(temperatura di brina o frost point). L'istante in cui misurare la Tr (o Tb) è
fissato dalla rilevazione dell'incipiente condensazione; é, quindi, necessario
disporre di un opportuno sistema che fornisca tale informazione.
Esistono svariate metodologie di rilevazione dell'incipiente condensazione
del vapor d'acqua tra cui quella i) ottica (a specchio condensante); ii)
capacitiva; iii) resistiva; iv) nucleare; v) della frequenza di risonanza; vi)
ad iniezione d'acqua. In seguito sarà descritta in dettaglio solo quella
ottica poiché è sicuramente quella che trova largo impiego in ambito
industriale e scientifico.
Il sistema di misura risulta in generale costituito dai seguenti
sottosistemi: un sistema di rilevazione della condensa sullo specchio; un
sistema di regolazione e controllo della temperatura dello specchio; un
sistema di misura della temperatura.
Negli
igrometri
a
specchio
condensante la rilevazione delle condizioni di incipiente condensazione
avviene attraverso fotosensori ed in particolare mediante la variazione
dell'indice di riflessione associato ad un fascio luminoso incidente sulla
superficie raffreddata. In tal caso il sistema di rilevazione dell'incipiente
condensazione del vapor d'acqua é costituito da uno o due rilevatori ottici
sensibili alla variazione della radiazione riflessa dalla superficie raffreddata
a causa della formazione di condensa o di ghiaccio. Il sistema di controllo e
regolazione mantiene costante lo spessore del film mediante dei cicli di
raffreddamento e riscaldamento della superficie. Tale superficie di
condensazione viene denominata specchio per la sua particolare finitura
superficiale. La misura della temperatura di rugiada viene, infine, effettuata
mediante un sensore di temperatura (normalmente una termoresistenza al
54
platino)
collocata
al
di
sotto della superficie dello specchio per
minimizzare le inevitabili incertezze dovute ai gradienti superficiali.
Lo strumento di misura é mostrato schematicamente in Figura 3-5.
L’elemento refrigerante raffredda lo specchio sulla cui superficie incide una
radiazione luminosa. Tale raffreddamento é generalmente realizzato
mediante un elemento Peltier che é utilizzabile anche per il successivo
riscaldamento una volta effettuata la misura. Il raffreddamento dello specchio
é causa dell'incipiente condensazione del vapore, il che provoca una
variazione
dell'intensità
luminosa
misurabile
da
un
fotosensore
opportunamente disposto. In particolare, disponendo di almeno due
fotosensori investiti, uno dal fascio luminoso relativo allo specchio asciutto e
l'altro dal fascio riflesso nelle condizioni di incipiente condensazione, è
possibile rilevare anche una piccola quantità di condensa presente sullo
specchio poiché essa genera una brusca variazione di segnale all'uscita del
ponte in cui sono inseriti i fotosensori. Infatti, per aumentare la sensibilità di
misura e per compensare eventuali variazioni di intensità luminosa emessa
dalla sorgente, si fa generalmente ricorso a strutture a ponte di fotorilevatori.
Questi ultimi costituiscono i due rami attivi di un ponte di misura; é ovvio, che
la posizione dei due fotosensori é scelta in base a considerazioni statistiche
riguardanti la distribuzione spaziale dell'intensità della luce diffusa in
condizioni di incipiente condensazione. Per effettuare una misura accurata
della
temperatura
dello specchio è necessario
resistenza sotto la superficie dell'elemento riflettente.
55
incollare una termo
Figura 3.5 Schema costruttivo e trasformazione termodinamica di un igrometro a condensazione con
rilevazione ottica: (1) sorgente di luce;(2) specchio riflettente; (3) rilevatore di condensa; (4) sistema di
controllo; (5) sensore di temperatura; (6) sistema di raffreddamento/riscaldamento (generalmente un
elemento Peltier);(7) uno scambiatore).
Particolari problemi insorgono in quelle situazioni in cui bisogna
effettuare il monitoraggio continuo quando il valore dell'umidità cambia
nel tempo (ad esempio per il controllo di processo). Per ovviare anche a
tale problema sono stati messi a punto alcuni sensori a specchio
condensante con un sistema di regolazione della temperatura dello
specchio che non funziona stabilmente sulla temperatura di rugiada, ma
oscilla continuamente tra la temperatura dell’aria e quella di rugiada.
In generale é possibile distinguere due diverse tipologie: "a prelevamento"
ed "ad immersione" (anche detta “in situ”). Nel caso di misuratori "in situ" la
sonda, come per gli altri sensori di umidità, viene posizionata all'interno
della camera di prova evitando in alcune realizzazioni che l’elettronica venga
portata a temperature o ad umidità relative esterne al proprio campo di
corretto funzionamento. Nel caso, invece, di misuratori "a prelevamento" il
sensore andrà posizionato in un circuito parallelo al campione in modo da
non influenzare o non essere influenzato da quest'ultimo.
I campi di misura di tali strumenti sono compresi tra -100 e 100°C in
termini di temperatura di rugiada; più propriamente il campo di misura
dovrebbe essere espresso in termini di massima depressione (differenza tra
la temperatura dell’aria e quella di rugiada) non esistendo alcuno strumento
56
che riesce a misurare depressioni pari a 200°C. La depressione, e quindi la
temperatura di rugiada misurabile, è funzione della potenza dell’elemento
refrigerante che può essere a due, tre, quattro o cinque stadi e può inoltre
presentare sistemi di scambio termico ausiliari ad aria a ventilazione forzata,
ad acqua o ad evaporazione.
Sicuramente lo svantaggio maggiore, che caratterizza questo tipo di sensore,
é la sua complessità; ciò giustifica i costi elevati in paragone agli altri
igrometri commerciali. Per quanto riguarda il tempo di risposta, esso é
funzione della velocità di riscaldamento/raffreddamento dello specchio; per
gli igrometri industriali a specchio raffreddato tipicamente si ha circa 1°C/s.
3.2.2 Psicrometri
I sensori di umidità psicrometrici, comunemente denominati psicrometri,
sono stati nel passato i dispositivi maggiormente utilizzati nel campo della
meteorologia e della termotecnica. Questa tecnica di misura, che risale ai
primi dell'ottocento, si basa sulla misura della differenza di temperatura
(depressione) esistente tra due termometri: il primo misura la temperatura
di dell’aria (anche denominata temperatura di bulbo asciutto), il secondo la
temperatura alla quale si porta un termometro mantenuto costantemente
bagnato mediante una garza ed investito dalla corrente d’aria umida
(denominata temperatura di bulbo umido).
A rigore la temperatura di bulbo umido non è una proprietà di stato sebbene
in molti testi esistano relazioni e diagrammi che correlano tale grandezza ad
altre proprietà di stato. La ragione di ciò è che spesso si usa
l’approssimazione di considerare la temperatura di bulbo umido coincidente
con la temperatura di saturazione adiabatica. E’ infatti stato largamente
dimostrato sperimentalmente che in particolari condizioni sperimentali (i.e.
carico termico radiativo trascurabile e velocità dell’aria maggiore di circa 23 m/s) le due grandezze possono considerarsi praticamente coincidenti. E’
evidente che tale approssimazione comporta comunque un aumento
dell’incertezza di misura e che solo una taratura può garantire misure
accurate. A testimonianza della complessità dell’argomento basti pensare
57
che più di 1000 lavori teorici e sperimentali sugli psicrometri sono stati
recentemente censiti.
Differenti tipi di psicrometri sono disponibili sul mercato; essi possono
essere classificati in due categorie: psicrometri a ventilazione naturale e a
ventilazione forzata. Questa distinzione non è però sufficiente a
caratterizzare i diversi tipi di psicrometri che si differenziano oltre che per il
metodo di ventilazione, per la direzione del flusso (assiale o trasversale), per
la schermatura dei termometri (doppia o singola), per il tipo di termometro
(a bulbo, a termocoppia, a resistenza), per il tipo di garza (a tessuto, a
micropori, ecc.), per l’alimentazione dell’acqua (continua o discontinua).
Tutti questi fattori possono influenzare la caratteristica dello strumento e
quindi la costante psicrometrica. Infatti numerosi studi teorici e
sperimentali hanno dimostrato che quest’ultima non è una costante ma
dipende oltre che dallo stato termodinamico, dal tipo di psicrometro. August,
Maxwell e Arnold hanno posto le basi della moderna teoria psicrometrica.
Threlkeld, Harrison, Kusuda, Wylie, e
Sonntag
hanno
invece
approfondito la teoria dello strumento contribuendo alla messa a punto
dell’attuale modello teorico di funzionamento dello strumento. In
particolare Wylie, modificando la teoria di Kusuda, ha messo a punto un
modello su uno psicrometro standard a flusso trasversale ventilato. La teoria
di Wylie però sebbene verificata sperimentalmente su uno psicrometro a
flusso assiale non risulta generalizzabile come dimostrano gli studi
sperimentali di Sonntag.
Lo psicrometro, sebbene la complessità del suo principio di misura, è
particolarmente semplice dal punto di vista costruttivo. Esso é costituito da
una coppia di sensori di temperatura, dove il bulbo di uno é mantenuto
asciutto mentre l'altro, rivestito di un manicotto, é impregnato di acqua
in fase liquida (Figura3-6).
Solitamente tale manicotto é costituito da una garza di cotone, ma esistono
come accennato realizzazioni in altri tessuti o materiali ceramici porosi. Ai
fini della misura risulta essenziale che il manicotto sia permanentemente
impregnato d'acqua; ciò é reso possibile per strumenti discontinui
bagnandoli di volta in volta, mentre per psicrometri a funzionamento
58
continuo lo strumento é corredato da un serbatoio di alimentazione. La
maggior parte degli psicrometri tradizionali utilizza termometri a
riempimento a mercurio o ad alcool, ma le realizzazioni più moderne
presentano termometri ad uscita elettrica che consentono una più semplice
interfacciabilità ad unità di elaborazione dati con calcolo e visualizzazione
diretta dell’umidità relativa. La coppia di termometri è generalmente
inserita in uno o due condotti metallici che fungono da schermi radiativi.
L’aria umida viene forzata a lambire il termometro da un sistema manuale di
rotazione (e.g. sling psicrometer) oppure da una ventola (e.g. aspirated
psicrometer).
Il funzionamento dello psicrometro é descritto dalla relazione di Ferrel
semplificata:
da cui è facile ricavare le relazioni di misura dell’umidità relativa e del titolo:
dove A è la cosiddetta costante psicrometrica; ts (Ts) e tu (Tu) sono la
temperatura di bulbo asciutto e di bulbo umido rispettivamente in °C (K); xs,
Ts e xs, Tu sono le frazioni molari nelle condizioni di saturazione alla
temperatura ts e tu; x è la
frazione molare dell’aria umida; φ è l’umidità relativa dell’aria umida; w il
titolo dell’aria umida.
La relazione di Ferrel su riportata è evidentemente una semplificazione
dell’equazione di bilancio dell’energia effettuata sul termometro a bulbo
umido:
59
Dove Qc rappresenta il flusso convettivo tra aria e termometro, Qr il flusso
radiativo tra termometro e schermo radiativo, Qk il flusso conduttivo
lungo lo stelo del sensore (questo può essere in prima approssimazione
trascurato) e QM il flusso di calore associato all’evaporazione dell’acqua dal
termometro a bulbo umido ed infine Qv il flusso di calore associato al
flusso di acqua liquida dal serbatoio.
Figura 3.6 Schema costruttivo e trasformazione termodinamica di uno psicrometro.
Il valore della costante psicrometrica adottato dal WMO nel 1990 per un
igrometro Assmann è di 6.53*10-4 per acqua in fase liquida e di 5.75*10-4
acqua in fase solida. Tali valori sono stati calcolati da Sontag sulla base di
numerose prove sperimentali di diversi sperimentatori.
Il campo di misura degli psicrometri generalmente varia all'incirca tra il
10% ed il 100% in un campo di temperatura solitamente compreso tra 5 e
60 °C. Esistono tuttavia versioni di psicrometri che possono funzionare
anche al di sotto dello 0°C su film di ghiaccio e a valori di umidità ridotti. Il
tempo di risposta é funzione della velocità dell’aria e tipicamente dell'ordine
di qualche minuto per velocità dell’aria di circa 3 m/s.
60
L’incertezza di misura è generalmente compresa tra il ±3-5%UR, anche se
per applicazioni di laboratorio esistono realizzazioni più precise (±1-2%UR).
Anche in un sistema di misura correttamente progettato, é necessario tenere
in conto fattori come la contaminazione del manicotto impregnato d'acqua, o
una velocità dell'aria diversa da quella progettuale. Per tale motivo è
indispensabile quindi pulire periodicamente lo psicrometro (ed in
particolare la garza e lo schermo radiativo), utilizzare acqua distillata (ed
attendere un tempo sufficiente all’equilibrio termico di
questa
con
l’ambiente), effettuare la misura minimizzando i carichi radiativi e le
variazioni della velocità da quella nominale, tenere in debito conto delle
variazioni della costante psicrometrica con la temperatura e soprattutto
delle variazioni dell’umidità relativa con la pressione.
3.2.3 Igrometri a sali saturi
Il sensore di umidità a sali saturi in questione, "satured salt dew point
sensor", é molto simile all'elemento del Dunmore descritto in precedenza,
pur sfruttando un principio di misura alquanto diverso. Il funzionamento del
sensore é basato sul principio che la pressione di vapore di una soluzione
salina è inferiore a quella dell’acqua. In particolare, essa aumenta al
crescere
della
temperatura
e
diminuisce
all'aumentare
della
concentrazione del sale disciolto. Quando il vapor d'acqua presente in un
campione di aria umida condensa su di un sale igroscopico forma, sulla
superficie di quest'ultimo, un sottile strato di soluzione satura. Per quanto
detto, la pressione di vapore di questo strato é inferiore a quella del vapor
dell'acqua contenuta nell'aria circostante. Se la soluzione salina viene
riscaldata, la pressione di vapore dello soluzione aumenta fino ad eguagliare
quella del vapore d’acqua ed i fenomeni di condensazione ed evaporazione
raggiungono una condizione di equilibrio. La temperatura della soluzione
corrispondente a tale condizione é direttamente correlata alla temperatura
di rugiada dell'aria.
Dal punto di vista costruttivo, l'igrometro é costituito da un tubo su cui é
alloggiato un manicotto absorbente impregnato da una soluzione salina di
61
LiCl al 5% e ricoperto da due elettrodi (Figura 3-7). Alimentando il circuito
elettrico in c.a., in modo da evitare la polarizzazione degli elettrodi,
l'avvolgimento si riscalda per effetto Joule.
Il campo di misura in termini di temperatura di rugiada è compreso tra 40°C e 60°C in un ampio campo di impiego in temperatura dell’aria.
Figura 3.7 Schema costruttivo e trasformazione termodinamica di un igrometro a sali saturi.
L’incertezza di misura é compresa tra ± 0.5 e ± 1.5 °C, mentre, il tempo di
risposta è compreso tra i 10 e i 180 s ad una velocità dell'aria incidente di
circa 0.5÷2 m/s . Il principale vantaggio dei sensori a sali saturi, rispetto a
tutti gli altri a condensazione, é dovuto al fatto di poter misurare la
temperatura di rugiada riscaldando
l'elemento
sensibile.
Un
piuttosto
che
raffreddando
ulteriore vantaggio rispetto agli altri sensori
62
elettrici é la scarsa dipendenza dalla contaminazione superficiale
rinnovando periodicamente il LiCl. Inoltre in termini di rapporto
costo/prestazioni i sensori a sali saturi si presentano più vantaggiosi
rispetto agli igrometri a condensazione e ad elettrolisi.
La principale limitazione di questo tipo di sensore é dovuta all'impossibilità
di utilizzo quando la pressione parziale del vapore dell’aria umida é inferiore
alla pressione di vapore della soluzione di LiCl. Ciò evidentemente limita
verso il basso il campo di misura dello strumento (UR%>11%). Nell'utilizzo
dei sensori a sali saturi bisogna prestare particolare attenzione alla velocità
dell'aria ed alla presenza di impurità superficiali. Infatti, una velocità
maggiore di quella consigliata dal costruttore comporta generalmente un
aumento
dello
scambio
termico
convettivo
ed
un
aumento
dell'evaporazione; ciò determina un valore della temperatura misurata più
bassa di quella teorica. Al contrario la presenza di impurità
generalmente,
un
ritardo
nell'evaporazione
del
comporta,
vapore assorbito e
quindi una temperatura misurata maggiore di quella teorica.
3.2.4 Igrometri elettrolitici
Gli igrometri elettrolitici, talvolta anche denominati igrometri coulombmetrici, sono specificamente utilizzati per misure di aria umida con bassi
contenuti di vapor d'acqua.
Una portata di aria umida, opportunamente controllata, viene inviata alla
cella sensibile essiccante che assorbe completamente il contenuto di acqua
del campione. Applicando ai capi dei due elettrodi una differenza di
potenziale si può osservare l'elettrolisi dell'acqua adsorbita dal film di P2O5
in ossigeno ed idrogeno.
La misura della corrente richiesta é direttamente proporzionale al numero
di molecole d'acqua dissociate, nella misura di due elettroni per ogni
molecola d'acqua.
Un'ulteriore misura della portata dell'aria e della temperatura permette di
realizzare una misura indiretta dell’umidità.
63
Il sensore (Figura 3-8) é costituito da un avvolgimento bifilare di elettrodi
inerti (generalmente in platino) posto sulla superficie interna di un
capillare di vetro o teflon rivestito da un film igroscopico costituito da
pentossido di fosforo, P2O5, parzialmente idrato.
Il sensore presenta un campo di misura compreso tra 0.1 e 1000 ppmv, con
un ristretto campo di impiego in temperatura 0 – 40°C, un’incertezza di
misura superiore a +/- 5% V.L. ed un tempo di risposta di circa 1 min.
L'incertezza sulla misura dell'umidità é evidentemente influenzata dalla
incertezza della misura della portata di aria.
Tali sensori sono utilizzabili per la maggior parte dei gas inerti, organici ed
inorganici, ma temono la presenza di sostanze che possono reagire con il
P2O5 (ammina, ammoniaca, alcool, ecc.) o che siano comunque corrosive
(cloro, ecc.). Deve inoltre essere evitato l'uso in presenza di idrocarburi
insaturi che possono occludere la cella formando polimeri.
Il principale vincolo dei sensori elettrolitici é costituito dall'elevata
sensibilità al contenuto di idrogeno e di ossigeno nel campione. Infatti, un
errore tipico di tali strumenti é dovuto alla ricombinazione di idrogeno ed
ossigeno in acqua ed il successivo riassorbimento di questa. Per limitare
questi effetti sono stati apportati nel tempo alcuni accorgimenti, quali ad
esempio, la soluzione di avvolgere i due elettrodi all'esterno del capillare
invece che all'interno, evitando così i suddetti fenomeni di occlusione.
In questo caso il gas lambisce esternamente il capillare in uno spazio
anulare.
3.2.5 Altri sensori indiretti
Come per i sensori diretti esistono numerosi altri sensori indiretti che, pur
non trovando ancora una larga diffusione, sono stati utilizzati anche in
campo industriale o di laboratorio. Si pensi ad esempio agli igrometri
condensazione diversi da quelli a rilevazione ottica come quelli a rilevazione
capacitiva, resistiva in frequenza, gli igrometri a condensazione con
variazione di pressione, gli igrometri a condensazione ad iniezione d'acqua.
64
Gli igrometri a condensazione a rilevazione capacitiva o a rilevazione
resistiva sono, in linea di principio, analoghi a quelli a specchio condensante,
ma presentano un sistema di rilevazione della condensa di tipo capacitivo o
resistivo. La condensazione del vapor d'acqua sulla superficie sensibile
causa infatti sia una variazione della capacità sia un aumento del valore della
conducibilità elettrica superficiale. Con tali sensori é possibile misurare
temperature di rugiada in campi molto ampi e con un'incertezza di misura
variabile tra ± 0.5 e ± 1.0 °C. Il costo del sensore risulta inoltre notevolmente
ridotto.
3.3 Criteri di scelta degli strumenti di misura
La classificazione sopra riportata, unita alla conoscenza specifica delle
diverse metodologie di misura, può essere di grande aiuto nella scelta del
sensore. Infatti, a seconda dell'applicazione, é generalmente necessario
determinare o un
parametro assoluto (processi di essiccazione, pesatura, distillazione, ecc.) o
uno
relativo
(benessere
termoigrometrico,
industria
cartaria,
agroalimentare, ecc).
Una oculata scelta del dispositivo di misura più idoneo non può prescindere
da fattori metrologici ed impiantistici, quali l'incertezza, il campo d'impiego
in temperatura, il tempo di risposta e la modalità di installazione.
A tale scopo in Tabella 3-1 sono riportate sinteticamente le caratteristiche
metrologiche di funzionamento e di installazione relative ai singoli principi
di misura discussi in dettaglio nei precedenti paragrafi. Un’analisi
semplicistica della tabella può però condurre a scelte erronee essendo ad
esempio l’incertezza generalmente funzione sia del tenore d'umidità, che
della temperatura di impiego; é, quindi, sempre necessario tenere in debito
conto di tutte le caratteristiche del sensore.
Per ciò che concerne l’incertezza di misura non sempre il confronto tra le
diverse tecniche di misura è immediato, specie tra strumenti diretti ed
indiretti. Infatti nella stima dell’incertezza, è sempre necessario tener conto
65
di tutte le incertezze che concorrono alla misurazione (e quindi nel caso di
una misura indiretta sempre l’incertezza nella misura della temperatura e
talvolta l’incertezza nella misura di pressione) e, ovviamente, della
sensibilità a ciascun parametro di misura (si noti che la sensibilità in
generale può cambiare al variare delle condizioni di misura e ciò rende
ancor più complessa la valutazione).
In generale, anche alla luce della propagazione delle incertezze nelle misure
indirette, é consigliabile una misura diretta del parametro termoigrometrico
di interesse. Tuttavia, una misura diretta di un parametro relativo
(tipicamente l’umidità relativa), spesso è di difficile realizzazione con
incertezze accettabili, specie agli estremi del campo di misura (valori
inferiori al 5÷10%UR o superiori al 95%UR) a causa delle limitazioni
tecnologiche connesse ai sensori relativi.
In particolare, per bassi valori dell’umidità relativa, é preferibile utilizzare
sensori a condensazione o elettrolitici che in tale campo di misura sono in
grado di apprezzare concentrazioni di vapor d'acqua anche di poche ppm.
Per valori prossimi alla saturazione, invece, è consigliabile l'uso di sensori a
condensazione o di psicrometri.
Considerazioni impiantistiche quali la modalità di installazione, il rapporto
costi/prestazioni, possono, per contro, suggerire l'utilizzo di sensori relativi
tipicamente meno complessi e costosi di quelli assoluti, anche dove sarebbe
necessaria la misura di un parametro assoluto. Inoltre per la maggior parte
dei sensori sussistono particolari limitazioni, quali: la contaminazione
superficiale, l'incompatibilità fisica in ambienti severi o l'incompatibilità
chimica con alcuni composti, il controllo del flusso, la sensibilità a particolari
grandezze d'influenza. E’ necessario dunque verificare caso per caso
l’applicabilità del metodo di misura.
Particolare importanza riveste infine il tipo di montaggio caratteristico della
metodologia utilizzata. Le misure di umidità, infatti, possono effettuarsi,
a seconda dei casi, sia direttamente nell’ambiente di misura, sia immergendo
la sola parte sensibile, sia prelevando dall’ambiente di misura un campione
d’aria umida. Nel caso di misura in "ambiente" il sensore viene collocato
66
direttamente nell'ambiente
di
misura;
nel
caso
di
misura
ad
“immersione” solo la parte sensibile del sensore viene collocata all’interno
dell’ambiente di misura, posizionando così l’elettronica (nella maggior parte
dei casi il trasmettitore) in un ambiente meno severo; nel caso infine di
misura con
"prelevamento" viene prelevato dall’ambiente di misura un
opportuno campione d’aria umida e trasportato mediante un condotto al
sensore. E' bene considerare che in quest'ultima situazione devono
essere considerate le possibili variazioni dello stato termodinamico
dell'aria umida durante il passaggio nei condotti di prelievo, causate, ad
esempio, da fenomeni di condensazione o di assorbimento delle pareti. In
tale evenienza il campione prelevato é caratterizzato da un tasso d'umidità
profondamente diverso da quello originario.
Dal punto di vista delle prestazioni bisogna, infine, sottolineare la scarsa
idoneità dei sensori fortemente intrusivi alle misure in ambienti di
dimensioni ridotte, dove forti scambi di massa e di energia termica non
possono essere tollerati, senza la conseguente alterazione delle condizioni di
misura.
Il tempo di risposta dei sensori di umidità infine può assumere un ruolo
chiave nella scelta del sensore in tutte quelle condizioni in cui il processo da
monitorare risulta non stazionario. In tal caso è necessario scegliere un
sensore che presenta un tempo di risposta inferiore al tempo caratteristico
di evoluzione del processo misurato. Nel caso specifico il tempo di risposta
può variare da pochi secondi a diversi minuti in funzione sia delle
caratteristiche del sensore che del moto relativo aria-sensore.
67
Figura 3.8 Caratteristiche metrologiche tipiche dei sensori di umidità dell'aria industriali
3.4 Il telerilevamento
Ad oggi uno dei metodi più utilizzati, che è risultato necessario anche per la
produzione dei dati utilizzati nel nostro lavoro, al fine di ottenere misurazioni
di umidità è il telerilevamento.
Con il termine telerilevamento, corrispondente all’inglese remote sensing, si
indica l’acquisizione di informazioni su un oggetto mediante un sensore non
in contatto con esso.
68
Negli ultimi anni “l’oggetto” si è venuto sempre più nettamente identificando
con l’ambiente terrestre e nel linguaggio corrente remote sensing
corrisponde generalmente al telerilevamento ambientale.
Per il loro modo di operare a distanza, i sistemi di telerilevamento devono
sfruttare un meccanismo propagativo.
L’informazione è quindi prodotta, oltre ad essere trasportata, da onde, che in
molti casi sono elettromagnetiche, e in taluni “acustiche”. L’individuazione e
la misura delle caratteristiche dell’oggetto osservato si basano sulle proprietà
possedute dal campo elettromagnetico (o acustico) che ha interagito,
mediante emissione, diffusione, riflessione o propagazione, con l’oggetto
stesso.
Nel telerilevamento si individuano quindi delle quantità elettromagnetiche
primarie, a partire dalle quali si procede a determinare i parametri
dell’oggetto osservato.
La caratteristica essenziale dei sistemi di telerilevamento è la capacità di
osservare, eventualmente in modo cadenzato, aree estese dell’ambiente
terrestre, sfruttando anche la mobilità della piattaforma su cui è installato il
sensore. Questo modo di operare presenta vantaggi sostanziali, in quanto, da
una parte consente l’osservazione sia su scala globale sia su aree di difficile
accessibilità fisica, e, dall’altra, tende a ridurre i costi di campionamento e
raccolta dati effettuati con tecniche convenzionali. In alcuni casi, alla
riduzione dei costi contribuisce anche il fatto che le quantità primarie
misurate da uno stesso sistema di telerilevamento possono essere utilizzate
nella produzione di dati che trovano applicazione in settori diversi.
Grazie alle sue potenzialità e caratteristiche, il telerilevamento ha subito un
forte sviluppo, soprattutto nell’ultima decade, sia nel contesto sperimentale,
sia in quello operativo.
In questi anni si sta verificando non soltanto un forte impulso alle attività più
squisitamente scientifiche, quali quelle pianificate nei programmi di
osservazione delle modifiche bioclimatiche globali, ma anche un significativo
sviluppo della commercializzazione dei prodotti, grazie alla maturità
raggiunta in alcuni campi applicativi.
69
L’uso scientifico, operazionale e commerciale del telerilevamento riguarda
svariati settori ed è spesso difficile isolare ed identificare le varie categorie di
utenti, sia per gli stretti legami tra di esse sia per le modifiche che
intervengono anche in tempi relativamente brevi. Un elenco di larga massima
dei campi in cui trovano o presumibilmente troveranno applicazione i sistemi
di telerilevamento è il seguente:
 studio e monitoraggio delle variazioni del clima e della
composizione atmosferica;
 previsioni meteorologiche;
 studio e monitoraggio del livello e della circolazione dei mari;
 monitoraggio del moto ondoso e dei ghiacci marini;
 monitoraggio delle zone costiere;
 monitoraggio del suolo e dei corpi idrici e delle loro variazioni,
incluso l’inquinamento;
 monitoraggio della produttività vegetale e dei processi
biologici superficiali;
 monitoraggio e gestione delle risorse non rinnovabili;
 determinazione della morfologia e dinamica della terra solida;
 monitoraggio e riduzione delle conseguenze delle calamità
naturali.
I molteplici campi di applicazione del telerilevamento sono un indicazione
della complessità dell’ambiente terrestre, nel quale la presenza di
un’atmosfera e di acque di particolari composizioni hanno permesso lo
sviluppo di articolate forme di vita. L’atmosfera, le acque e la terra hanno
interagito nel corso della storia, contribuendo a modifiche climatiche alle
quali le diverse forme di vita si sono adattate.
Attualmente una delle forme di vita, la specie umana, ha sviluppato la
capacità di produrre essa stessa modifiche globali dell’ambiente terrestre in
modi e secondo meccanismi che sono poco conosciuti e solo parzialmente
compresi.
70
Mentre in alcuni casi, come all’impoverimento delle risorse energetiche
minerali, gli effetti dell’attività umana sono abbastanza evidenti, in altri, come
nell’alterazione della composizione atmosferica, i processi sono difficili da
misurare e le loro conseguenze di difficile valutazione.
Inoltre, gli effetti dei cambiamenti prodotti dall’uomo non sono facilmente
separabili da quelli che si sono avuti e si manifestano in natura su tempi
dell’ordine delle decine di anni o di secoli.
Si ha la consapevolezza che i mari, l’atmosfera e le regioni polari esercitano
influenze sul clima in maniera strettamente interconnessa e che le forme di
vita terrestre e marine influenzano anch’esse sia il clima sia i cicli
fondamentali, tuttavia i meccanismi che determinano lo stato del sistema
globale “Terra” sfuggono attualmente in larga parte.
In anni recenti, la comunità internazionale ha individuato e va configurando
una serie di azioni tese all’osservazione e alla modellazione dell’ambiente. In
questo ambito, l’ottenimento di molti dati fondamentali è affidato al
telerilevamento che consente, come si è detto, l’osservazione su scala globale
e a lungo termine.
3.4.1 Uso dello spettro elettromagnetico nel telerilevamento
Come già accennato il telerilevamento sfrutta l’interazione tra campo
elettromagnetico (o, talvolta, onda acustica) e il mezzo sotto osservazione. A
seconda della frequenza su cui opera il sistema, intervengono meccanismi
diversi, ciascuno dei quali produce effetti determinati sostanzialmente da un
particolare parametro dell’oggetto.
Quindi la scelta della frequenza di operazione è legata innanzi tutto al tipo di
oggetto osservato e al tipo di informazione che si intende ottenere. Tale
scelta deve peraltro tener conto delle proprietà trasmissive dei mezzi
attraversati dalle onde elettromagnetiche.
In particolare, tra la superficie terrestre e un sensore su piattaforma aerea
spaziale è interposta l’atmosfera, che degrada il processo di acquisizione
delle informazioni a causa dell’attenuazione, della diffusione (scattering) e
dell’emissione, tutte dipendenti dalla frequenza, che essa introduce.
71
L’allocazione delle bande di frequenza per i diversi servizi e, naturalmente, i
limiti tecnologici, sono ulteriori fattori che limitano la scelta delle lunghezze
d’onda su cui far operare il sensore.
Lo spettro elettromagnetico è suddiviso in bande che, convenzionalmente,
hanno i seguenti limiti approssimati in termini di lunghezza d’onda λ:
a) visibile (VIS): 0,4-0,7 μm;
b) infrarosso vicino (NIR): 0,7- ~2 μm
c) infrarosso termico (TIR): ~4-20 μm
d) lontano infrarosso (FIR): ~20-300 μm
e) microonde: ~1 mm -~1 m
Si noti che la banda delimitata dalle lunghezze d’onda di 300 μm e di 1 mm
viene talvolta denominata onde submillimetriche. Inoltre, la banda qui
indicata come “microonde”, a sua volta, è spesso distinta in microonde, con
limiti di frequenza tra ~300 MHz (λ= 1m) e ~30 GHz (λ= 1cm), e onde
millimetriche, per lunghezze d’onda tra ~1 mm (300 GHz) e ~1 cm.
L’attenuazione introdotta dall’atmosfera è un elemento critico nella scelta
delle frequenze dei sistemi di telerilevamento per l’osservazione della
superficie terra.
Per quanto riguarda l’influenza della frequenza sulle prestazioni dei sensori,
è opportuno considerare che:
 a differenza dei sistemi operanti nel visibile e nell’infrarosso vicino,
che utilizzano la radiazione solare, quelli operanti nell’infrarosso
termico e a microonde acquisiscono informazioni anche nelle ore
notturne, dato che sfruttano l’emissione termica;
 l’operatività dei sistemi che usano il visibile e l’infrarosso è fortemente
ridotta dalla presenza di nubi o nebbia, mentre i dati acquisiti a
microonde sono generalmente inutilizzabili solo in caso di forte
pioggia;
72
 per effetto della dissipazione, la profondità di penetrazione di un’onda
elettromagnetica in un mezzo naturale solido è dell’ordine della
lunghezza d’onda, per cui i sistemi a microonde consentono di
osservare il terreno sottostante la superficie ottica, generalmente fino
a diversi centimetri di profondità;
 l’acqua limpida è relativamente trasparente in una ristretta banda del
visibile, e solo i sistemi ottici sono in grado di effettuare misure al di
sotto della superficie di specchi d’acqua.
3.4.2. Classificazione dei sensori
Le tecniche di telerilevamento rientrano in due classi fondamentali: passive e
attive. Nella tecnica passiva viene misurata la radiazione elettromagnetica
emessa spontaneamente (per effetto “termico”) dall’oggetto o la parte di
radiazione solare che l’oggetto riflette, diffonde o assorbe.
Nel caso attivo, il sensore misura la parte di radiazione elettromagnetica o
acustica che esso stesso ha generato e che è stata riflessa o diffusa
dall’oggetto.
All’interno delle due classi, si possono suddividere ulteriormente i sensori a
seconda del tipo prevalente di informazione che forniscono e della banda di
frequenza su cui operano.
I sistemi passivi vengono generalmente definiti “radiometri” in qualsiasi
banda di frequenza. E’ da tener presente la differenza sostanziale che esiste
tra radiometri operanti nell’infrarosso termico o a microonde e quelli
nell’ottico o nell’infrarosso vicino.
I primi, come si è detto, misurano la radiazione elettromagnetica emessa
spontaneamente dal mezzo sotto osservazione nella rispettive bande di
frequenza, mentre i secondi misurano la frazione di radiazione solare riflessa
dalla terra o, nel caso di osservazioni al lembo, assorbita dalla zona di
atmosfera attraversata.
73
Il termine spettrometro, poco usato a microonde, indica un sensore che opera
simultaneamente a diverse lunghezze d’onda. Recentemente sono stati
sviluppati sensori iperspettrali, dotati di centinaia di canali.
I radiometri a scansione usano antenne mobili o a scansione elettronica per
esplorare zone estese dell’oggetto sotto osservazione, del quale producono
immagini (mappe bidimensionali). In questo caso potenze misurate a diversi
istanti corrispondono a diverse zone osservate, le cui dimensioni sono
determinate dalla lunghezza angolare del fascio d’antenna e dalla distanza tra
il sensore e il mezzo osservato.
Si noti che sono in corso di sviluppo radiometri a microonde ad antenna
sintetica, che sfruttano la tecnica interferometria per aumentare la
risoluzione angolare.
Le sonde radiometriche sono radiometri a più canali in grado di fornire profili
(generalmente andamenti in funzione della quota) delle quantità di interesse
attraverso opportune elaborazioni delle misure (tecniche di inversione).
Per quanto riguarda i sensori attivi, il lidar è la versione ottica del radar.
Gli altimetri sono radar (o lidar) su piattaforme spaziali o aeree dedicati a
misure molto precise della distanza tra il satellite e la superficie terrestre.
Anche gli scatterometri sono radar, dedicati a misure di potenza retrodiffusa,
mentre i SAR sono radar ad apertura sintetica che, mediante un opportuna
elaborazione delle misure di ampiezza e fase del campo elettromagnetico
ricevuto, generano immagini ad alta risoluzione spaziale.
Un radar può operare in configurazione monostatica, con l’antenna ricevente
coincidente con quella trasmittente o in modo bistatico, con l’antenna
ricevente in
posizione diversa dalla trasmittente. Per la sua maggiore
semplicità, la prima configurazione è nettamente la più usata, ma alcuni studi
indicano che radar bistatici potrebbero essere di grande utilità nel
telerilevamento.
Si noti chi i radiometri nel visibile e NIR sono in definitiva dei sistemi
bistatici.
Infine, le sonde acustiche utilizzano onde sonore in modo sostanzialmente
analogo al radar, o nel caso dei RASS (sonde radio acustiche), utilizzano
74
simultaneamente onde sonore ed elettromagnetiche delle quali sfruttano
l’interazione.
Introduciamo quindi un altro strumento importante per misurazioni
termodinamiche: il SODAR. Acronimo dell'espressione inglese SOnic
Detection And Ranging, il SODAR, è uno strumento meteorologico conosciuto
anche come Wind Profiler, che misura la diffusione delle onde sonore riflesse
dalle turbolenze atmosferiche.
I sistemi Sodar vengono usati per misurare la velocità del vento a varie
altezze sopra il livello del suolo (profilo del vento) e la struttura
termodinamica dello strato più basso dell'atmosfera. Essi sono simili ai radar
tranne per il fatto che per la rilevazione utilizzano segnali acustici anziché
segnali radio.
Tali strumenti vengono posti generalmente a terra, in luoghi silenziosi e
dotati di barriere fono-assorbenti.
Il SODAR emette un impulso acustico udibile (~2000 Hz) in 3 direzioni e
riceve il segnale molto debole retro-diffuso dalle disomogeneità delle
temperature nell’atmosfera.
In presenza di vento, le disomogeneità dell’aria si muovono ed il segnale
acustico retro-diffuso presenta uno spostamento “Doppler” nella frequenza,
simile a quello che percepisce il nostro orecchio tra l’avvicinarsi e
l’allontanarsi di un’auto in corsa. Il profilo verticale dell’intensità e della
direzione del vento è rilevato dallo studio dello spostamento “Doppler”
nell’onda acustica misurata nelle 3 direzioni fino a 600 -700 m dal suolo e con
una risoluzione variabile tra 10 e 20 m.
I SODAR di ultima generazione denominati phased array, sono facilmente
rilocabili e compatti ideali anche per temporanee campagne di misura e
risultano meglio gestibili rispetto ai precedenti SODAR del tipo triassiali, detti
anche "a trombone" per la loro tipica forma.
75
4
Il clima in Europa
Per i nostri studi è stato necessario ed utile introdurre ed approfondire
alcune informazioni circa la situazione climatica europea.
In quest’ottica riportiamo di seguito una presentazione per macroaree del
clima europeo.
L’Europa si colloca nella fascia temperata boreale, che si estende tra i 30° ed i
60° di latitudine e può essere suddivisa, nonostante la relativa ridotta
estensione areale, in quattro macroregioni climatiche dovute all’ampia
estensione in latitudine, la variegata morfologia, la distribuzione geografica
di mari e terre emerse e l’influenza di mari e correnti oceaniche.
Nel dettaglio, queste macroaree sono:
 Regione polare, caratterizzata da inverni lunghi e freddi ed estati brevi
con temperature che raramente superano i 10°C. Le precipitazioni
sono generalmente inferiori ai 250 mm/anno, ma per molti mesi il
suolo è ricoperto da coltri di neve.
 Regione atlantica, caratterizzata da inverni temperati ed estati fresche.
Le precipitazioni sono frequenti tutto l’anno.
 Regione continentale, caratterizzata da inverni lunghi e rigidi ed estati
brevi ma calde. L’escursione termica è molto forte e le precipitazioni
sono scarse. Il clima continentale si può a sua volta distinguere in:

Clima continentale temperato, mitigato dalla vicinanza
all’Oceano;

Clima continentale alpino, caratterizzato da inverni freddi,
estati brevi e fresche, piogge abbondanti, gelo e neve;
76
Clima continentale arido, con basse temperature ma

precipitazioni assenti.
 Regione mediterranea, caratterizzata da inverni miti ed estati calde.
In quest’area le precipitazioni sono concentrate in autunno e
primavera
nella parte
più a
nord,
mentre si
manifestano
principalmente in autunno ed inverno a latitudini inferiori (sud Italia,
Andalusia ecc.)
Figura 4.1 Macroregioni climatiche europee
4.1 I climi e le macro regioni europee
Per “clima”, nell’opinione pubblica, si intende l’andamento medio delle
condizioni del tempo (atmosferico) e dei fenomeni meteorologici in relazione
a caratteristiche geografiche, umane o naturalistiche di un certo territorio.
Storicamente, infatti, sono stati i geografi ed i naturalisti a studiare per primi
il clima come causa fondamentale della diversificazione degli ambienti locali
e territoriali osservati e come elemento di definizione e di classificazione
geografica e naturalistica.
77
In realtà, il clima è lo stato di equilibrio energetico tra il flusso totale di energia
entrante sul nostro pianeta, che è quasi totalmente l’energia solare, ed il flusso
totale di energia uscente dal nostro pianeta, che è in parte radiazione solare
riflessa dall’atmosfera, dal suolo e dalle nubi, ed in parte energia emessa o
irraggiata dalla terra nel suo insieme.
Il nostro pianeta è in pratica un’enorme macchina termica costituita dalle
seguenti componenti: atmosfera, oceano, biosfera, geosfera e criosfera.
Tali componenti interagiscono incessantemente fra loro scambiandosi flussi
di calore, flussi di energia e flussi di materia.
Le interazioni fra le componenti sono favorite da alcuni cicli fondamentali
che esistono in natura, tra cui i principali sono quello dell’acqua e quello del
carbonio ma non bisogna trascurare quello dell’azoto e di altri composti
minoritari tra cui lo zolfo e gli aerosol.
Figura 4.2 Clima: equilibrio energetico
Il clima viene quindi definito come l'insieme delle condizioni atmosferiche
(temperatura, umidità, pressione, venti) che caratterizzano una regione
geografica per lunghi periodi di tempo e ne determinano il tipo di
78
vegetazione, la flora e la fauna, influenzando anche le attività economiche
delle popolazioni che vi abitano le loro abitudini e la loro cultura.
Sono elementi climatici tutti quei fenomeni meteorologici tra loro interagenti
e considerati nei loro valori medi ottenuti attraverso osservazioni durante
numerosi anni.
I principali elementi climatici sono:
 INSOLAZIONE
L'insolazione è un elemento fondamentale del clima in quanto da
questo parametro dipendono tutti gli altri fenomeni atmosferici.
L'energia del sole che arriva nell'atmosfera viene in parte diffusa dalle
nubi e dalle molecole dei gas costituenti l'aria, in parte assorbita dal
vapore acqueo e dall'anidride carbonica, in parte arriva a terra e viene
di
nuovo
irradiata
nell'atmosfera.
L'insolazione
dipende
dall'inclinazione dei raggi solari e dal periodo di illuminazione diurna.

TEMPERATURA
Le isoterme rappresentano la distribuzione della temperatura sulla
superficie terrestre ed uniscono tutti i punti di egual temperatura
media a livello del mare cosi da eliminare l'influenza dell'altitudine.
Le isoterme possono essere mensili, annuali, stagionali; indicano come
la temperatura, seguendo l'andamento dell'insolazione, diminuisce
dall'Equatore ai Poli.
La zona più calda non è però quella Equatoriale, ma una zona
continentale più spostata verso il Tropico del Cancro.
Anche i poli del freddo non coincidono con quelli geografici.

PRESSIONE
Le variazioni di pressione provocano venti, precipitazioni, trombe
d'aria ecc. e tutto ciò incide sul clima.

UMIDITA'
L'umidità varia in continuazione con l'evaporazione e con le
precipitazioni. Le regioni più secche sono in genere quelle prive di
79
vegetazione e lontane dal mare. L'umidità decresce anche in base
all'altezza.

PRECIPITAZIONI
In meteorologia, con il termine precipitazioni (anche note
impropriamente idrometeore) si intendono tutti i fenomeni di
trasferimento di acqua allo stato liquido o solido dall'atmosfera al
suolo ovvero pioggia, neve, grandine, rugiada, brina ecc. che
rappresentano una fase del ciclo idrologico.
Particolare attenzione in meteorologia merita la neve.
Essa è una precipitazione atmosferica nella forma di acqua ghiacciata
cristallina che consiste in una moltitudine di minuscoli cristalli di
ghiaccio tutti aventi di base una simmetria esagonale e spesso anche
una geometria frattale, ma ognuno di tipo diverso e spesso aggregati
tra loro in maniera casuale a formare fiocchi di neve.
Dal momento che è composta da piccole parti grezze è un materiale
granulare. Ha una struttura aperta ed è quindi soffice, a meno che non
sia sottoposta ad una pressione esterna. La disciplina che studia le
caratteristiche fisico-chimiche della neve in relazione all'ambiente è
la nivologia.
Le precipitazioni influenzano il clima in quanto fanno diminuire la
temperatura.
Si definiscono fattori climatici le condizioni che producono variazioni sugli
elementi del clima e si distinguono in:
 fattori zonali che agiscono con regolarità dall'equatore ai poli.
 fattori geografici che agiscono in modo diverso per ogni
località.
80
Sono fattori zonali:
 la latitudine, per cui dall'equatore ai poli diminuisce la
temperatura poiché l'energia solare che la superficie
terrestre riceve decresce;
 la circolazione generale atmosferica, che influisce
attraverso gli scambi di calore tra le regioni calde
intertropicali e le regioni più fredde delle medie e alte
latitudini.
Sono fattori geografici:

l'orografia,
 la distribuzione delle terre e dei mari,
 le correnti marine,
 la vegetazione
 l'attività umana.
Il clima è legato a molti elementi variabili ed è quindi soggetto a
classificazioni
che
possono
essere
considerate
soggettive
in
base
all'importanza data ai vari elementi.
La classificazione più seguita è quella proposta dallo studioso Koppen
all’inizio del XX secolo con alcune modifiche.
Questo sistema di classificazione dei climi è basato sulle differenze in termini
di temperatura e precipitazioni. Il suo fondamento consiste nell’osservazione
che l’effetto più evidente e diretto del clima è il tipo di vegetazione associato.
Ne risulta una suddivisione della Terra in cinque grandi aree climatiche,
ciascuna corrispondente all’area di distribuzione di una particolare categoria
di flora e quindi fauna.
Le
condizioni
climatiche
come
precedentemente
influenzate da diversi fattori naturali.
81
sottolineato
sono
Entrando nello specifico del caso europeo uno dei fattori più importanti è la
presenza della "corrente del Golfo" una corrente tropicale che proviene dal
Golfo del Messico ed attraversa l'oceano Atlantico.
Questa induce un innalzamento lieve ma determinante delle temperature in
tutta l'Europa occidentale che si affaccia sull'oceano, creando le condizioni
per un clima fresco-umido, condizioni che hanno determinato l'insediamento
umano e un'agricoltura ricca. Attualmente si percepisce un progressivo
spostamento della corrente del golfo per effetto del riscaldamento globale.
Questo è un problema importante perché rischia di cambiare le condizioni
climatiche di una parte dell'Europa. E non ne possiamo prevedere tutte le
conseguenze.
I climi e le grandi regioni europee sono:
 Clima e ambiente atlantico
 Clima e ambiente mediterraneo
 Clima e ambiente continentale (freddo, medio, arido)
 Clima e ambiente artico (regione polare e subpolare)
 Clima e ambiente alpino (regione alpina e delle montagne giovani)
4.1.1 Clima e ambiente Atlantico
Il clima atlantico è fortemente condizionato dal fattore marittimo.
Le temperature non scendono mai al di sotto dello zero grazie all’azione
mitigatrice dell'oceano e della "corrente del Golfo".
Le temperature fredde ma non rigide consentono un'agricoltura ricca e attività
di allevamento rigogliose potendo contare su grandi pascoli sempre verdi.
Il Bioma caratteristico dell’ambiente atlantico è la prateria, accompagnata da
una foresta di latifoglie che ad oggi è quasi scomparsa in seguito
all’insediamento delle attività umane.
82
Figura 4.3 La regione europea ed il clima atlantico
Figura 4.4 La prateria inglese presso Heatrow, Inghilterra
4.1.2 Clima e ambiente Mediterraneo
Il clima mediterraneo interessa tutta la parte meridionale dell'Europa e
soprattutto le coste.
Il Mediterraneo è un mare chiuso con un unico sbocco sull'oceano Atlantico
(lo stretto di Gibilterra), oltre ad uno “artificiale” sul mar Rosso (il canale di
Suez).
83
La una temperatura media delle acque mediterranee così come il livello di
salinità delle acque risulta più alta di quella oceanica.
Queste caratteristiche favoriscono sulle coste del mediterraneo livelli di
precipitazione molto inferiore a quelli oceanici.
Caratteristiche tipiche di quest’area sono quindi le temperature miti e le
scarse piogge, concentrate di solito nella stagione invernale. La stagione
estiva è calda e secca. Il caldo non è torrido perché mitigato dalle brezze
marine che spirano lungo le coste.
Il bioma di questo ambiente è la macchia mediterranea, caratterizzata da
arbusti e cespugli, spesso aromatici (mirto, rosmarino, salvia etc).
La macchia ha sostituito la foresta mediterranea sempreverde che un tempo
ricopriva le aree costiere ed oggi è scomparsa.
Figura 4.5 La regione europea e il clima mediterraneo
84
Figura 4.6 La macchia mediterranea in Sicilia
4.1.3 Clima e ambiente continentale
Il clima continentale occupa uno spazio considerevole all'interno del
territorio europeo e non può essere classificato in modo omogeneo ma va
suddiviso in tre sottoregioni: a clima continentale medio, a clima continentale
freddo ed a clima continentale arido.
La prima zona, quella a clima continentale medio, può considerarsi tipica
zona di transizione con altri climi. E’ una zona con caratteristiche continentali
quali escursioni termiche e temperature non estreme.
Interessa parte dell'Europa centrale e si apre nella pianura che dalla Francia
si estende verso est nella pianura sarmatica russa.
Più ci si allontana dal mare minore è la piovosità mentre le escursioni
termiche si fanno sempre più evidenti. Le caratteristiche tipiche di questo
clima sono le temperature rigide invernali e l’elevata piovosità, concentrate
di solito nella stagione estiva. Il caldo estivo è a volte afoso e non sempre
mitigato dalle brezze.
85
Figura 4.7 La regione europea e il clima continentale
Il bioma di questo ambiente è la foresta temperata, quasi del tutto scomparso
in natura a favore delle attività agrarie e industriali. In alcuni paesi ci sono
ancora grandi foreste ma sono solo una piccola parte della foresta che
ricopriva l'ambiente.
La zona a clima continentale freddo si trova in quella parte d'Europa che
dall'estremo nord percorre la penisola scandinava e la Russia settentrionale.
E' il territorio della foresta di conifere che prende il nome di taiga.
Questa zona risulta poco adatta all'insediamento umano ed è scarsamente
abitata.
86
Figura 4.8 La Taiga
l clima continentale arido è il territorio della steppa. Una vasta prateria
formata da erbe e qualche arbusto, caratterizzata da una forte aridità,
frequentata da una particolare quanto variegata fauna, adattata a questo
ambiente.
Figura 4.9 Steppa presso Volgograd
87
4.1.4 Clima e ambiente artico
In Europa la regione artica è un territorio che comprende l'alta penisola
scandinava e la Russia. Vengono associate a questo clima l'Islanda e le aree
alpine e di alta montagna del territorio europeo. I territori scandinavi e della
Russia si affacciano sul mare artico e sono completamente gelati per molti
mesi dell'anno. Le temperature sono molto rigide e l'insediamento umano è
raro e difficoltoso.
Il bioma locale è la tundra.
In questi luoghi il terreno è gelato per molti mesi e viene chiamato
permafrost. Esso si scongela in una breve stagione estiva, e il territorio
diventa un grande acquitrino caratterizzato da muschi, licheni e funghi.
ll territorio si trova sulla dorsale atlantica molto attiva dal punto di vista
tettonico. Eruzioni vulcaniche e fenomeni di vulcanismo secondario sono
diffusi e frequenti e non permettono l'insediamento all'interno dell'isola. A
queste latitudini è visibile il fenomeno dell'aurora polare, un fenomeno ottico
dell'atmosfera caratterizzato da bande luminose di vari colori.
Figura 4.10 La regione europea ed il clima artico
88
Figura 4.11 Aurora boreale nella regione artica
4.1.5 Clima dell'ambiente alpino
Le montagne europee hanno un clima di tipo continentale freddo che può
raggiungere addirittura i rigori del clima artico. Si tratta delle Alpi, dei
Carpazi, i Balcani, la Sierra Nevada e i Pirenei.
Queste montagne hanno in comune l'origine cenozoica e risultano abitate da
molti secoli. Le zone montuose hanno un clima variabile in base
all'esposizione al sole dei versanti e in relazione all'altitudine.
Figura 4.12 La regione europea ed il clima alpino e montano
89
Figura 4.13 Alpi Giulie, Friuli Venezia Giulia
Di seguito per completezza riportiamo una tabella relativa ai range medi di
umidità relativa annua e temperatura massima e minima per alcune tra le
principali città europee.
Figura 4.14 Range medi di umidità relativa per le città europee di riferimento
90
5
L’applicazione
Per gli scopi prefissati si è deciso di articolare il nostro lavoro in una serie di
analisi di diversa natura:
Nello specifico le elaborazioni svolte sono state:
 analisi temporale, confrontando l’andamento dell’umidità relativa
negli anni
 analisi spaziale, confrontando tra i 135 punti interni al perimetro
investigato
 analisi in quota, confrontando l’omogeneità dei dati alle superfici di
riferimento meteorologico considerate
Abbiamo quindi ritenuto necessario disporre di serie storiche di dati, inerenti
ai valori medi mensili di umidità relativa, che fossero il più lunghe possibile.
La ricerca si è rivelata difficoltosa, in quanto ostacolata da diversi fattori:
 Irreperibilità dei dati;
 Mancanza di serie storiche sufficientemente lunghe;
 Inadeguatezza e pessima qualità dei dati.
Le informazioni da noi cercate si riferiscono a valori di umidità relativa a
livello globale misurati a diverse quote di riferimento: 500 Hpa (~5500 m
s.l.m.), 700 Hpa (~3000 m s.l.m.), 850 Hpa (~1500 m s.l.m.) e 1000 Hpa (~0
m s.l.m.).
Queste quote sono state scelte in quanto coincidenti con il livello standard
delle superfici utilizzate in meteorologia per elaborare qualsiasi tipo di
prodotto e quindi facilmente collegabili con eventuali altri studi e teorie.
91
Inizialmente le nostre ricerche si sono rivolte ad enti italiani (ad es.
Aeronautica militare) constatando però un assoluta lacuna per quanto
concerne questo tipo di informazioni.
A questo punto abbiamo allargato il nostro campo di ricerca ad enti
internazionali focalizzando la nostra attenzione soprattutto su quelli
anglosassoni, tedeschi e americani.
La risposta alle nostre ricerche è arrivata una volta imbattuti nei dati prodotti
dal National Centers for Environmental Prediction (NCEP) e dal National
Center for Atmospheric Research” (NCAR), due tra i più importanti enti di
riferimento in termini di previsioni e analisi ambientali al mondo.
Figura 5.1 Simbolo CFSR, Reanalysis [1979 – 2010]
Una volta effettuata la registrazione al sito ed autenticatici, come studenti del
Politecnico di Milano, tramite il motore di ricerca interno al sito, abbiamo
effettuato una ricerca tra tutti i dati prodotti e disponibili al download
imponendo come parametro di ricerca un database che riportasse i dati
globali di umidità relativa misurati a diverse quote di riferimento.
Poste queste condizioni iniziali ci siamo imbattuti nella data collection
“Climate Forecast System Rianalisis (CFSR)”.
Il CFSR, sistema globale ad alta risoluzione, è stato progettato ed eseguito
considerando in modo congiunto i vari sistemi di atmosfera, oceano e terra
così da fornire una migliore e più completa stima dei campi di indagine.
92
La risoluzione atmosfera globale dei dati CFSR è ~ 38 km con 64 livelli che si
estendono dalla superficie a 0,26 HPa. La spaziatura globale della latitudine
per l’oceano è 0.25° all'equatore e si estende a 0.5° a livello globale, eccezion
fatta per i tropici.
Il modello globale della superficie terrestre considera 4 livelli del terreno
mentre il modello globale ghiaccio-mare ne valuta 3.
Per completare e migliorare l’attendibilità del CFSR sono state utilizzate le
più attendibili e aggiornate osservazioni in situ e satellitari.
Da questo database, contenente informazioni per un periodo di 31 anni dal
1979 al 2009, è stato possibile selezionare i dati di umidità relativa media
mensile.
Per mese sono riportate quattro misurazioni di umidità relativa coincidenti
con quelle medie misurate negli orari principali di osservazione sinottica
(00:00, 06:00, 12:00 e 18:00 UTC). Questo dato lo abbiamo ovviamente
scaricato per tutte e quattro le quote di riferimento adottate.
Figura 5.2 Schermata di selezione per intervallo temporale e superfici isobariche da scaricare
93
Oltre ai valori di umidità relativa questo database riporta numerose altre
informazioni.
Per completezza le elenchiamo di seguito: temperature dell’aria, albedo,
riscaldamento atmosferico, stabilità atmosferica, quantità/frequenza nubi,
presenza di acqua liquida/ghiaccio nelle nubi, temperatura del punto di
rugiada, entità evaporazione, altezza geopotenziale, onde gravitazionali,
flusso di calore, pressione idrostatica, spessore/estensione del ghiaccio,
tipologie di copertura del suolo, quantità di radiazione a onde lunghe,
quantità di radiazione a onde corte, temperatura massima / minima,
tipologia ed entità delle correnti oceaniche , temperatura potenziale, acqua
precipitabile, tasso di precipitazione, salinità, monitoraggio dei movimenti
dei ghiacci nel mare, altezza della superficie del mare, copertura nevosa, neve
precipitata, umidità /acqua contenuti del suolo, sublimazione, temperatura
dell'aria in superficie, entità venti in superficie, entità venti a quote superiori,
trend della temperatura, tipologie di specie vegetali al suolo.
Figura 5.3 Elenco da spuntare per selezionare le variabili da scaricare tra tutte quelle possibili
94
5.1 Visualizzazione e preparazione dato
Il dato scaricato necessitava di diverse manipolazioni per rispondere alle
nostre esigenze operative. Una volta completato il download dei dati è stato
in primis necessario individuare dei software adatti a visualizzare ed operare
in forma matriciale sui valori stessi oltre che in grado di rappresentarli
graficamente.
Abbiamo scaricato alcuni programmi suggeritici direttamente sul sito del
NCAR per l’interpretazione dei dati in formato netCDF.
Tra quelli proposti i migliori per le nostre finalità si sono rivelati Panoply,
un'applicazione multipiattaforma che riporta gli array geogrigliati in formato
netCDF ed un add-on, sviluppata appositamente per Excel, che ci ha
permesso di visualizzare ed elaborare in forma matriciale le informazioni.
Vista la pesantezza e la mole dei dati scaricati abbiamo ritenuto utile
concentrare le nostre analisi su una perimetro areale ridotto.
Da una scala globale siamo passati quindi ad una scala europea leggermente
allargata, individuando un perimetro di interesse con latitudine da 30°N a
70°N e longitudine da 30°O a 40°E.
Abbiamo scelto questo dominio spaziale in quanto, anche se considerare una
sola parte del globo potrebbe risultare arrischiato, la nostra scelta risultava
comunque di buona estensione e ben rappresentate di tutte le tipologie di
suolo.
Scegliere l’Italia, ad esempio, sarebbe stato possibile in quanto molto estesa
in latitudine ma avremmo riscontrato problemi a causa delle presenza delle
poche terre emerse in relazione al mare circostante; avremmo dunque avuto
poco materiale per il confronto.
Il passo arbitrariamente scelto tra una stazione di misura e la successiva è
stato di 5°,sia in latitudine che in longitudine, ottenendo così dati relativi a
135 stazioni per tutte e quattro le quote di nostro interesse.
Questa scelta è giustificata dal fatto che al fine di valutare e quantificare le
variazioni di umidità relativa, adottare passi spaziali eccessivamente piccoli
95
ci avrebbe portato ad investigare zone plausibilmente caratterizzate da
condizioni al suolo simili, rendendo inutile la ricerca di un qualsiasi legame
tra le caratteristiche al suolo e l’umidità.
Allo stesso modo, l’analisi avrebbe perso di senso se si fosse adottato un
passo eccessivo, riducendo eccessivamente il campione di dati utilizzati
esponendo le nostre analisi a conclusioni errate e superficiali.
Figura 5.4 Vertici del perimetro interessato dalle nostre analisi
Tra le 4 registrazioni giornaliere: 00:00, 06:00, 12:00 e 18:00 UTC abbiamo
arbitrariamente scelto di utilizzare solo quella di mezzogiorno.
Scelta giustificata dal fatto che i cambiamenti orari in termini di umidità
relativa non risultano utili ai fini della nostra analisi, essendo noi altresì
interessati ad ottenere e lavorare su misure medie mensili.
Siamo quindi giunti ad ottenere dei file divisi per quota che, per ogni punto di
latitudine e longitudine determinate, riportassero il valore medio mensile.
96
5.2 Elaborazioni
Il dato di partenza si presentava come un file unico con riportati, in sequenza
cronologica, tutti i mesi a partire dal gennaio del 1979.
Abbiamo quindi dovuto separare, per ogni quota, tutti i mesi, raccogliendoli
in una trentina di file annuali.
Una volta preparato il dato in termini spaziali e temporali è stato quindi
necessario raccogliere per ogni stazione di misura (ad es. il punto lat: 30;
long: 10) tutti i dati disponibili mese per mese (ad es. Tutti i Luglio del 1979
al 2010), divisi per quota (ad es. 700 Hpa), così da poter notare anche tramite
un grafico a linee,
quali fossero i trend e/o le ciclicità presenti
nell’andamento dell’umidità relativa con il passare degli anni, nella data
stazione e per la data mensilità.
Figura 5.5 Tabella e grafico dei valori di umidità relativa nel punto di quota 700 Hpa a latitudine 30°N, longitudine
10°E per tutti i mesi di Luglio del trentennio considerato
97
Per ogni mese abbiamo inoltre calcolato i valori estremi (massimo e minimo
dal 1979 al 2009), il valor medio e la deviazione standard.
I dati relativi ai vari mesi negli anni sono quindi stati rappresentati su un
grafico con in ascissa i vari anni ed in ordinata i valori di umidità relativa %.
Ogni grafico è stato completato riportando la linea di tendenza con relativa
equazione.
Mediando i dati dei dodici mesi per ogni singolo anno abbiamo prodotto una
serie di grafici, questa volta su scala annuale, che rappresentassero
l’andamento dell’umidità relativa negli anni riportando, anche in questo caso,
la linea di tendenza relativa.
A questi grafici si è nuovamente accoppiata la semplice analisi statistica
sopra riportata calcolando i valori estremi, il valor medio e la deviazione.
Figura 5.6 Tabella e grafico dei valori di umidità relativa media annua nel punto latitudine 50°N, longitudine 30°E
per la quota 700 Hpa, e relative analisi statistiche
Passo successivo è stato raccogliere su un unico file, per ogni quota e per ogni
stazione, tutti i valori del coefficiente angolare della linee di tendenza della
98
media annua effettuando anche su questa serie semplici considerazioni
statistiche stimando valore minimo, massimo e la media.
Figura 5.7 Valori del coefficiente angolare della linee di tendenza della media annua e relative analisi statistiche
Successivamente abbiamo catalogato i valori di pendenza in funzione dei sei
intervalli di seguito riportati, così da poterci rendere conto subito
visivamente quale fosse il trend dominante.
99
Figura 5.8 Scala falso colore per pendenze linee di tendenza
Il risultato è la seguente tabella:
Figura 5.9 Catalogazione dei valori di pendenza entro le sei macrocategorie
Per completare le nostre analisi preliminari, tramite Google Earth, per ogni
stazione della nostra analisi, abbiamo qualitativamente valutato la tipologia
di ambiente al suolo.
100
Per semplificare l’analisi abbiamo individuato sei macro categorie: pianura,
deserto, mare, rilievo, ghiaccio, altopiano.
Questa operazione è stata effettuata con l’obiettivo di investigare circa la
presenza di qualche correlazione tra la tipologia di elementi riscontrati al
suolo e l’andamento dell’umidità.
Di seguito riportiamo la tabella ottenuta:
Figura 5.10 Risultati dell’analisi della tipologia di paesaggio al suolo effettuata tramite Google Earth
Conoscere il tipo di ambiente al suolo in un determinata stazione ci è servito
anche per meglio comprendere, il livello di affidabilità dei dati utilizzati.
101
Ciò che abbiamo fatto è stato incrociare i valori, precedentemente calcolati di
umidità relativa media annua a 1000 Hpa con l’informazione appena
registrata circa la tipologia di ambiente al suolo, andando a verificare se ci
fosse o meno una corrispondenza tra il valore di umidità atteso ed i valori
ottenuti come media annua.
Primo caposaldo di questo confronto è stato che, in prossimità di specchi
d’acqua chiusi e mare, si sarebbero dovuti registrare dei picchi in termini di
umidità relativa.
Considerazione simili ma opposta è stata effettuata nel caso di situazione
desertica al suolo. In questo caso ovviamente ciò che ci si attende di trovare
sono dei picchi relativamente negativi di umidità.
Quest’analisi è stata effettuata internamente ai singoli livelli latitudinali,
ovvero tra stazioni poste a stessa latitudine.
Confrontare infatti la situazione dell’entroterra islandese con l’entroterra
nord-africano non avrebbe prodotto, secondo la nostra opinione, alcuna
considerazione valida.
A titolo d’esempio riportiamo di seguito alcune delle tabelle ottenute:
Figura 5.11a Verifica corrispondenza tra i valori di umidità relativa media annua a 1000 Hpa e l’informazione
registrata tramite Google per le stazioni a latitudine 50°N
102
Figura 5.11b Verifica corrispondenza tra i valori di umidità relativa media annua a 1000 Hpa e
l’informazione registrata tramite Google per le stazioni a latitudine 30°N
Si può immediatamente notare la buona corrispondenza tra ciò che ci si
attenderebbe in virtù della situazione al suolo ed i valori medi misurati,
corrispondenza che conferma la bontà del dato sin qui utilizzato.
103
6
Distribuzioni di probabilità
Essendo obiettivo del nostro lavoro un’analisi di dati distribuiti spazialmente
e temporalmente, non potevamo non avvalerci dell’aiuto della statistica per
guidare le nostre elaborazioni.
Primo passo delle nostre analisi è stato quello di provare a capire a quali
distribuzioni potessero appartenere i dati ricavati.
Introdurremo in questo capitolo quindi gli strumenti statistici, ovvero le
distribuzioni, che abbiamo preso in considerazioni per la nostra analisi, della
quale si parlerà nel capitolo successivo
6.1 La variabile casuale
La variabile aleatoria, detta anche casuale o stocastica, è una variabile che
può assumere determinazioni diverse in dipendenza del verificarsi di eventi
aleatori, che costituiscono una partizione di un insieme universo prefissato.
Ad una variabile aleatoria X è necessario associare la sua distribuzione o legge
di probabilità P(X), che assegna ad ogni sottoinsieme dei possibili valori di X
la probabilità che la variabile casuale X assuma valore in esso.
Per variabili aleatorie a valori reali, la legge di probabilità della variabile
casuale X è individuata univocamente dalla sua funzione di ripartizione o
funzione di distribuzione cumulativa, che è definita come la funzione che
associa a ciascun valore x la probabilità dell’evento “la variabile casuale X
assume valori minori o uguali ad x”. È quindi la funzione che ha per dominio
la retta reale e per immagine l’intervallo [0,1], definita da:
104
F(x) = P(X ≤ x) per - < x < +
La funzione di ripartizione è caratterizzata dalle seguenti proprietà:
 (x) è una funzione non decrescente di x (F(x)  0 per ogni x);
 Il limite per x che tende a +di F(x) è uguale a 1;
 Il limite per x che tende a -di F(x) è uguale a 0.
Inoltre, se la variabile casuale X è discreta – se l’insieme dei possibili valori è
finito o numerabile – è definita anche la funzione di probabilità, come una
funzione di variabile reale che assegna ad ogni valore possibile di X la
probabilità dell’evento elementare:
P(x) = P(X = x)
Se invece la variabile casuale X è continua – quando può assumere tutti gli
infiniti valori di R o di un suo intervallo [a,b] – viene definita anche la
funzione densità di probabilità f(x), data da:
f (x) = dF(x)/dx = F’(x)
Questa funzione gode delle seguenti proprietà:
 Associa sempre un valore non negativo a ciascun valore di X;
 L’area sottesa al grafico della funzione f(x) è pari a 1.
Per una variabile casuale continua X la probabilità P (c < X < d) è pari all’area
sottesa dalla funzione di densità f(x) nell’intervallo [c,d]. Se la variabile
casuale X ha una funzione di densità f(x) e c ≤ d allora la probabilità che X
assuma un valore compreso nell’intervallo [c,d] è :
105
6.2 Distribuzione normale o gaussiana
La distribuzione normale rappresenta il caso più importante e più noto tra
tutte le distribuzioni di probabilità, anche per il ruolo che detiene nel
teorema centrale del limite.
Infatti, secondo il teorema, la distribuzione gaussiana può fornire
un’approssimazione per la somma di molte variabili aleatorie indipendenti
X1, …, Xn aventi una stessa distribuzione.
Una variabile aleatoria X ha una distribuzione normale, con media µ e
varianza σ2, se la sua funzione di densità di probabilità è data da:
e se la sua funzione di ripartizione è data da:
1  X  

 
X
2
 
1
F(X )  
e 2
   2
Per indicare una variabile casuale X distribuita in modo Normale si usa in
genere la notazione N(µ, σ2).
106
Figura 6.1 Distribuzione Gaussiana
La variabile casuale gaussiana di tipo continuo, che assume valori compresi
tra - e +, descrive una curva simmetrica e campanulare, dotata delle
seguenti caratteristiche:
 La curva è perfettamente simmetrica all’ordinata massima Y, dove la
funzione f(X) raggiunge il punto di massimo, in corrispondenza di Xi =
µ. Ciò comporta che media, mediana e moda coincidano;
 La sua funzione di distribuzione f(X) è asintotica di X verso - e +;
tuttavia per Xi che dista più di 3σ2 dalla media, la distanza tra la curva
e l’asse delle X è estremamente ridotta;
 La curva è crescente per valori di X che vanno da - a µ ed è
decrescente per valori che vanno da µ a + ;
 µ determina la posizione della curva sull’asse delle ascisse;
 σ2 determina la maggiore o minore concentrazione della curva intorno
a µ;
 La curva presenta due punti di flesso in corrispondenza di µ + σ e µ –
σ, che rappresentano i punti in cui la curva da convessa diventa
concava.
107
Figura 6.2 Caratteristiche curva Gaussiana
Ogni distribuzione normale è univocamente definita dalla media e dalla
varianza, dette anche valori attesi della distribuzione E(X) e Var(X):
1  X  

 

 
1
E( X )     X
e 2
 2

2
dX
1  X  

 

 
1
Var ( X )   2   ( X   ) 2
e 2
 2

2
dX
Si può notare come al variare di media e varianza la curva subisca sia uno
spostamento sull’asse dell’ascissa, sia un appiattimento. Se la media viene
tenuta fissa e si fa variare solo la varianza, si osserva che la curva si
appiattisce quando la varianza cresce mentre diventa più appuntita quando
la varianza cala, mantenendo però costante il centro di gravitazione.
108
Figura 6.3 Cambiamenti della Gaussiana al variare di media e varianza
Un caso particolare della distribuzione gaussiana è la distribuzione normale
standardizzata o ridotta, convenzionalmente indicata con Z e così definita:
Z = (X – µ)/ σ
La
distribuzione
normale
standardizzata
presenta
le
medesime
caratteristiche di una distribuzione gaussiana; ciò che le distingue è il fatto
che nella distribuzione ridotta la media E(X) è nulla e la deviazione standard
VAR(X) è pari ad 1.
La funzione di densità della distribuzione normale standardizzata diventa:
1
1  2 z2
f ( z) 
e
2
L’importanza della distribuzione normale standardizzata sta nel fatto che le
probabilità corrispondenti alle superfici racchiuse dalla curva normale
possono essere calcolate e sono quindi state tabulate.
È inoltre noto che se un fenomeno si distribuisce secondo una distribuzione
normale standard si ha che:
 Circa il 68% di tutti i valori cade nell’intervallo che dista + σ e – σ dalla
media. P[µ – σ ≤ x ≤ µ + σ] = 0.6826
109
 Circa il 95% dei valori cade nell’intervallo che dista + 2σ e – 2σ dalla
media.
P[µ – 2σ ≤ x ≤ µ + 2σ] = 0.9544
 Circa il 99% dei valori cade nell’intervallo che dista + 3σ e – 3σ dalla
media.
P[µ – 2s ≤ x ≤ µ + 2s] = 0.9974
6.3 Distribuzione lognormale
La distribuzione lognormale è la distribuzione di probabilità di una variabile
aleatoria X il cui logaritmo logX segue una distribuzione normale.
La distribuzione lognormale è limitata inferiormente ed ha come limite zero.
La sua funzione di densità di probabilità è:
La sua funzione di ripartizione è:
Erf rappresenta la funzione degli errori, definita come:
110
I valori di media, moda, mediana e varianza sono rappresentati
rispettivamente da:
La distribuzione lognormale può fornire un’approssimazione per il prodotto
di molte variabili aleatorie indipendente X1,….,Xn aventi la medesima
distribuzione.
6.4 Distribuzione gamma
La distribuzione gamma è una distribuzione di probabilità continua definita
sui numeri reali non negativi.
Viene definita tramite una coppia di parametri chiamati fattore di forma α e
fattore di scala λ, entrambi positivi.
La sua funzione di ripartizione è data da:
dove (k, x) rappresenta la funzione gamma incompleta inferiore
regolarizzata.
La sua funzione di densità di probabilità è invece data da:
111
con Γ(k) funzione gamma.
La distribuzione gamma ammette come casi particolari sia l’esponenziale –
quando il fattore di forma a è pari ad 1 – sia la chi quadro – quando il fattore
di scala è pari alla metà dei dati a disposizione e il fattore di scala è pari a 2 –
ed è legata ad altre distribuzioni quali la Poisson e la Weibull. Si tratta quindi
di una famiglia di distribuzioni molto flessibile.
La proprietà fondamentale della distribuzione gamma è che, per ogni numero
intero positivo n, la funzione Γ(n) vale (n+1)!
La media e la varianza di una variabile casuale X avente distribuzione gamma
Γ(x, α, λ) sono così definite:
µ(x) = α λ
σ2 (x) = α λ 2.
Pertanto, se si conoscono media e varianza del campione casuale, si possono
ottenere i parametri della distribuzione gamma risolvendo le seguenti
espressioni:
α (x) = µ(x)2/ σ(x)2
λ(x) = σ(x)2/ µ(x)
112
7
Il software R
In questo capitolo analizzeremo i passaggi e le operazioni effettuati per
trovare eventuali corrispondenze tra elementi statistici e fattori fisici che
caratterizzano la climatologia dell’umidità nell’area in esame.
Per la nostra analisi abbiamo scelto R perché è un software libero, distribuito
con licenza GNU General Public Licence della Free Software Foundation, è
open source, ovvero ogni utente ha il permesso di accedere liberamente al suo
codice interno e di proporre modifiche ed infine perché è risultato intuitivo e
di facile utilizzo.
Ovviamente in fase di scelta si è tenuto conto anche dell’affidabilità del
software e del fatto che, per effetto di quanto detto prima, attorno ad R ruota
gran parte della comunità statistica mondiale (progetto R) che contribuisce a
correggere e revisionare il contributo di ognuno e a mantenere
costantemente aggiornato il software.
Unico problema che ne deriva è la vasta gamma di librerie contenenti le più
svariate tipologie di funzioni che, a seconda delle necessità, vanno scaricate
ed implementate alla versione base.
7.1 Importazione dei dati in R
Per svolgere le analisi statistiche necessarie al nostro scopo abbiamo
utilizzato il software statistico R, importando in esso i dati ottenuti attraverso
le operazioni svolte con un foglio di calcolo.
Questo software utilizza uno specifico linguaggio di programmazione,
chiamato anch’esso R e derivato dal linguaggio S.
113
I dati, in formato .xls, relativi alle serie temporali medie per un dato punto per
una data quota, sono stati ripuliti, e convertiti in formato .CSV; ovvero in “file
con valori separati da virgola”. In questo modo i dati sono stati resi
compatibili con l’ambiente R.
Successivamente e di volta in volta, attraverso la funzione read.table, sono
stati caricati i file interessati dalle nostre elaborazioni.
7.2 Adattamento ad una distribuzione nota
Per poter attuare un’analisi statistica su un certo insieme di dati si è dovuto
prima di tutto verificarne la conformità rispetto ad un determinato modello
teorico.
Per questo motivo, come primo passo, abbiamo deciso di cercare una
distribuzione statistica che rappresentasse opportunamente il fenomeno da
noi studiato.
Essendo il nostro scopo quello di rappresentare un campione di dati di
umidità annuale dal punto di vista medio, abbiamo tralasciato tutte quelle
distribuzioni di probabilità che si utilizzano per descrivere gli eventi rari ed
estremi, come le distribuzioni di Gumbel, di Weibull e di Poisson.
Tra le distribuzioni possibili, abbiamo deciso di provare con le seguenti:
 Distribuzione normale o gaussiana;

Distribuzione lognormale;

Distribuzione gamma.
Questa scelta è stata dettata da diverse motivazioni; la gaussiana perché
svolge un ruolo fondamentale nella statistica inferenziale e si adatta bene alla
rappresentazione di molti fenomeni, la lognormale in quanto importante
variante della distribuzione normale e perché, insieme alla gamma, da
letteratura, si adatta in modo soddisfacente alle serie idrologiche.
114
La distribuzione normale o gaussiana è una distribuzione di probabilità
continua che viene spesso usata come prima approssimazione nella
descrizione di variabili casuali a valori reali che tendono a concentrarsi
attorno ad un singolo valor medio.
La gaussiana dipende da due parametri, la media µ e la varianza σ2 e viene
indicata con il simbolo N(µ,σ2).
La distribuzione lognormale è la distribuzione di probabilità di una variabile
aleatoria, il cui logaritmo segue una distribuzione normale e viene indicata
col simbolo logN(µ,σ2).
La distribuzione gamma, indicata con Γ è una distribuzione di probabilità
continua, definita sui numeri reali non negativi [0, ∞). Viene descritta
attraverso due parametri, il fattore di forma o shape α ed il fattore di scala o
rate λ. Per determinati valori di α e λ, la distribuzione gamma si riduce ad una
distribuzione esponenziale ε(λ) o ad una distribuzione chi quadro χ2(n). Nello
specifico, si ha distribuzione esponenziale quando il fattore di forma è pari ad
1, mentre si ha distribuzione chi quadrato quando il fattore di forma è pari a
n/2 – con n numero dei dati osservati – e il fattore di scala è pari a 2.
Una volta scelte le funzioni con cui confrontare i dati è stato necessario
stimarne i parametri per poter applicare dei test statistici volti a saggiare la
bontà del modello.
Abbiamo quindi stimato il fattore di scala e di forma della sola distribuzione
gamma – in quanto i parametri delle altre distribuzioni venivano
automaticamente calcolati da R – con il metodo dei momenti.
Questo metodo consiste nell’eguagliare i momenti empirici calcolati con i dati
in nostro possesso con quelli teorici determinati in base alla funzione scelta e
al numero di parametri da stimare.
Abbiamo considerato il momento del primo ordine dall’origine – la media –
ed il momento centrale di secondo ordine – la varianza.
Abbiamo calcolato in R media e varianza delle nostre serie storiche, per quota
e per punto, attraverso le funzioni mean e var e abbiamo poi stimato i fattori
di forma e scala nel seguente modo:
115
α = (media dati osservati)2/ (varianza dati osservati)
λ = media dati osservati / varianza dati osservati
Fatto questo si è passati alla scelta del test statistico di controllo da applicare
alle nostre serie di dati.
Uno dei test più potenti ed utilizzati in letteratura, soprattutto per serie
storiche brevi, per verificare l’adattabilità dei dati alla gaussiana è il test di
Shapiro.
Nonostante ciò e nonostante la facilità di utilizzo di questo test in R,
implementato direttamente nel pacchetto base e al quale bisogna fornire
solamente il vettore dei dati, abbiamo scelto di applicare un altro test, quello
di Kolmogorov – Smirnov.
Ciò a causa della possibilità di utilizzare un unico test per testare il dato nei
confronti delle tre distribuzioni sopracitate.
7.2.1 Test di Komogorov – Smirnov
Il test di Kolmogorov – Smirnov è un test statistico non parametrico ideato
nei primi del novecento da Andrey Nikolaevich Kolmogorov e modificato nel
1939 da Vladimir Ivanovich Smirnov.
Per un singolo set di dati, come nel nostro caso, il test di Kolmogorov –
Smirnov One Sample Test viene utilizzato per testare se l’insieme dei dati
osservati è consistente con una data distribuzione standard.
Questo test assume come ipotesi nulla che la distribuzione da investigare
coincida con una distribuzione nota.
Viene calcolato il parametro D, come differenza tra ogni coppia di valori
osservato e teorico, misurando quindi la distanza tra le due distribuzioni.
Il parametro D viene utilizzato ai fini del calcolo del P – Value, definito come
la probabilità di ottenere un risultato pari o più estremo di quello osservato,
116
supposta vera l’ipotesi nulla. Indica quindi il minimo livello di significatività
per il quale l’ipotesi nulla viene rifiutata in favore dell’ipotesi alternativa.
Figura 7.1 Tabella valori P-value e significatività del test
7.2.1.1 Risultati del test di Kolmogorov – Smirnov
Dai risultati ottenuti dall’applicazione del test è apparso evidente che le
distribuzioni lognormale e gamma non si adattano assolutamente ai nostri
dati di umidità.
Qui di seguito sono riportati, come esempio, i risultati ottenuti per il punto di
longitudine 30° e di latitudine 20°, per la quota di riferimento di 1000 Hpa,
considerando che kl indica il test effettuato per la distribuzione lognormale e
kg quello per la distribuzione gamma.
> kl <- ks.test(1000 (20;30),"plnorm", mean=mean(y),sd=sd(y))
> kg <- ks.test(1000 (20;30),"pgamma", shape=1)
> kl
One-sample Kolmogorov-Smirnov test
data: 1000 (20;30)
D = 1, p-value < 2.2e-16
alternative hypothesis: two-sided
117
> kg
One-sample Kolmogorov-Smirnov test
data: 1000 (20;30)
D = 1, p-value < 2.2e-16
alternative hypothesis: two-sided
Da notare i valori del P – value: in entrambi i casi molto inferiore a qualsiasi
soglia di accettabilità.
Al contrario abbiamo verificato che la distribuzione normale si adatta, anche
se con diversi livelli di significatività, a circa il 90% dei nostri punti in
funzione delle quattro quote di riferimento.
Riportiamo qui di seguito un esempio di risultato ottenuto in R, con l che
indica il test effettuato per verificare l’attendibilità della distribuzione
normale.
Questa volta il test utilizzato è il test di Lilliefors, una variazione del test di
Kolmogorov – Smirnov, utilizzato appositamente per testare l'ipotesi nulla
che i dati provengono da una popolazione distribuita normalmente.
> l <-lillie.test(1000 (20;30))
>l
Lilliefors (Kolmogorov-Smirnov) normality test
data: 1000 (20;30)
D = 0.0949, p-value = 0.6779
In questo caso possiamo osservare il valore del P – value sia molto maggiore
di 0.1. ciò indica consistenza con l’ipotesi nulla
118
Abbiamo poi deciso di suddividere i risultati ottenuti per la distribuzione
normale, e per ogni quota, in quattro classi, in funzione del grado di
adattamento.
Ricordiamo che non tutte le stazioni considerate avevano un P – Value
maggiore di 0.1, quindi non tutte presentano dati consistenti con l’ipotesi
nulla.
Abbiamo cosi ottenuto un risultato per cui ad alcune serie di dati non siamo
riusciti ad attribuire nessuna delle tre distribuzioni prese in considerazione,
per tutti gli altri invece siamo riusciti ad attribuire una distribuzione normale
anche se con livelli di significatività differenti.
Nello specifico, abbiamo scelto tra le molteplici suddivisioni proposte in
letteratura la seguente:
Figura 7.3 Range di significatività
Abbiamo quindi realizzato una semplice statistica da cui è emerso che,
facendo riferimento alla quota relativa a 1000 Hpa:
 L’ 11% del campione, pari a 15 punti su 135, non si adatta alla
distribuzione normale;
 Il 28% del campione, pari a 37 punti su 135, si adatta alla
distribuzione normale con un basso grado di significatività;
 Il 34 % del campione, pari a 46 punti su 135 si adatta alla
distribuzione normale con un medio grado di significatività.
 Il restante 27 % del campione, pari a 37 campioni su 135 si adatta alla
distribuzione normale con un alto grado di significatività;
119
facendo riferimento alla quota relativa a 850 Hpa:
 Il 10% del campione, pari a 13 punti su 135, non si adatta alla
distribuzione normale;
 Il 24% del campione, pari a 32 punti su 135, si adatta alla
distribuzione normale con un basso grado di significatività;
 Il 33% del campione, pari a 45 punti su 135 si adatta alla distribuzione
normale con un medio grado di significatività.
 Il restante 33% del campione, pari a 45 campioni su 135 si adatta alla
distribuzione normale con un alto grado di significatività;
facendo riferimento alla quota relativa a 700 Hpa:
 Il 16% del campione, pari a 22 punti su 135, non si adatta alla
distribuzione normale;
 Il 25% del campione, pari a 34 punti su 135, si adatta alla
distribuzione normale con un basso grado di significatività;
 Il 33% del campione, pari a 44 punti su 135 si adatta alla distribuzione
normale con un medio grado di significatività.
 Il restante 26 % del campione, pari a 35 campioni su 135 si adatta alla
distribuzione normale con un alto grado di significatività;
ed infine, facendo riferimento alla quota relativa a 500 Hpa:
 Il 16% del campione, pari a 22 punti su 135, non si adatta alla
distribuzione normale;
 Il 21% del campione, pari a 28 punti su 135, si adatta alla
distribuzione normale con un basso grado di significatività;
 Il 33% del campione, pari a 44 punti su 135 si adatta alla distribuzione
normale con un medio grado di significatività.

Il restante 30 % del campione, pari a 41 campioni su 135 si adatta alla
distribuzione normale con un alto grado di significatività
120
7.3 Analisi di omogeneità della varianza
L'analisi della varianza è un insieme di appartenenti al mondo della statistica
inferenziale che permettono di confrontare due o più gruppi di dati
confrontando la variabilità interna a questi gruppi con la variabilità tra i
gruppi.
L'ipotesi nulla solitamente prevede che i dati di tutti i gruppi abbiano la
stessa origine, ovvero la stessa distribuzione stocastica, e che le differenze
osservate tra i gruppi siano dovute solo al caso.
Si usano queste tecniche quando le variabili esplicative sono di tipo nominale
anche se nulla impedisce di usare queste tecniche anche in presenza di
variabili esplicative di tipo ordinale o continuo, ma in tal caso sono meno
efficaci delle tecniche alternative (ad esempio: regressione lineare).
Per le nostre elaborazioni, di carattere più speditivo che esaustivo, ci è
bastato fermarci all’applicazione dei test di omogeneità della varianza; test
che in realtà vengono considerati il primo passo per un’ANOVA (ANalysis Of
Variance) vera e propria.
7.3.1 Risultati del test di omogeneità della varianza tra due campioni
Abbiamo confrontato a coppie le serie di dati di umidità media annua delle
quote fra esse contigue, per un totale di tre confronti per punto: uno fra le
quote 1000 Hpa e 850 Hpa, uno fra 850 Hpa e 700 Hpa ed un altro tra 700
Hpa e 500 Hpa, con il fine di capire se i diversi campioni potessero avere la
stessa origine.
Si è scelto di effettuare il confronto solamente tra quote adiacenti dello stesso
punto, scartando fin da subito un possibile confronto tra tutte e quattro le
quote perché altrimenti, dato la natura dei dati e della variabile, l’analisi non
avrebbe condotto ad un risultato significativo.
Qui di seguito abbiamo riportato come esempio i risultati ottenuti per il
punto di longitudine 70° e di latitudine 40°; considerando che le 1000.850
121
indica il confronto effettuato tra le serie di dati corrispondenti alle quote
riferite a 1000 Hpa e 850 Hpa, le850.700 quello tra 850 Hpa e 700 Hpa ed
infine le700.500 quello per tra 700 Hpa e 500mb.
> le1000.850<-levene.test(dati1,gruppi1,location="mean", kruskal.test=T)
> le850.700<-levene.test(dati2,gruppi2,location="mean", kruskal.test=T)
> le700.500<-levene.test(dati3,gruppi3,location="mean", kruskal.test=T)
> le1000.850
rank-based (Kruskal-Wallis) classical Levene's test based on the
absolute deviations from the mean ( none not applied because the
location is not set to median )
data: dati1
Test Statistic = 6.3155, p-value = 0.01197
> le850.700
rank-based (Kruskal-Wallis) classical Levene's test based on the
absolute deviations from the mean ( none not applied because the
location is not set to median )
data: dati2
Test Statistic = 0.0607, p-value = 0.8054
> le700.500
rank-based (Kruskal-Wallis) classical Levene's test based on the
absolute deviations from the mean ( none not applied because the
location is not set to median )
122
data: dati3
Test Statistic = 3.693, p-value = 0.05464
Visto che siamo riusciti a definire che non tutte le serie storiche provengono
da distribuzioni normali abbiamo deciso di eseguire i test sull’omogeneità
della varianza utilizzando un test non parametrico, il test di Levene, che ci
permettesse di slegarci dai parametri delle distribuzioni e paragonare cosi
campioni di dati aventi anche origini differenti.
Anche in questo caso si è realizzata una semplice statistica da cui è emerso
che, considerando campioni omogenei per un valore del p-value > 0.1 :
 Il 79% del campione, pari a 107 confronti su 135 fra le quote riferite a
500 Hpa e 700 Hpa, risulta omogenei;
 L’84% del campione, pari a 113 confronti su 135 fra le quote riferite a
700 Hpa e 850 Hpa, risulta omogeneo ;
 Il 36% del campione, pari a 49 confronti su 135 fra le quote riferite a
850 Hpa e 1000 Hpa, risulta omogeneo.
Nella pagina seguente, a titolo di esempio, riportiamo i risultati ottenuti dai
confronti tra i campioni posti a 500 Hpa e quelli a 700 Hpa:
123
124
8
Conclusioni
L’obiettivo della nostra analisi, come precedentemente detto,
è stato
descrivere ed inquadrare la questione relativa all’umidità in Europa
effettuando analisi temporali, spaziali ed in quota.
L’umidità, come detto, è un fenomeno atmosferico complesso, variabile nello
spazio e nel tempo e regolato dall’interazione tra caratteri geografici statici e
caratteri dinamici. Questa interazione dipende a sua volta da innumerevoli
fattori:
 Latitudine e incidenza dei raggi solari;
 Stagionalità;
 Distribuzione di mari e terre emerse;
 Correnti e venti;
 Orientamento dei grandi sistemi montuosi;
 Rilievi e loro esposizione topografica;
 Acque continentali.
Il nostro studio è stato effettuato su serie storiche di dati di umidità relativi a
135 stazioni distribuite su un territorio vasto e morfologicamente variegato.
Dai risultati delle analisi temporali non abbiamo potuto evidenziare alcuna
corrispondenza significativa tra il cambiamento climatico e l’evolversi nel
tempo dei vari regimi di umidità.
125
Questo potrebbe ritenersi dovuto fondamentalmente all’utilizzo di un
campione troppo limitato nel tempo, 30 anni si sono rivelati essere un
orizzonte temporale eccessivamente ridotto per analisi di questo tipo,
Il campione utilizzato si è ad ogni modo confermato essere affidabile e
completo; caratteristiche verificate grazie al test effettuato con l’ausilio di
Google Earth per individuare le caratteristiche al suolo. Questo test ci ha
fornito un ottima corrispondenza tra i valori di umidità relativa e ciò che è
stato riscontrato al suolo.
Una volta raccolti per ogni stazione di misura (ad es. il punto lat:30; long:10)
tutti i dati disponibile mese per mese (ad es. Tutti i Luglio del 1979 al 2009),
divisi per quota (ad es. 700 Hpa), si è proceduto con l’analisi spaziale con
l’obiettivo di individuare eventuali trend.
Abbiamo cercato di individuare, qual’ora ci fossero andamenti dominanti
utilizzando i valori di pendenza riassuntivi dell’andamento dell’umidità
media nel trentennio considerato. L’elaborazione effettuate pur avendo
evidenziato alcune omogeneità locali non presenta caratteristiche di
uniformità ed univocità tali da permettere di poter effettuare considerazioni
credibili ed esaustive.
Per provare a chiarire questo genere di risultati riteniamo sarebbe stato
necessario avere competenze tecnico-scientifiche specifiche di tipo
meteorologico non a nostra disposizione, oltre a disporre di dataset relativi
ad un orizzonte temporale più esteso.
Successivamente abbiamo verificato l’adattabilità del dato a distribuzioni
note quali la normale, la lognormale e la gamma.
Per quanto riguarda distribuzione lognormale e gamma i valori del P – value
sono molto inferiore a qualsiasi soglia di accettabilità, facendoci così
escludere un adesione del nostro campione a questo tipo di distribuzioni.
126
Riportiamo di seguito i valori percentuali relativi la soglia di accettabilità
ottenuti dall’applicazione del test di Kolmogorov – Smirnov per il caso di
distribuzione normale:
Dove sono stati utilizzati i seguenti range, definiti in letteratura, per
descrivere qualitativamente il grado di significatività
Dai risultati ottenuti risulta che la distribuzione normale possa adattarsi ai
nostri dati con una percentuale che varia dall’84% della quota di 500 Hpa
fino al 90% per la quota di 850 Hpa.
Questo mostra buona aderenza con le caratteristiche di continuità e poca
variabilità del parametro umidità.
Per i restanti campioni non siamo stati in grado di attribuire nessuna
distribuzione di probabilità, non riuscendo a caratterizzare in questo modo
una percentuale di dati oscillante dal 16% al 10%.
Le analisi in quota sono state svolte sempre tramite il software R con
l’obiettivo di valutare l’omogeneità tra quote adiacenti.
Il test utilizzato in questo caso è stato il Levene Test. L’obiettivo perseguito è
stato provare a capire se i dati appartenenti a quote adiacenti potessero
appartenere allo stesso “universo statistico”, investigando cosi se la misura di
umidità relativa ad una data quota potesse risultasse indipendente oppure no
rispetto a quella della quota subito superiore o inferiore.
127
Anche in questo caso si è realizzata una semplice statistica. Considerando
campioni omogenei quelli per un valore del P-value > 0.1 abbiamo verificato
quanto segue:
500→700
700→850
850→1000
N° Stazioni omogene su 135 Percentuale omogeneità
107
7900%
113
84
49
36
Spicca il 36% di omogeneità tra gli 850 Hpa e 1000 Hpa, valore
particolarmente basso.
Questo dato risulta fisicamente giustificato dal passaggio che avviene in
questa zona da regime turbolento, al suolo, a regime laminare, in quota.
Indirettamente inoltre, conferma l’influenza della tipologia di suolo e della
morfologia sul regime di umidità misurato.
8.1 Sviluppi futuri
Affinché il lavoro fin qui presentato possa divenire spunto per
future
trattazioni che approfondiscano e migliorino la conoscenza sul tema trattato
riteniamo possano essere intraprese diverse strade.
Si potrebbe sicuramente ampliare il perimetro di trattazione, così da poter
effettuare valutazioni su scala globale rendendo le potenziali conclusioni il
più aderenti possibili alla complessità dei fenomeni meteorologici.
A tal proposito si potrebbe affinare il passo di discretizzazione nella speranza
di ottenere una più completa ed attendibilità individuazione di eventuali
trend e/o ciclicità.
Sarebbe utile considerare l’eventualità di effettuare nuovamente questo tipo
di analisi incrociando dati di umidità relativa e/o assoluta di diversa origine,
ad esempio, oltre ai dati satellitari utilizzando database ottenuti tramite
spazializzazione di dati puntuali forniti da radiosondaggi, scelta che tra le
altre cose permetterebbe di verificare indirettamente la bontà del dato
satellitare.
Noi non abbiamo perseguito questo tipo di strada per diverse ragioni:
128
 elevato spesa necessaria per ottenere dati di questo tipo,
 tra i database a libero accesso spesso non vi sono riportati dati relativi
a tutte le quote di interesse
 l’orizzonte temporale fornito, ad oggi, non è ancora soddisfacente per
alcuni tipi di analisi
Sarebbe sicuramente interessante impostare nuove analisi, considerando un
maggior numero di quote così da poter in qualche modo fare considerazioni
più attendibili sul profilo di umidità.
Con il passare degli anni sarà ovviamente possibile avere accesso a serie
sempre più lunghe e precise affinando naturalmente futuri risultati,
permettendo di approfondire ad esempio il collegamento umiditàcambiamento climatico.
129
Appendice 1
A1.1 NCAR
NCAR nasce a partire da un piccolo gruppo di scienziati innovativi, molti dei
quali docenti universitari, come risposta creativa alla grande sfida che ha
affrontato la nazione statunitense negli anni tra il 1930 e il 1950. Nel 1930 i
principali
dipartimenti
di
meteorologia
erano
stabiliti
presso
il
Massachusetts Institute of Technology, l'Università di Chicago, e le altre
principali università degli Stati Uniti.
Il loro obiettivo era quello di indagare scientificamente i principi fisici che
sono basilari per definire il comportamento dell'atmosfera. Nel giro di un
decennio, le operazioni militari della seconda guerra mondiale, che a
differenza di quelli di qualsiasi precedente guerre si basavano su assalti che
erano non solo via terra e mare bensì anche aerei,
erano fortemente
dipendenti e condizionate dalle condizioni atmosferiche estese a vaste
regioni, dal Nord Atlantico al Pacifico del Sud, dai poli ai tropici .
Le competenze meteorologiche dei vari dipartimenti universitari crebbero
così rapidamente che i servizi militari inviarono propri membri per imparare
i fondamenti della meteorologia. Il compito di questi ufficiali incaricati
spaziava dalla produzione di banali previsioni meteo giornaliere a ben più
importanti e strategiche pianificazioni per le varie operazioni militari, come il
D-Day in Normandia. I servizi militari furono supportati in questo periodo
anche da enti di ricerca meteorologica così da produrre un miglioramento
nella comprensione del tempo e del clima. I piloti militari in missione di
bombardamento a lungo raggio hanno scoperto la presenza ad alta quota di
“fiumi” d’aria in rapido movimento, ora note come correnti a getto (jet
streams), ormai riconosciuti come elementi chiave per la previsione della
circolazione atmosferica su larga scala.
130
Nonostante gli imponenti programmi di formazione degli anni ‘40, il settore
delle scienze atmosferiche perse terreno negli anni del dopoguerra,
diventando una sorta di cugino povero di molti altri rami della scienza. Circa
il 90% dei meteorologi americani nella metà del secolo sono stati impiegati
dal governo federale, principalmente nella produzione di previsione anziché
impegnarli in progetti di ricerca sulle tematiche fondamentali del clima. Il
numero di nuove persone che entravano in campo era tristemente basso
facendo si che la meteorologia vantasse la più piccola percentuale di dottorati
rispetto a qualsiasi altra disciplina scientifica.
Nel 1956, l'Accademia Nazionale delle Scienze ha incaricato un comitato di
eminenti scienziati ad indagare e valutare lo stato degli studi in materia di
meteorologia. Notando la dimensione e la complessità dei problemi
atmosferici e le risorse inadeguate per la loro risoluzione, la commissione ha
raccomandato un aumento esponenziale del sostegno alla ricerca di base.
Accoppiato con il nuovo finanziamento, la commissione propose di istituire
un Istituto nazionale (in seguito chiamato un centro nazionale) sulla ricerca
atmosferica che fosse gestito da un consorzio di università con il sostegno
della National Science Foundation.
La missione dell'Istituto avrebbe dovuto essere quella di:
 Affrontare i problemi fondamentali dell'atmosfera su scala adeguata
alla loro natura globale.
 Strutturare le strutture di ricerca necessarie per un tale approccio su
larga scala.
 Fornire un approccio interdisciplinare coordinato a questi problemi
cosa che non sarebbe stata possibile procedendo a livello di singoli
dipartimenti universitari.
 Preservare l'alleanza naturale tra ricerca e istruzione, senza
squilibrare i dipartimenti universitari.
Nel 1960, ha avuto inizio per mano del NCAR, a Boulder in Colorado, un
programma
della
National
Science
131
Foundation
(NSF),
gestito
dall’organizzazione no profit “Universiy Corporation for Atmospheric
Research” (UCAR). Al momento in cui ha finanziato la creazione del NCAR, il
programma NSF era stati in vigore solamente da dieci anni.
Oggi, NCAR fornisce la ricerca universitaria e la comunità scientifica con
strumenti quali aerei e radar per osservare l'atmosfera e con la tecnologia e
l'assistenza per interpretare e utilizzare queste osservazioni prodotte, tra cui
l'accesso a supercomputer, modelli computerizzati di interpretazione e
previsione della realtà ed un servizio di supporto diretto agli utenti.
Gli scienziati del NCAR e delle Università si trovano quindi a collaborare sui
vari temi di ricerca quali ad esempio la chimica atmosferica, il clima, la fisica
delle nubi e delle tempeste, i rischi meteorologici per l'aviazione e le
interazioni tra il sole e la terra. L’obiettivo degli studi in tutte queste aree e
quello di cercare di capire e quantificare quello che può essere il ruolo degli
esseri umani sia nella determinazione del cambiamento climatico che in
risposta ai sempre più frequenti eventi meteorologici estremi.
132
Appendice 2
A2.1 Biomi
Il clima locale determina
la formazione di un ambiente caratteristico,
chiamato bioma.
Il bioma è l'insieme di animali e vegetali che vivono in un determinato luogo
o ambiente geografico che hanno raggiunto un elevato grado di adattamento
all'ambiente naturale che li ospita con particolare riferimento alla flora ed al
clima.
Si distinguono biomi terrestri e biomi dell'idrosfera. L'identificazione di un
bioma terrestre si basa sulle specie proprie e sulle caratteristiche
fondamentali dell'ambiente.
A2.1.1 La tundra
In geografia fisica, il termine tundra, indica un'area dove la crescita degli
alberi è ostacolata dalle basse temperature e dalla breve stagione estiva. Il
termine tundra deriva dal termine lappone tunturia, che significa "pianura
senza alberi".
Tundra è quindi per estensione la vegetazione tipica delle zone polari artiche,
composta principalmente da muschi, licheni e pochi arbusti.
È pertanto una vegetazione tipica di climi molto rigidi. Geograficamente, si
estende nelle zone ai margini delle regioni perennemente ricoperte dai
133
ghiacci, dove il terreno già a pochi centimetri dalla superficie è ghiacciato
(permafrost).
In queste regioni, l'inverno è molto rigido mentre l'estate è corta e fresca, Per
questo le specie animali che vi vivono concentrano la loro attività nel periodo
estivo. Tutte le specie tipiche di questo habitat possiedono cicli riproduttivi
molto veloci, entro l'arrivo dei primi freddi devono completare la propria
riproduzione, lo sviluppo ad età adulta e prepararsi per la lunga e fredda
stagione invernale.
A2.1.2 La taiga
La taiga è un bioma caratterizzato da foreste di conifere. Si tratta di una
regione geografica umida subartica, dove il clima è meno rigido e l'estate è
più lunga.
La vegetazione è formata da abeti, larici e pini, con foglie aghiformi
sempreverdi.
Le foreste di conifere sono molto importanti anche del punto di vista
economico: gran parte del legname prodotto per l'industria deriva proprio
dallo sfruttamento di queste foreste.
La taiga offre riparo e alimentazione anche a molti animali della tundra, che
sopraggiungono spinti dai rigori invernali.
È localizzata nella zona nord del globo e si trova quasi sempre sotto la
tundra.
134
A2.1.3 Grasslands (praterie)
La prateria è una vasta estensione di terreno erboso, in genere pianeggiante.
È caratteristica delle zone dell'America settentrionale (Mississippi, Montagne
Rocciose) con scarsa umidità, livelli di precipitazione inferiori a 500 mm
anno e suolo coperto di neve durante l'inverno.
Prevalgono le specie erbacee (Graminacee e leguminose annue) con cespugli
e rari alberi isolati; nelle zone dove la temperatura è maggiore e minore
l'umidità si sviluppano anche agavi e cactus.
A2.1.4 La steppa
La steppa è una formazione vegetale erbacea.
È caratteristica delle regioni tropicali, subtropicali e temperate con periodi
piovosi corti.
Manca la vegetazione arborea, ad eccezione di cespugli bassi. Sono presenti
piante erbacee graminacee di breve durata, rigogliose durante la breve
stagione delle piogge.
135
A2.1.5 Deciduous forest (foresta temperata)
La foresta temperata è un tipo di foresta presente sia nell'emisfero boreale
che in quello australe.
Nella regione boreale si estende alle regioni di clima temperato oceanico, a
quelle a clima medio europeo, a clima nord-europeo ed a clima continentale.
Nella regione australe è caratterizzata da vegetazione sempreverde a causa
della maggiore umidità (araucarie, eucalipti).
A2.1.6 Mediterranean chaparral (bioma mediterraneo)
Il bioma mediterraneo è una zona di transizione che si trova nell'emisfero
boreale tra la fascia temperata e quella tropicale.
La flora è costituita da conifere e sughere che sono state in parte rimosse
dall'azione umana e dagli arbusti aromatici e sempreverdi che fanno parte
della macchia mediterranea.
Caratterizzato da estati aride e piogge concentrate soprattutto nei periodi
autunnali ed invernali.
136
A2.1.7 Deserto
In geografia si definisce deserto ogni area inadatta all'insediamento umano,
del tutto o quasi disabitata, in cui non piove quasi mai, il terreno è arido e non
coltivabile.
Esistono due tipi principali di deserto:
 le aree a clima caldo (deserto roccioso, sabbioso, a dune), presenti
nelle
regioni
tropicali,
caratterizzate
da
accentuata
aridità,
vegetazione ridotta o assente, mancanza di corsi d'acqua perenni.
L’escursione termica tra il giorno e la notte è elevata per la mancanza
di umidità e per la distanza dal mare;
 le aree a clima freddo (deserto freddo, deserto bianco), presenti nelle
regioni settentrionali e meridionali a margine dei continenti boreali e
australi (Groenlandia, Artide e Antartide), caratterizzate da freddo
intenso e perenni distese di neve e ghiaccio.
A2.1.8 Savana
La savana è un habitat delle regioni calde tropicali in cui le piogge cadono con
regolarità stagionale. È costituita da vaste distese di graminacee, alte fino a
137
due metri, disseminate di cespugli e di rari alberi isolati (come acacia, baobab
o euforbia).
La savana è diffusa in America, in Australia ed in Africa e nelle zone con
scarsa piovosità si trasforma in steppa.
Le savane (Africa occidentale e sudoccidentale), si sviluppano in regioni
caratterizzate da clima arido, con precipitazioni annue comprese tra i 100 e i
400 mm; tali zone variano dalle foreste a volta aperta, con una modesta
presenza di erbe, alle vere e proprie savane, nelle quali invece le erbe sono
dominanti e gli alberi sono molto rari.
A2.1.9 Foresta tropicale
La foresta equatoriale (o pluviale) è una foresta fittissima e particolarmente
ricca di specie vegetali. Nelle zone presso l'Equatore si estendono immense
foreste pluviali, che in passato erano assai più estese di oggi. La più grande
foresta del mondo è quella dell'Amazzonia, nell'America del Sud. Essa copre
un territorio di circa 7 milioni di chilometri quadrati (pari a circa venti volte
l'Italia). La seconda foresta pluviale per estensione si trova in Africa Centrale
e ricopre il bacino del fiume Congo. Queste regioni forestali forniscono una
grande quantità di ossigeno, valutata in metà di tutta quella contenuta
nell'atmosfera.
138
A2.1.10 Bioma alpino
La vegetazione alpina varia a seconda delle zone altitudinali:
 alla quota più alta ci sono muschi e licheni;
 scendendo verso il basso si incontrano boschi di conifere e quindi
faggeti;
 nel sottobosco, querce e castagni.
139
Appendice 3
A3.1 Clima dettagliato per alcuni dei
principali paesi europei
Osserviamo ora la descrizione climatica delle singole nazioni in cui sono
presenti le stazioni di rilevamento che abbiamo analizzato.
A3.1.1 Finlandia
Tra i paesi scandinavi la Finlandia è quella con il clima più rigido. L’inverno
freddo e secco, della durata di sette mesi, da ottobre ad aprile, cede il passo
velocemente ai tre mesi estivi, caldi e piovosi.
A3.1.2 Norvegia
La Norvegia gode di un clima abbastanza temperato soprattutto lungo le
coste e nelle isole, nonostante l’elevata altitudine. Questo grazie all’influenza
della corrente Nord Atlantica che ne mitiga alquanto le temperature. Questo
particolare fenomeno impedisce la formazione dei ghiacci marini durante
l’inverno.
Le Alpi Scandinave dividono la Norvegia in due aree climaticamente distinte:
 Le zone sud orientali e nord orientali hanno un clima di tipo
continentale.
 Le coste occidentali hanno un clima di tipo marittimo con inverni
relativamente miti ed estati fresche e piovose.
A3.1.3 Danimarca
La Danimarca è caratterizzata da un clima temperato marittimo, con
frequenti precipitazioni dovute ai venti atlantici, portatori di aria umida e
mite, ma non abbondanti a causa della mancanza di rilievi montuosi. Le
140
temperature non scendono mai eccessivamente, nemmeno in pieno inverno,
grazie alla corrente nordatlantica.
A3.1.4 Regno unito
Il clima nel Regno Unito è temperato marittimo ma presenta forte variabilità.
I venti umidi oceanici favoriscono le precipitazioni e riducono l’escursione
termica annua spirando aria mite in inverno e fresca d’estate. Il clima può
cambiare repentinamente nell’arco di una stessa giornata ed i fenomeni sono
spesso circoscritti.
A3.1.5 Francia
La Francia gode di un clima generalmente temperato anche se la presenza del
massiccio centrale e la lontananza dal mare concorrono a variarne il clima in
senso tendenzialmente continentale. Possiamo distinguere quattro diverse
zone climatiche:
 Clima oceanico umido che caratterizza la fascia atlantica dai Pirenei
alla Manica con estati fresche e inverni miti. Le precipitazioni sono
frequenti nelle stagioni intermedie.
 Clima semicontinentale che caratterizza le zone orientali e quasi tutti i
massicci montuosi con inverni secchi, gelidi e ventosi ed estati
gradevoli. Le precipitazioni sono concentrate nella stagione invernale.
 Clima intermedio che caratterizza le regioni settentrionali con inverni
molto freddi ed estati miti ma piovose.
 Clima tirrenico che caratterizza le regioni meridionali con inverni miti
ed asciutti ed estati calde e ventilate. Le precipitazioni si concentrano
in autunno e primavera.
A3.1.6 Olanda
L’Olanda è caratterizzata da un clima temperato marittimo ad eccezione della
zona più interna ai confini con la Germania, che presenta caratteristiche più
continentali. Gli inverni sono freddi e le estati miti. Le precipitazioni,
141
distribuite uniformemente durante l’anno, sono generalmente frequenti ma
deboli.
A3.1.7 Germania
La Germania presenta un clima variegato in quanto sul territorio si scontrano
correnti miti e temperate provenienti dall’Oceano Atlantico, correnti fredde
di origine polare e correnti gelide provenienti dalla Siberia che causano
instabilità e bruschi cambiamenti di tempo. Le correnti meridionali vengono
invece fermate dalla catena alpina.
Nelle zone settentrionali i venti umidi e miti dell’Atlantico determinano un
clima oceanico con inverni miti ed estati fresche e ventilate. Le precipitazioni
sono distribuite in modo piuttosto omogeneo con picchi durante la stagione
estiva.
Nell’area orientale il clima è più continentale, con inverni molto freddi ed
estati molto calde, con lunghi periodi di siccità.
Le regioni centrali e meridionali sono zone di transizione, dove il clima passa
dal moderatamente oceanico al continentale.
Nella fascia alpina e prealpina le temperature sono più basse rispetto al
versante italiano e le precipitazioni piovose e nevose sono abbondanti
soprattutto in primavera ed estate.
A3.1.8 Svizzera
La Svizzera presenta una discreta varietà di microclimi locali e regionali
dovuta alla presenza delle catene montuose. Le zone settentrionali sono
caratterizzate da un clima semicontinentale influenzato dall’Atlantico. Sulla
regione alpina arriva aria marittima umida e mite con azione rinfrescante
d’estate e mitigante in inverno. Le zone meridionali presentano invece
caratteristiche mediterranee, con inverni più caldi.
Le precipitazioni sono concentrate soprattutto nella tarda primavera e in
estate.
142
A3.1.9 Austria
L’Austria è caratterizzata da un clima continentale, con inverni rigidi e molto
nevosi. Le precipitazioni piovose si registrano soprattutto nei mesi estivi, con
una graduale diminuzione procedendo da ovest verso est.
Si possono distinguere tre zone climatiche:
 le regioni orientali, caratterizzate da clima continentale influenzato
dai venti freddi di origine siberiana e con precipitazioni deboli;
 le regioni interne montagnose, caratterizzate da un clima alpino con
estati brevi e abbondanti precipitazioni nevose concentrate nei lunghi
inverni.
 le regioni restanti, che presentano un clima di transizione
caratteristico dell’Europa centrale, umido e temperato.
A3.1.10 Ucraina
L’Ucraina è caratterizzata da un clima moderatamente continentale. Le
regioni orientali sono in parte raggiunte dalla brezza siberiana, mentre le
zone occidentali sono percorse dai venti caldi del Mediterraneo.
Sulle zone costiere le precipitazioni sono molto scarse mentre nelle zone più
interne sono più frequenti, soprattutto nei mesi estivi.
A3.1.11 Romania
La Romania è soggetta ad un clima di transizione tra il temperato e il continentale a
causa della sua posizione e della sua geografia. I monti Carpazi fungono da barriera
contro le masse d’aria provenienti dall’Atlantico, relegando la loro influenza alla
sola zona centro-occidentale del paese, dove portano inverni più miti e
precipitazioni più intense; il massiccio blocca anche le irruzioni di aria gelida
proveniente da est – nordest, ovvero dalle steppe russe ed ucraine, che portano
inverni estremamente rigidi e precipitazioni ridotte nel sud e sud – est del paese. Le
influenze mediterranee giungono attraverso il Mar Nero, rendendo il clima più mite
e di tipo marittimo. Le precipitazioni sebbene adeguate in tutto il paese, sono più
intense verso ovest e con l’aumentare dell’altitudine.
143
3.1.12 Bosnia – Erzegovina
Il clima della Bosnia – Erzegovina ha carattere tipicamente continentale con
influssi mediterranei nella valle della Neretva, aperta verso l’Adriatico; è
caratterizzato da inverni freddi
e nevosi e da estati calde e afose. Le
escursioni termiche giornaliere non sono elevate mentre risultano
significative su scala annuale. Le precipitazioni sono abbondanti e ben
distribuite.
3.1.13 Croazia
La Croazia è divisa climaticamente in due zone. Le zone costiere presentano
un clima mediterraneo, con inverni umidi e miti ed estati calde e secche
mentre nell’entroterra si ha un clima continentale, con inverni rigidi ed estati
fresche e piovose nelle regioni centrale e più secche nelle regioni
settentrionali.
A3.1.14 Italia
L’Italia gode di un clima temperato mediterraneo grazie all’influenza del mare che la
circonda su tre dei suoi quattro lati e grazie alla presenza delle Alpi che offrono un
efficace ostacolo ai freddi venti provenienti da nord. Tuttavia il clima si dimostra
molto diversificato a seconda della lontananza dal mare e dalle montagne. L’inverno
risulta molto freddo sulle Alpi, freddo e nebbioso nella valle del Po e negli Appennini
centrali, mite sulle coste, specialmente su quelle tirreniche. L’estate è calda e secca
su quasi tutta la penisola ad eccezione dalla pianura padana dove la forte umidità
rende le estati spesso afose; sulle Alpi e lungo gli Appennini la stagione estiva è
fresca e con abbondanti precipitazioni.
144
Appendice 4
A4.1 Software R
R è un ambiente di sviluppo per l’analisi statistica di dati, che si basa su un
linguaggio di programmazione derivato dal linguaggio S.
È un software libero, distribuito con licenza GNU General Public Licence della
Free Software Foundation, ed è disponibile per un’ampia varietà di sistemi
operativi, tra cui Windows, MacOS e Linux.
È open source, ovvero ogni utente ha il permesso di accedere liberamente al
suo codice interno e di proporre modifiche.
R permette di elaborare dati, eseguire calcoli ed effettuare rappresentazioni
grafiche; può essere utilizzato anche per descrivere modelli statistici
estremamente complessi. È infatti un ambiente molto potente, utilizzato da
milioni di utenti tra cui importanti statistici.
Inoltre è possibile estendere largamente le capacità di questo software con
l’implementazione di packages appositi, organizzati nel sito del CRAN,
Comprehensive R Archive Network. Grazie a questi moduli è possibile
usufruire di innumerevoli funzioni statistiche aggiuntive, di comunicare con
database specifici o con sistemi GIS, di importare ed esportare file e dati in e
da diversi formati.
R può essere utilizzato tramite linea di comando o attraverso un’interfaccia
grafica, a seconda delle scelte dell’utente.
Viene inoltre edito dai membri del progetto R una pubblicazione chiamata R
Journal, nella quale vengono introdotti ed illustrati i nuovi pacchetti e
vengono fornite spiegazioni sulla programmazione e sulle tecniche che è
possibile utilizzare.
145
A.4.1.1 Formule utilizzate
IMPORTAZIONE DA EXCEL (.xls)

Pacchetto XlsReadWrite:
read.xls (“directory del file.xls”,
colNames = TRUE,
sheet = 3,
from = 1,
rowNames = TRUE,
naStrings = NA)
IMPORTAZIONE DA FILE TESTO (.txt)

Funzione Read.table:
read.table (“directory del file . txt”,
sep = “”,
header = TRUE,
quote = “”,
dec = “,”,
na.strings = “_”)
A.4.1.2 KS test

Ks test per la distribuzione normale:
ks.test (nome vettore dati, “pnorm”)

Ks test per la distribuzione lognormale:
ks.test (nome vettore dati, “plnorm”)
146

Ks test per la distribuzione gamma:
ks.test (nome vettore dati, “pgamma”, a, l)
A.4.1.3 Test di Levene non parametrico

Test di Levene per confronto delle varianze delle diverse serie di dati
levene.test(dati, gruppi, location="mean", kruskal.test=T)
rank-based (Kruskal-Wallis) classical Levene's test based on the absolute
deviations from the
mean ( none not applied because the location is not set to median )
147
Bibliografia
 Tecniche e strumenti per il telerilevamento ambientale, Roma, 2000. Consiglio
nazionale delle ricerche.
 Ghezzi Antonio, dispense di Misure e reti idrometeorologiche, Milano, 2008.
 Greppi Mauro, Idrologia, Milano,Ulrico Hoepli, 2005.
 Holton James R., An introduction to dynamic meteorology, New York,
Academic Press Inc., 1972.
 Iacus Stefano M. e Masarotto Guido, Laboratorio di statistica con R, McGrawHill, 2003
 Martyn Danuta, Climates of the World, Varsavia, PWN – Polish Scientific
Publishers, 1992.
 Muggeo, Vito M. R. e Ferrara Giancarlo, Il linguaggio R: concetti introduttivi
ed esempi, seconda edizione, 2005.
 Guzzi Rodolfo, Manuale di climatologia, franco Muzzio e& C. editore
 Piazza Lello Elio, Probabilità e statistica, Progetto Leonardo, 2011.
148
 Pinna Mario, Climatologia, Torino, Unione Tipografico – Editrice Torinese,
1977.
 Project team ECA&D, Royal Netherlands Meteorological Institute KNMI,
Algorithm Theoretical Basis Document (ATBD), 2010.
 Ricci Vito, Rappresentazione analitica delle distribuzioni statistiche con R,
2005.
 World Meteorological Organization WMO, Measurement of precipitation,
sesto capitolo di “Guide to Meteorological Instruments and Methods of
Observation”, WMO – n°8, settima edizione, 2008.
Sitografia
 Sito internet: ECA&D European Climate Assessment and Dataset
http://eca.knmi.nl/
 Sito internet: NOAA
http://www.esrl.noaa.gov
 Sito internet: NASA
http://www.nasa.gov
 Sito internet: Centre for Environmental Data Archival
http://badc.nerc.ac.uk
149
 Sito internet: IPPC intergovernmental panel on climate change
http://www.ipcc-data.org/obs/index.html
 Sito internet: CSL research data archive
http://rda.ucar.edu/#home
 Sito internet: The R Project for Statistical Computing
http://www.r-project.org/
 Sito internet: The Comprehensive R Archive Network
http://cran.r-project.org/
 Sito internet: Met Office, Weather and Climate Change
http://www.metoffice.gov.uk/
 Sito internet: WMO, World Meteorological Organization
http://www.wmo.int/pages/index_en.html
 Sito internet: Wetter Zentrale Klimadaten
http://www.wetterzentrale.de/klima/index.html
 Sito internet: National Climatic Data Center NCDC
http://www.ncdc.noaa.gov/oa/ncdc.html
 Sito internet: Eumetsat
http://www.eumetsat.int/Home/index.htm
 Sito internet: Global Precipitation Climatology Project GPCP
http://cics.umd.edu/~yin/GPCP/main.html
150