POLITECNICO DI MILANO Corso di Laurea in Ingegneria per l’Ambiente e il Territorio Analisi dell'umidità al suolo ed in quota: una applicazione sull'Europa Relatore: prof. Antonio Ghezzi Elaborato di laurea di: Stefano Nardin Matr. 755789 Giacomo Varisco Matr.755899 Anno accademico 2012/2013 Dopo un percorso lungo e faticoso siamo giunti al punto in cui si vede la meta. Per questo dobbiamo ringraziare molte persone, che in modi diversi ci sono state vicino, ci hanno sostenuto, ci hanno aiutato, ci hanno dato la forza quando credevamo di averla esaurita. Un ringraziamento particolare va al Professor Antonio Ghezzi, senza il quale non saremmo mai riusciti a fare questo lavoro, che ci ha dato consigli, ci ha permesso di imparare e di crescere attraverso la sua professionalità. Ringraziamo inoltre tutte le persone e le istituzioni che hanno collaborato al lavoro di tesi. Sentitamente grazie. Stefano Nardin Giacomo Varisco Indice 1 INTRODUZIONE ……………………………………………………………………………… 1 2 L’UMIDITÀ ………………………………………………………………………….………. 4 2.1 L’umidità atmosferica …………………………………………………….…. 4 2.2 Umidità assoluta, specifica e relativa …………………………………. 4 2.3 La condensazione del vapore acqueo …………………………….....… 6 2.4 La formazione delle nubi ………………………………………………..…. 7 2.4.1 Cause meteorologiche della formazione delle nubi ……………………………………………………..…. 9 2.4.1.1 Sollevamento convettivo ………………………. 10 2.4.1.2 Sollevamento ciclonico ………………………… 11 2.4.1.3 Sollevamento orografico o forzato ……….… 12 2.4.1.4 Sollevamento frontale ………………………..…. 13 2.4.2 Formazione delle gocce e dei cristalli di ghiaccio nelle nubi …………………………………….… 13 2.4.3 Tipi di nubi ……………………………………………………..... 15 2.5 Meccanismo di formazione delle precipitazioni ………………... 18 2.5.1 Accrescimento per condensazione ………………………. 19 2.5.2 Accrescimento per coalescenza …………………………… 20 2.5.3 Accrescimento dei cristalli di ghiaccio: processo di Bergeron – Findeisen……………………... 24 2.5.4 Tipologie di precipitazione ……………………………….….. 27 2.6 Termodinamica atmosferica ………………………………………..…... 29 2.6.1 Termodinamica dell’aria secca ………………………….… 29 i 2.6.1.1 I sistemi termodinamici e l’equazione di stato dei gas perfetti ………………….…... 29 2.6.1.2 L’equazione di stato per l’aria secca …….… 32 2.6.1.3 Il primo principio della termodinamica per l’aria secca …………..… 33 2.6.1.4 Il gradiente termico verticale dell’atmosfera ………………………………….... 34 2.6.2 Termodinamica dell’aria umida ……………………….... 35 2.6.2.1 Trasformazioni adiabatiche per l’aria umida ………………………………..… 35 2.6.2.2 L’equazione di stato per l’aria umida ……... 37 3 GLI STRUMENTI DI MISURA DELL’UMIDITÀ DELL’ARIA ……………... 41 3.1 Igrometri diretti ………………………………………………………….….. 43 3.1.1Igrometri meccanici ……………………………………....….. 43 3.1.2 Igrometri elettrici ………………………………………..….…. 45 3.1.3 Altri sensori diretti ……………………………………………. 52 3.2 Igrometri indiretti ………………………………………………………..…. 53 3.2.1 Igrometri a specchio condensante …………………….…. 53 3.2.2 Psicrometri ………………………………………………………… 57 3.2.3 Igrometri a sali saturi …………………………….…….…….. 61 3.2.4 Igrometri elettrolitici ……………………………..…….….. 63 3.2.5 Altri sensori indiretti ……………………………….……….... 64 3.3 Criteri di scelta degli strumenti di misura ……………………...….. 65 3.4 Il telerilevamento ……………………………………………………..……… 68 3.4.1 Uso dello spettro elettromagnetico nel telerilevamento ………………………………………….….. 71 ii 3.4.2. Classificazione dei sensori …………………………..…… 73 4 IL CLIMA IN EUROPA …………………………………………………………………… 76 4.1 I climi e le macro regioni europee ………………………………....… 77 4.1.1 Clima e ambiente Atlantico ………………………………….. 82 4.12 Clima e ambiente Mediterraneo …………………………… 83 4.1.3 Clima e ambiente continentale …………………………….. 85 4.1.4 Clima e ambiente artico ……………………………………... 88 4.1.5 Clima dell'ambiente alpino ……………………………….... 89 5 L’APPLICAZIONE …………………….………………………………………………….… 91 5.1 Visualizzazione e preparazione dato ………………………..........… 95 5.2 Elaborazioni ……………………………………………………...………...… 97 6 DISTRIBUZIONI DI PROBABILITA’ ……………………………..……………... 104 6.1 La variabile casuale ………………………………………..………………... 104 6.2 Distribuzione normale o gaussiana ………………….………….......... 106 6.3 Distribuzione lognormale ……………………………….………………... 110 6.4 Distribuzione gamma …………………………………….……………….... 111 7 IL SOFTWARE R …………………………………………………………………..…… 113 7.1 Importazione dei dati in R ………………………………….……….. 113 7.2 Adattamento ad una distribuzione nota ………………………... 114 7.2.1 Test di Komogorov – Smirnov …………………….….. 116 7.2.1.1 Risultati test Komogorov – Smirnov …… 117 7.3 Analisi di omogeneità della varianza ………………...…….…… 121 iii 7.3.1 Risultati del test di omogeneità della varianza …..…. 121 8 CONCLUSIONI ……………………………………………………………………….…. 125 8.1 Sviluppi futuri ……………………………………………………………… 128 APPENDICE 1 ………………………………………………………………………………… 130 A1.1 NCAR …………………………………………………………………………… 130 APPENDICE 2 ………………………………………………………………………………… 133 A2.1 BIOMI ……………………………………………………………………….….. 133 APPENDICE 3 ……………………………………………………………………………….…140 A3.1 CLIMA DETTAGLIATO PER ALCUNI DEI PRINCIPALI PAESI EUROPEI ……………………………………………………………………..….….… 140 APPENDICE 4 ………………………………………………………………………………… 145 A4.1 SOFTWARE R ………………………………………………………………. 145 iv 1 Introduzione La ricerca di una possibile correlazione con la tematica del cambiamento climatico, il legame con la nubi ed il loro ruolo di filtro verso le radiazioni , la fondamentale influenza sulla conservazione di cibo ed oggetti, la capacità di condizionare in modo sostanziale la qualità della vita in ambienti di quotidiana frequentazione potendo determinare criticità per la salute ed il benessere della persona; queste son solo alcune delle motivazioni che hanno spinto e sostenuto il nostro lavoro e i nostri sforzi spingendoci ad investigare e caratterizzare il comportamento dell’umidità al variare di alcune condizioni al contorno. L’obiettivo dichiarato della nostra analisi è svolgere una valutazione critica di come, e se, i diversi regimi di umidità varino in funzione alcuni parametri come latitudine, longitudine, quota e di come siano variati nel tempo, così da poter individuare legami e corrispondenza tra fattori geografici e/o temporali e la risposta atmosferica in termini di umidità. Per queste trattazioni abbiamo utilizzato dati di umidità relativa circoscritti, per motivi di onerosità delle trattazioni, ad una superficie europea, estesa a sud a tutto il nord Africa desertico e ad ovest al primo tratto di oceano atlantico. L’umidità, parametro atmosferico complesso e continuo, è la misura della quantità di vapore acqueo presente in atmosfera (o in generale in una massa d'aria). Uno studio critico ed esaustivo della sua distribuzione, spaziale ed in quota, può sicuramente essere punto di partenza per migliorare e approfondire la comprensione dei fenomeni di nuvolosità. 1 La presenza di vapore acqueo nell’atmosfera infatti, risulta determinante per la formazione delle nubi stesse. Nubi che sappiamo essere elemento fortemente condizionante rispetto al clima. Esse svolgono infatti un’importante e duplice funzione: di filtro rispetto alle radiazioni solari e di luogo formazione e sviluppo delle gocce destinate alle precipitazioni. Ciò conferma ulteriormente l’importanza dell’umidità quale fattore meteorologico in grado di influenzare fortemente la climatologia e quindi la vita quotidiana. Il clima dipende infatti, oltre che da fattori geografici locali e morfologici, anche dai movimenti delle masse d’aria sul territorio. Lo scontro di masse d’aria con caratteri di umidità e temperatura distinti determina la formazione di cicloni ed anticicloni, permanenti e stagionali che governano la climatologia delle piogge in Europa come nel resto del mondo. L’umidità, ha sempre condizionato l’uomo e la sua quotidianità sia per la conservazione di oggetti che di alimenti. Ciò ha fatto si che fin dall’antichità si sia cercato di capire e misurare questo fenomeno. I primi tentativi documentati di misura “strumentale” della umidità risalgono al 1430 circa quando Nikolaus Chrypffs (Cusano) (1401-1464) inventa il primo strumento meteorologico. Una sorta d’igrometro con il quale cercò di determinare il grado di umidità dell’aria pesando delle palle di lana. Nel 1500 circa quindi, Leonardo Da Vinci (1452-1519) costruisce un anemoscopio e un indicatore meccanico dell’umidità. Nel Codice Atlantico, una raccolta di 393 carte autografate da Leonardo e raccolte da Pompeo Leoni (1533-1608), ci sono schematizzati questi strumenti. Nonostante la precocità dell’interesse scientifico per questo tema, risulta tuttora molto difficile trovare serie storiche di umidità complete e di lunghezza considerevole, se non puntualmente per stazioni isolate. 2 Tuttavia l’umidità, essendo un parametro poco variabile, può giustificare, a seconda delle finalità dell’analisi, un utilizzo di serie di lunghezza limitata, cosa ingiustificata qualora si fosse trattato di un parametro caratterizzato da forte discontinuità, come ad esempio le precipitazioni. Per l’analisi da noi effettuata sono stati utilizzati dati globali dal 1979 al 2010. Si è rivelato necessario avvalersi di considerazioni statistiche che ci aiutassero e permettessero di descrivere e caratterizzare almeno in parte i nostri campioni, verificandone l’adattabilità a distribuzioni note e valutandone l’omogeneità, in riferimento ovviamente alle condizioni locali di tipo morfologico e climatico. 3 2 L’umidità 2.1 L’umidità atmosferica L'umidità atmosferica è determinata dalla quantità di vapore acqueo presente nell'aria. Le radiazioni solari riscaldano l'acqua e la superficie terrestre generando l'evaporazione dell'acqua sotto forma di vapore acqueo che dà vita a diversi fenomeni atmosferici (nubi, nebbia, pioggia, ecc.). Il vapore acqueo contribuisce alla formazione delle nubi, tramite il fenomeno della condensazione, e al funzionamento del ciclo dell'acqua dalla fase iniziale di evaporazione alla fase finale delle precipitazioni piovose. 2.2 Umidità assoluta, specifica e relativa Vari sono i parametri significativi quando si parla di umidità: Umidità assoluta: è la quantità di vapore acqueo espressa in grammi contenuta in un metro cubo d’aria. L'umidità assoluta aumenta all'aumentare della temperatura, l'umidità di saturazione aumenta più che proporzionalmente quindi l'umidità relativa tende a scendere. Quando un abbassamento di temperatura porta a far coincidere l'umidità assoluta con quella di saturazione si ha una condensazione del vapore acqueo e il valore termico prende il nome di temperatura di rugiada. In corrispondenza di questo valore se si ha una superficie fredda si ha la rugiada (brina a valori sotto lo zero), se la condensazione riguarda uno strato sopra il suolo si ha la nebbia. È un valore poco apprezzabile e per questo si preferisce l'utilizzo dell'umidità specifica. L'umidità assoluta può essere espressa in 4 termini di massa di acqua per volume di atmosfera o in pressione parziale relativa del vapore rispetto agli altri componenti atmosferici (kg/m³ o Pa). Umidità specifica: è il rapporto della massa del vapore acqueo e la massa d'aria umida; in letteratura si può trovare anche un'altra definizione: rapporto tra la massa del vapore acqueo e la massa d'aria secca. In termodinamica si preferisce questa seconda definizione perché, rapportandosi alla massa d’ aria secca, questa non varierà mai nei normali processi termodinamici (sopra la temperatura di 132 K), al contrario della massa di aria umida (per esempio: con la condensazione del vapore nell'aria umida, il fluido può essere facilmente sottratto). Umidità relativa: indica il rapporto percentuale tra la quantità di vapore contenuto da una massa d'aria e la quantità massima (cioè a saturazione) che il volume d'aria può contenere nelle stesse condizioni di temperatura e pressione. Alla temperatura di rugiada l'umidità relativa è per definizione del 100%. L'umidità relativa è un parametro dato dal rapporto tra umidità assoluta e l'umidità di saturazione. È svincolato dalla temperatura e dà l'idea del tasso di saturazione del vapore atmosferico, e delle ripercussioni sui fenomeni evapotraspirativi delle colture. Il deficit di saturazione è dato dalla differenza tra umidità assoluta e umidità di saturazione. Esempio: se una massa d'aria ha una temperatura propria, ad esempio, di 15 °C con una quantità di umidità relativa pari al 50%, affinché tale umidità possa raggiungere il 100% (saturazione) a pressione costante, e, magari depositarsi (condensazione) sarà necessario abbassare la temperatura della massa d'aria, ad esempio, di 5 °C, portarla cioè da 15 °C a 10 °C. L’aria si definisce satura quando ha raggiunto la quantità massima di vapore che può contenere a quella temperatura. Quando è pura e non ci sono nuclei 5 di condensazione, può contenere una quantità di vapore superiore al limite di saturazione condizione che si definisce soprassatura. L’umidità, caratterizzata da una limitata variabilità, pur essendo una grandezza tipicamente puntuale, può essere considerata una grandezza estensiva. Ciò permette di estendere concettualmente un valore puntuale ad un intorno areale stabilito, consentendo di inquadrare l’umidità entro i confini della teoria della meccanica del continuo. Figura 2.1 Andamenti dell’ umidità relativa in funzione della temperatura 2.3 La condensazione del vapore acqueo Volendo trattando in modo rigoroso il tema dell’umidità non si può prescindere dal considerare ed introdurre alcuni dei fenomeni meteorologici maggiormente collegati ad essa: nubi e precipitazioni. Le nubi sono infatti agglomerati visibili di particelle d’acqua allo stato liquido (goccioline) o solido (cristalli di ghiaccio) in sospensione nell’atmosfera, principalmente in troposfera. 6 Il loro aspetto è in continua evoluzione e trasformazione perché sono sempre in perenne movimento e cambiamento di stato. Una nube è un insieme di centinaia di microscopiche gocce per centimetro cubo con un raggio all’incirca di 10 micron. Le dimensioni tipiche sono, infatti, dell’ordine di 10-102 micron, mentre la concentrazione (numero di gocce per litro d’aria) varia tra 103 e 107 in funzione delle dimensioni. Con queste dimensioni e concentrazioni il conglomerato è otticamente opaco alle lunghezze d’onda visibili per effetto della diffusione della luce e viene così, per contrasto, riconosciuto come nube. Le precipitazioni hanno luogo quando la nube diventa instabile, quando, cioè, alcune gocce iniziano ad accrescersi a scapito delle altre. In atmosfera, e principalmente nella troposfera, l’aria ha un contenuto di vapore nella percentuale massima del 4% in volume, con importanti variazioni sia nello spazio che nel tempo. Sebbene quindi la sua concentrazione sia piuttosto modesta, il suo ruolo è fondamentale in numerosi processi che avvengono in atmosfera. La sua importanza è legata al fatto che è l’unico tra i gas atmosferici a subire cambiamenti di fase nell’intervallo di pressioni e temperature che si incontrano in atmosfera. Inoltre, i calori latenti per i suoi cambiamenti di fase hanno valori molto elevati, determinando importanti scambi di calore con l’aria e, di conseguenza, sensibili variazioni di temperatura. 2.4 La formazione delle nubi La formazione delle nubi è sempre legata a un processo di condensazione o di sublimazione del vapore acqueo presente nell’atmosfera, che dà origine alle goccioline o ai cristalli di ghiaccio. Da un punto di vista termodinamico, perché si abbia condensazione o sublimazione del vapore devono innanzitutto essere state raggiunte le condizioni di saturazione. Se in una data massa d’aria in condizioni di saturazione, l’umidità aumenta ulteriormente, quella in eccesso condensa 7 sotto forma di goccioline. Affinché il processo possa continuare con formazione di quantità sufficienti di gocce o cristalli per la formazioni della neve, e in modo che queste rimangano stabili (senza evaporare), le condizioni di saturazione devono essere mantenute abbastanza a lungo. La saturazione di una massa d’aria, e quindi la condensazione del vapore, può essere raggiunta o mediante il raffreddamento dell’aria umida o attraverso l’umidificazione della massa d’aria. La maggior parte delle nubi sono causate da processi di raffreddamento. Al diminuire della temperatura l’aria si avvicina alla saturazione essendo minore la quantità di vapore che vi può essere contenuta. Da un punto di vista termodinamico il raffreddamento di una massa d’aria può essere ottenuto mediante i seguenti processi: raffreddamento isobarico; raffreddamento adiabatico o espansione adiabatica. Nel raffreddamento isobarico la massa d’aria rimane alla stessa pressione e viene raffreddata con processi diabatici, ovvero tramite perdita di calore verso il sistema esterno (suolo o masse d’aria adiacenti). La temperatura, nel diminuire, può arrivare ad eguagliare la temperatura di rugiada, determinando così le condizioni di saturazione: T Td => U 100% Nel caso del raffreddamento adiabatico si suppone invece che non vi sia scambio di calore fra la massa d’aria e l’ambiente circostante. Affinché la temperatura della particella d’aria possa diminuire, senza che vi sia apprezzabile scambio di calore con l’aria circostante, deve o diminuire la pressione oppure aumentare il volume. Di fatto il raffreddamento adiabatico è prodotto dal sollevamento della massa d’aria: incontrando pressioni via via minori (la pressione atmosferica 8 diminuisce con la quota), essa subirà un processo di espansione adiabatica con conseguente raffreddamento. Anche sollevamenti che durano ore possono essere considerati adiabatici poiché l’aria è un cattivo conduttore di calore. La saturazione interviene nel momento in cui la temperatura scende fino a eguagliare la temperatura di rugiada. L’apporto di umidità dall’ambiente esterno, in condizioni isotermiche è il secondo processo che può portare alla saturazione. Supponendo costante la temperatura, l’apporto di umidità fa aumentare il valore di q, che può cosi raggiungere il suo valore massimo. Quando ciò avviene la massa d’aria umida raggiunge il suo punto di saturazione. L’aumento di umidità è un processo di scambio del vapore che può avvenire o tra una superficie umida (ad esempio marina) e la massa d’aria sovrastante o per rimescolamento di due masse d’aria con caratteristiche termodinamiche differenti. Nel primo caso, sono le leggi di trasporto turbolento nello stato limite a governare lo scambio di vapore dalla superficie verso la massa d’aria. La velocità di tele scambio è funzione sia del grado di umidità della massa d’aria che dell’intensità del vento. Nel caso del rimescolamento sono le condizioni termodinamiche delle due masse d’aria che vengono a contatto a determinare il grado di umidità e il possibile stato di saturazione della massa d’aria risultante. 2.4.1 Cause meteorologiche della formazione delle nubi Diverse possono essere le condizioni meteorologiche che nella troposfera danno luogo alle trasformazioni termodinamiche appena descritte. Il raffreddamento isobarico è un fenomeno che avviene di frequente e che porta sia alla formazione di nubi che di nebbie. Nel caso della nebbia è la superficie terrestre (suolo o mare), che si suppone più fredda (per irraggiamento o perché gelata nel primo caso, per la maggior inerzia termica rispetto all’aria nel secondo), a sottrarre calore alla massa 9 d’aria sovrastante. E’ cosi che, in presenza di aria stagnante, cielo sereno e calma di vento, si formano foschie e nebbie notturne. Se la saturazione viene raggiunta soltanto nei primi 20-50 cm di aria adiacenti al suolo si ha la formazione di rugiada (se T > 0°C) o di brina (T < 0°C). Nel caso di formazione delle nubi il raffreddamento avviene per irraggiamento dello strato d’aria umido verso strati superiori più secchi e trasparenti alla radiazione termica. Anche in questo caso il processo può durare poche ore e dar luogo a nuvolosità stratiforme. Il raffreddamento adiabatico è prodotto dal sollevamento della massa d’aria. Ricordiamo che una massa d’aria non satura e in movimento verticale verso l’alto si raffredda di circa 1 grado ogni 100 metri. Se l’aria è sufficientemente umida il raffreddamento dà luogo, a una certa quota (base della nube), alla condensazione del vapore sotto forma di nubi, le quali seguitano a svilupparsi verso l’alto fin dove persistono il moto verticale e le condizioni di saturazione che l’hanno originata. I moti verticali ascendenti possono insorgere per quattro distinte cause: convezione; convergenza e divergenza; ostacolo orografici; fonti. 2.4.1.1 Sollevamento convettivo Il sollevamento convettivo si ha quando la massa d’aria viene sospinta verso l’alto dalla forza di galleggiamento (forza di Archimede), determinata da condizioni di inabilità termica rispetto all’ambiente circostante. Dai terreni maggiormente riscaldati dal sole (un campo arato, una vasta area edificata o un suolo roccioso) si staccano, nelle ore centrali della giornata, “bolle” d’aria calda che, per via della loro minore densità rispetto all’ambiente circostante, vengono sospinte verso l’alto. In questo modo si 10 originano delle correnti ascendenti (moti convettivi), le cui velocità verticali sono in genere abbastanza intense (2-10 m/s). Se la massa d’aria è sufficientemente umida. Raggiunto un certo livello (livello di condensazione), essa condenserà dando inizio alla formazione della nube. A questo punto il processo di condensazione, liberando il calore latente di evaporazione, contribuirà a riscaldare ulteriormente la massa d’aria, che acquisterà così una maggior instabilità: il moto convettivo può, cosi, spingersi fino a notevoli altezze (anche 10-12 km fino ai limiti della troposfera), portando alla formazione di nuvole a forte sviluppo verticale quali cumuli e cumulonembi. A distanza di molte centinaia di metri, l’aria calda riscende al di sopra delle aree più fresche, quali ad esempio il boscoa adiacente al campo arato o il prato che circonda il villaggio. 2.4.1.2 Sollevamento ciclonico Nei grandi centri barici (cicloni, anticicloni, promontori, saccature) l’aria è costantemente animata da lenti movimenti verticali (dell’ordine di pochi centimetri al secondo) i quali sono ascendenti sulle aree di bassa pressione e discendenti su quelle di alta. La causa di innesco di un ciclone è la parziale fuoriuscita orizzontale di aria (divergenza) in corrispondenza dei rami ascendenti (sud-occidentali) del getto polare. La divergenza nell’atmosfera genera un calo di pressione al suolo e un risucchio di aria verso l’alto per colmare il vuoto creatosi. La diminuzione di pressione al suolo richiama sul luogo aria dalle zone adiacenti: la convergenza dell’aria sul luogo di diminuzione della pressione causa infine i moti verticali ascendenti. Queste correnti verticali producono un raffreddamento sulle aree di bassa pressione e un riscaldamento su quelle di alta pressione (fenomeno della subsidenza). Il raffreddamento associato alle depressioni raramente supera 1-2°C in 12 ore, però è quasi sempre accompagnato da condensazione del vapore acqueo. 11 2.4.1.3 Sollevamento orografico o forzato Il sollevamento forzato si ha quando una massa d’aria in movimento orizzontale è costretta a sollevarsi di fronte a un ostacolo orografico (ascendenza orografica forzata). Le velocità di sollevamento sono dell’ordine di 0,5-1 m/s, con una diminuzione di temperatura nell’unità di tempo superiore a quella rilevata nei grandi centri barici. Il raffreddamento in genere causa la condensazione del vapore acqueo con estese formazioni nuvolose e precipitazioni sul lato sopravento. Se in partenza l’aria è non satura il suo iniziale moto di ascesa avviene lungo un’adiabatica secca, raffreddandosi di 1°C ogni 100 metri, fino al livello in cui tale raffreddamento non produce la condensazione: il calore liberato dalla condensazione produce attenua il raffreddamento dell’aria in ascesa. Il sollevamento prosegue ora secondo l’adiabatica satura con un gradiente termico che dipende dai valori iniziali di temperatura, umidità specifica e velocità ascensionale. Un valore realistico per tale gradiente termico è di 0,6°C ogni 100 metri. Il movimento ascendente dell’aria sul lato sopravento di una catena montuosa (ad esempio le Alpi), con formazione di nubi e precipitazioni, viene denominato Staü. In tale fase le abbondanti precipitazioni essiccano la massa d’aria in ascesa. Quando poi questa travalica sul versante sottovento, nel loro moto discendente, subisce un riscaldamento per compressione adiabatica di 1°C ogni 100 metri. Tale guadagno di calore, non dovendo essere utilizzato per far rievaporare le nubi formatesi nella fase di ascesa (le masse d’aria sono ormai secche), viene assorbito interamente dalla massa d’aria, che pertanto giunge al suolo più calda e secca (venti fo Föhn) di quanto non fosse in origine. 12 2.4.1.4 Sollevamento frontale Si parla di sollevamento frontale quando la componente verticale del moto ha origine dallo scontro di masse d’aria di diversa provenienza e quindi con caratteristiche termodinamiche differenti. Una massa d’aria calda in movimento verso una zona occupata da aria più fredda è costretta a scivolare sopra quest’ultima. Il fronte caldo è la linea ideale che delimita al suolo l’invasione di aria calda verso aree prima occupate da aria fredda. Viceversa aria fredda in movimento verso regioni occupate da aria calda si incunea sotto quest’ultima, sollevandola con violenza. Il fronte freddo è la linea che delimita al suolo l’irruzione di aria fredda verso aree prima occupate da aria più calda. 2.4.2 Formazione delle gocce e dei cristalli di ghiaccio nelle nubi Il Raggiungimento delle condizioni di saturazione, attraverso i processi termodinamici determinati dalle condizioni meteorologiche sopra descritte, non è però sufficiente per la formazione delle goccioline e quindi delle nubi. Ogni giorno dalla superficie terrestre evaporano nell’atmosfera 1000 miliardi circa di tonnellate d’acqua. Il vapore liberato da oceani, mari, laghi, fiumi e vegetazione viene trasportato verso l’alto dalle correnti aeree ascendenti. Nell’ascesa l’aria si raffredda, per espansione adiabatica, fino a raggiungere, prima o poi, la saturazione. A questo punto sarebbe naturale attendersi che, qualora l’ascesa prosegua, l’ulteriore raffreddamento determini l’unione delle molecole di vapore eccedente generando in tal modo le goccioline della nube (droplet). In realtà il processo non è così semplice e spontaneo, perché la neonata goccia tende a disgregarsi per evaporazione tanto più rapidamente quanto più è piccola. In particolare, in condizioni di saturazione, due molecole di vapore potrebbero restare unite soltanto per un cento milionesimo di secondo; per la formazione di una goccia di 3 molecole, la terza dovrebbe incontrare le altre 13 in tale brevissimo lasso di tempo e il terzetto risulterebbe poi 100 volte più durevole, e così via. Nelle nubi ogni goccia contiene in media 500 miliardi circa di molecole d’acqua. Come è stato possibile metterle tutte insieme? Si potrebbe supporre che là dove si è generata la gocciolina vi siano stati, in tempi brevissimi, miliardi di urti molecolari casuali. Ma si può dimostrare che un simile evento sarebbe possibile soltanto se il numero di molecole di vapore fosse di gran lunga superiore a quello che si riscontra abitualmente in natura in condizioni di saturazione. In particolare, in 1 cm3 di aria, si formerebbe una goccia ogni 1000 anni se la concentrazione di vapore fosse il triplo di quella di saturazione, una goccia al secondo per saturazioni 4 volte superiori e 1000 gocce per concentrazioni quintuple. Bisogna inoltre ricordare che l’equazione di Clausius-Clapeyron, che definisce le condizioni di saturazione in funzione della temperatura, vale per il vapore contenuto in una massa d’aria a contatto con una superficie piana di acqua pura. Se invece il vapore saturo è in equilibrio con le goccioline di una nube, la pressione di vapore saturo E, a parità di temperatura, deve essere maggiore rispetto alla pressione di vapor saturo in equilibrio con la superficie piana liquida. Infatti la forza di coesione che tiene insieme le molecole in una goccia(la tensione superficiale) è minore di quella su una superficie piana liquida, cosicché le molecole di vapore riescono a fuggire più facilmente da una goccia sferica che da una superficie piana. Pertanto, in condizioni di saturazione, il vapore nell’ambiente, per mettersi in equilibrio con le gocce sferiche di una nube, deve esercitare una pressione E maggiore di quella in presenza di una superficie piana, ovvero deve essere presente in concentrazioni molto maggiori. Teoricamente, si può arrivare a valori elevati di sovra saturazione (U = 200 – 500%), senza che si abbia la condensazione del vapore. 14 In realtà, in natura il vapore acqueo non raggiunge mai sovra saturazioni così elevate, e allora occorre supporre che le gocce di nube si formino con qualche altro processo. La sovra saturazione è una condizione di instabilità: fattori esterni possono rompere facilmente l’equilibrio e determinare la formazione di gocce. La presenza in atmosfera di quantità sempre largamente sufficienti di particelle con caratteristiche igroscopiche (nuclei Igroscopici) è il motivo per cui non si osservano mai valori elevati di sovra saturazione e la condensazione avviene in condizioni vicine al punto di saturazione. Gran parte delle particelle di pulviscolo atmosferico, con dimensioni comprese tra 0,1 e 4 micron, funge da nucleo di condensazione, ovvero agevola il “coagulo” delle molecole di vapore acqueo in microscopiche goccioline. In assenza di nuclei igroscopici la condensazione avviene soltanto se si raffredda la massa d’aria satura al di sotto do -40°C oppure in presenza di sovra saturazioni dell’ordine dell’800%. 2.4.3 Tipi di nubi Le nubi presentano una grande varietà di forme e dimensioni. La loro classificazione è fatta in base a: intervallo di quote generalmente occupate nel loro sviluppo verticale; rapporto caratteristico tra dimensioni orizzontali e estensione verticale. Per convenzione internazionale è stato stabilito di suddividere verticalmente la parte dell’atmosfera, in cui le nubi si presentano abitualmente, nelle seguenti tre regioni, con riferimento alle zone temperate delle medie latitudini: regione superiore, cha va da 5 a 13 km; 15 regione media, cha va da 2 a 7 km; regione inferiore, cha va dagli strati prossimi al suolo a 2 km. Le nubi vengono suddivise in nubi alte, nubi medie e nubi basse a seconda che occupino quote dell’alta , della media o della bassa troposfera. Di norma alle medie latitudini le nubi alte sono costituite solo da aghi di ghiaccio e quelle basse da goccioline liquide. Le nubi medie possono presentare, a seconda della quota e della latitudine, l’uno o l’altro aspetto oppure una coesistenza delle due fasi. In genere, le nubi formate da goccioline d’acqua hanno contorni non ben delimitati e , se abbastanza spesse, presentano ombre proprie nella parte inferiore, le nubi costituite da cristalli di ghiaccio hanno invece una struttura sfilacciata e contorni non ben definiti. Con le prime si formano aureole o corone lucenti intorno al sole o alla luna, con le seconde, per effetto della rifrazione e della riflessione dei raggi solari o lunari, si formano gli aloni. In relazione al rapporto tra dimensioni orizzontali e verticali, le nubi vengono distinte in: Nubi cumuliformi: sono caratterizzate da dimensioni orizzontali paragonabili al loro sviluppo verticale. In genere si presentano come formazioni isolate associate a moti convettivi . Quando questi moti sono particolarmente intensi l’estensione verticale della nube può superare quella orizzontale: è il caso delle nubi temporalesche (cumulonembi) che possono estendersi dagli stati prossimi al suolo fino a notevoli altezze, spesso oltre la troposfera. In generale le nubi cumuliformi si formano per una rapida ascesa di aria umida determinata dal riscaldamento degli strati d’aria prossimi al suolo (convezione termica), dal sollevamento forzato da un a catena montuosa o quando aria più calda viene violentemente sollevata da aria più fredda in veloce movimento orizzontale (fronte freddo. Le nubi cumuliformi possono essere late, medie o basse; 16 Nubi stratiformi: le dimensioni orizzontali sono nettamente prevalenti rispetto allo spessore verticale. Il loro aspetto è abbastanza uniforme come conseguenza della stratificazione termica dell’aria in cui si formano e dell’assenza di moti convettivi. Le nubi stratiformi, molto simili agli estesi banchi di nebbia che si osservano al suolo nelle fredde giornate autunnali e invernali, si formano per raffreddamento isobarico di uno strato d’aria al di sotto del punto di saturazione, per trasporto orizzontale (avvezione) di aria più calda al di sopra di uno strato d’aria più fredda o per una lenta risalita di aria dal suolo al di sopra di una massa d’aria più fredda (scorrimento ascendente caratteristico di un fronte caldo). Le nubi stratiformi possono essere alte, medie o basse; Nubi stratocumuliformi : presentano uno sviluppo orizzontale predominante rispetto a quello verticale, ma manifestano una irregolarità di spessore che richiama l’aspetto delle nubi cumuliformi, evidenziando una debole convezione in un’atmosfera essenzialmente stabile. Possono essere medie o basse. In generale delle nubi stratiformi si hanno precipitazione di debole o moderata intensità, diffuse e spesso persistenti, mentre a quelle cumuliformi sono associate precipitazioni intense, a volte violente (grandine), localizzate nello spazio e di breve durata. 17 Tenendo anche conto della loro morfologia, le nubi sono ulteriormente suddivise in 10 generi, descritti in figura 2.2: TIPO NOME cirri Alte cirrocumuli SIMBOLO CARATTERISTICHE CI CC a carattere stratiforme di aspetto sottile e filiforme a carattere cumuliforme di piccole dimensioni apparenti e con massa tondeggiante a carattere stratiforme, sottili, ondulati, CS cirrostrati medie basse altocumuli generalmente traslucidi, separati o in piccoli gruppi AC a carattere cumuliforme di piccole medie apparente altostrati AS a carattere stratiforme, traslucidi od opachi strtocumuli SC a carattere stratiforme irregolare strati cumuli nembostrati cumulonembi ST CU NS CB a carattere stratiforme e continuo molto regolare a carattere cumuliforme, convessi o conici a carattere stratiforme ma di considerevole spessore cumuli a forte sviluppo verticale, associati a fenomeni temporaleschi Figura 2.2 Tipologia delle nubi 2.5 Meccanismo di formazione delle precipitazioni Un altro fenomeno legato a doppio filo al fenomeno dell’umidità è quello della genesi delle precipitazioni, di qualsiasi natura le si intenda. Alla formazione della precipitazione concorrono vari fenomeni i cui meccanismi non sono ancora stati interamente chiariti. La teoria attualmente ritenuta valida è quella proposta nel 1933 dal meteorologo svedese Tor 18 Bergeron. Le precipitazioni possono avvenire solo quando la forza peso delle gocce sarà maggiore della resistenza offerta dal moto ascendente che ha portato alla formazione della nube stessa e che tende a mantenere le gocce in sospensione. Sono necessarie centinaia di milioni di goccioline presenti nelle nubi, che hanno diametri dell’ordine dei 10 – che ha invece dimensioni molto maggiori, con un diametro variabile tra i 500 essenzialmente tre: accrescimento per condensazione, accrescimento per coalescenza e accrescimento per cristalli di ghiaccio detto processo di Bergeron – Findeisen. 2.5.1 Accrescimento per condensazione Il primo meccanismo ipotizzato fu l’accrescimento per condensazione. L’ascensione delle masse d’aria umida determina la condensazione del vapore acqueo in agglomerati d’acqua detti gocce. La formazione di una goccia è quindi un processo non continuo che dipende dalla temperatura e della densità dell’aria e richiede uno stadio di supersaturazione. Per questa caratteristica il processo è detto di nucleazione ed è favorito dalla presenza di particelle solide nell’atmosfera. In ogni caso, anche in assenza di corpi estranei, una volta oltrepassati determinati valori di densità e temperatura si formano delle aggregazioni casuali di molecole d’acqua. Superata la soglia dello stato di equilibrio tra accoppiamenti e scissioni alcune tra queste aggregazioni riescono a raggiungere una dimensione che consente di formare un nucleo di accestimento spontaneo. Questa serie di processi richiede uno scambio di energia importante governato dal principio di minima energia libera. Il processo di formazione di nuclei allo stato solido con formazione di granuli ghiacciati avviene invece per congelamento delle gocce liquide o, in caso di temperature più basse, per sublimazione del vapore acqueo in granuli di ghiaccio. 19 La crescita dei nuclei di aggregazione progressiva e le dimensioni finali dipendono dalle condizioni ambientali in cui si trovano. La supersaturazione in atmosfera non è molto alta e quindi non consente una crescita troppo elevata delle gocce e dei cristalli di ghiaccio. Tuttavia è stato dimostrato che questo fenomeno non può giustificare completamente l’ingrandirsi delle gocce. Questo perché la condensazione avviene in presenza di supersaturazione che rende attivi oltre ai nuclei fortemente igroscopici e di grandi dimensioni, anche quelli piccoli. Quindi ne consegue che il vapore acqueo non va ad ingrossare le gocce già formate ma si distribuisce su un numero maggiore di nuclei. 2.5.2 Accrescimento per coalescenza Questo meccanismo si verifica nelle nubi con temperatura superiore a 0°C e dà luogo alle precipitazioni delle fasce intertropicali ed equatoriale. In queste nubi sono presenti gocce molto grosse originatesi su nuclei fortemente igroscopici – come quelli costituiti da cloruro di sodio – mescolate a numerose gocce più piccole formatesi su nuclei di condensazione di altra specie. Le gocce più grandi, spinte verso l’alto dalle correnti ascendenti, collidono con quelle più piccole e le inglobano, aumentando ulteriormente le loro dimensioni. Fino a che le correnti ascensionali riescono a mantenere le gocce in sospensione, queste ultime continueranno ad accrescersi per coalescenza. Raggiunta la sommità della nube, dove le correnti sono più deboli e divergono lateralmente, le gocce vengono trascinate verso il basso dalla forza di gravità. Inizialmente le correnti ascendenti riescono ad arrestare la caduta delle gocce e a spingerle nuovamente verso l’alto. Si creano così continui saliscendi durante i quali le dimensioni ed il peso delle gocce continuano ad aumentare. 20 Figura 2.3 Coalescenza di una goccia d’acqua Durante la fase di caduta le gocce più grandi collidono con solo una parte delle goccioline incontrate sul loro cammino perché alcune di esse vengono allontanate dal flusso d’aria che si genera attorno alla goccia più grande. Figura 2.4 Durante la caduta le gocce più grandi collidono con una piccola parte delle gocce più piccole incontrate sul loro cammino perché alcune di queste ultime vengono deviate dal flusso d’aria presente attorno alla goccia più grande. 21 In realtà, la semplice collisione non garantisce il verificarsi del fenomeno di coalescenza. Sono infatti possibili quattro modalità di interazioni tra gocce che collidono: Urto elastico; Unione; Unione temporanea e successiva separazione, in modo che le gocce conservino le proprie caratteristiche; Unione temporanea e successiva suddivisione in più gocce di minori dimensioni. Figura 2.5 Possibili modalità di collisione tra le gocce. Il verificarsi di una determinata modalità di interazione dipende dalle dimensioni delle gocce, dalle loro traiettorie e dalle forze elettriche che le caratterizzano e che le circondano. Inoltre, ogni interazione può essere descritta attraverso due parametri: 22 Efficienza di collisione, probabilità che una goccia grande possa collidere con una più piccola incontrata sul proprio cammino; Efficienza di coalescenza, frazione di gocce che subisce il fenomeno della coalescenza tra quelle che collidono. Il prodotto matematico di questi due parametri – che entrambi dipendono sensibilmente dalle dimensioni della goccia urtante – determina il tasso di crescita della goccia e viene detto efficienza di collezione. Figura 2.6 Accrescimento di una goccia per coalescenza, collisione e condensazione. Esperimenti in laboratorio indicano che l’efficienza di coalescenza si avvicina all’intero se le goccioline sono cariche elettricamente o se si è in presenza di un campo elettrico. Queste condizioni si verificano quasi sempre nelle nubi, in particolar modo in quelle a sviluppo verticale, quindi spesso l’efficienza di collezione coincide con quella di collisione. È quindi necessario determinare la percentuale di collisione all’interno della popolazione delle gocce per poter descrivere il meccanismo di formazione della precipitazione. 23 Date due gocce di raggi fissati R ed r, esiste un valore critico del parametro di impatto, definito come la distanza tra i centri delle due gocce, entro il quale la collisione avviene quasi sicuramente e fuori dal quale la goccia più piccola viene deflessa dal suo cammino senza che avvenga l’urto. Sperimentalmente è stato osservato che la massima efficienza di collisione – e quindi di collezione – si ha quando il rapporto tra i raggi è di circa 0.6. È stato dimostrato che il fenomeno di crescita per coalescenza è favorevolmente influenzato dalla presenza di moti turbolenti, che permettono alle gocce di collidere e fondersi più rapidamente di quanto non avvenga all’interno di un’atmosfera in quiete. I vortici d’aria fanno si che le gocce si concentrino in gruppi più densi, aumentando così la frequenza delle collisioni. Inoltre le gocce più grandi subiscono un ulteriore accrescimento a spese delle gocce più piccole, a causa della differenza di tensione di vapore. Infatti le gocce a diametro maggiore perdono meno molecole per evaporazione di quelle a raggio minore. Si può infine notare che lo spettro di distribuzione delle dimensioni delle gocce risulta molto più ampio nel caso di crescita per coalescenza rispetto a quello di crescita per condensazione. 2.5.3 Accrescimento dei cristalli di ghiaccio: processo di Bergeron – Findeisen Questo meccanismo si verifica nelle nubi fredde, dove la temperatura è inferiore a 0°C, o in nubi miste, dove sono presenti sia goccioline sopraffuse che particelle di ghiaccio. Quando la temperatura della nuvola è sufficientemente bassa il vapore contenuto nell’aria circostante diventa saturo rispetto all’acqua e le goccioline non mostrano alcuna tendenza né ad accrescere né ad evaporare. Ma la presenza degli aghetti di ghiaccio destabilizza questa situazione di equilibrio. Questo perché la tensione di vapore in corrispondenza di saturazione è minore sul ghiaccio rispetto all’acqua e quindi le molecole 24 d’acqua, a parità di temperatura, abbattono più facilmente una superficie piana liquida che una ghiacciata. Definendo il rapporto di saturazione come rapporto tra la tensione di vapore e e la tensione di vapore saturo E, il rapporto di saturazione Si rispetto al ghiaccio risulta: Si = e/Ei da cui: Si = e/E * E/Ei = S*E/Ei con S rapporto di saturazione rispetto all’acqua. Poiché: E>Ei Si ha che: Si>S Il vapore in atmosfera può trovarsi in condizioni non sature rispetto all’acqua – goccioline – ma già in condizioni di sovrasaturazione rispetto al ghiaccio – cristalli di ghiaccio. La coesistenza di queste due condizioni favorisce un continuo passaggio delle molecole di vapore che dalle goccioline vanno a depositarsi sui cristalli di ghiaccio. Questi ultimi si accrescono allora progressivamente, fino a raggiungere anche i 100 μm. A causa del loro peso, cadono con notevole velocità urtando all’interno della nube le gocce ed i cristalli che hanno dimensioni e velocità di caduta minori; negli urti numerosi cristalli di ghiaccio e gocce aderiscono al cristallo più grande, congelandosi al suo contatto. Avviene quindi nuovamente un fenomeno di coalescenza, che porta alla formazione di grossi cristalli dalla cui unione hanno poi origine i 25 fiocchi di neve. Questi cristalli arrivano al suolo come tali se la temperatura degli strati più bassi dell’atmosfera rimane sotto zero, mentre si trasformano in grosse gocce d’acqua se la temperatura è superiore. Figura 2.7a - Accrescimento di un cristallo di ghiaccio all'interno di una nube attraverso il processo di Bergeron – Findeisen. Viene inoltre indicata la tipologia di precipitazione che raggiunge il suolo. oppure Figura 12.7b 26 La forma dei cristalli di ghiaccio è molto variabile. Le modalità di accrescimento del cristallo, e dunque la sua forma finale, dipendono essenzialmente dalle condizioni di temperatura ed umidità e dal grado di sovrasaturazione delle masse d’aria in cui avviene la crescita e non dalla sua forma iniziale. Infatti, quest’ultima è sempre riconducibile ad un mattoncino esagonale. Figura 2.8 Morfologia dei cristalli in funzione delle condizioni ambientali: temperatura e sovrasaturazione rispetto al ghiaccio. 2.5.4 Tipologie di precipitazione La temperatura alla quale si verifica la condensazione del vapore acqueo nelle masse d’aria determina la tipologia di precipitazione: pioggia, neve, grandine, nebbia, rugiada e brina. 27 Per la formazione di pioggia e neve è necessaria la presenza di granelli di polvere sospesi nell’aria che permettano l’agglomerazione delle molecole d’acqua. Quando la loro condensazione avviene ad una temperatura superiore agli 0°C e il diametro della goccia supera gli 0.5 mm si ha la pioggia. Se invece la temperatura rimane al di sotto degli 0°C, le molecole d’acqua cristallizzano e si trasformano in ghiaccio. Questi cristalli, attraversando strati d’aria a temperature superiori agli 0°C, fondono e si aggregano nuovamente formando fiocchi di neve che possono raggiungere anche dimensioni notevoli. Un altro tipo di precipitazione è la grandine. I chicchi di grandine hanno forma sferica e dimensioni estremamente variabili tra i 5 ed i 125 mm. Sono costituiti da un nucleo centrale formato da un granello di polvere ed avvolto alternativamente da uno strato di ghiaccio trasparente e da uno strato di ghiaccio opaco. La grandine si forma quando le gocce di pioggia sono spinte da forti correnti verso l’alto, dove ghiacciano, e poi verso il basso, dove fondono in parte. Ad ogni saliscendi si forma un nuovo strato di ghiaccio ed il chicco aumenta di dimensione. Quando invece la condensazione delle molecole d’acqua presenti nelle masse d’aria si verifica vicino al suolo si ha la nebbia. Nella stagione calda, durante la notte, quando il suolo si raffredda maggiormente rispetto all’aria, la condensazione delle molecole d’acqua forma la rugiada. Infine, nelle notti invernali, quando la temperatura si abbassa notevolmente, le molecole d’acqua sublimano direttamente allo stato solido formando la brina, costituita da piccoli cristalli di ghiaccio. 28 2.6 Termodinamica atmosferica 2.6.1 Termodinamica dell’aria secca Risulta ora necessario proporre un’introduzione a delle leggi termodinamiche che governano il fenomeno umidità.. La termodinamica è quella parte della fisica che si occupa degli scambi di energia meccanica (lavoro) e termica (calore) tra i corpi e l’ambiente che li circonda. Le principali leggi della termodinamica sono basilari per la comprensione dei fenomeni dell’atmosfera, da quelli più piccoli responsabili della formazione di una gocciolina di nube e della dispersione di un pennacchio di fumo, a quelli a grande scala collegati alla circolazione generale atmosferica. Uno degli scenari più semplici di analisi di questi fenomeni è sicuramente quello di masse d’aria lontane dalla saturazione (aria secca). 2.6.1.1 I sistemi termodinamici e l’equazione di stato dei gas perfetti Lo stato termodinamico di un sistema gassoso come l’atmosfera è determinato dai valori delle grandezze di pressione, volume e temperatura. Si distinguono sistemi termodinamici : isolati (il sistema non scambia né materia né energia con l’ambiente esterno); chiusi (il sistema scambia materia ma non energia con l’ambiente esterno); aperti (il sistema scambia sia materia che energia con l’ambiente esterno). Se in un sistema non avviene alcun cambiamento (cioè se pressione, temperatura, volume, composizione chimica ecc. rimangono costanti), il sistema si dice in equilibrio termodinamico. Un sistema termodinamico 29 subisce una trasformazione termodinamica quando scambia calore e/o lavoro (in una parola, energia) con l’ambiente che lo circonda. Si distinguono trasformazioni: isoterme (a temperatura costante); isobare (a pressione costante); isocore (a volume costante); adiabatiche (senza scambi di calore con l’ambiente). Nelle trasformazioni è necessario fissare per convenzione un segno (+/-) da dare alle due grandezze calore e lavoro, per distinguere se lo scambio avviene tra il sistema e l’ambiente o viceversa. Il calore si assume positivo se acquistato dal sistema e negativo se ceduto dal sistema all’ambiente, all’opposto il lavoro si assume negativo se subito dal sistema e positivo se fatto dal sistema sull’ambiente. Si consideri ora come sistema termodinamico un gas il cui stato sia determinato dai valori di pressione P, volume V e temperatura T. Si definisce perfetto (o ideale) un gas che soddisfa le seguenti condizioni: le particelle che costituiscono il gas sono puntiformi; tra le particelle non esistono interazioni a distanza; gli urti tra le particelle sono elastici (cioè avvengono senza perdita di energia) non si manifesta alcun tipo di fenomeno elettrico Nessun gas reale, e l’aria non fa certo eccezione, possiede questi requisiti: si tratta di un astrazione che però ha il vantaggio di rendere più semplice lo studio dei sistemi termodinamici gassosi. Un gas ideale infatti ubbidisce a leggi fisiche, la cui espressione matematica risulta di facile comprensione ed utilizzo: 30 legge di Boyle (trasformazione a temperatura costante) P*V= costante legge di Charles (trasformazione a pressione costante) VT = α*V0*T legge di Gay-Lussac (trasformazione a volume costante) PT = α*P0*T dove: VT = volume del gas alla temperatura T; V0 = volume del gas alla temperatuta di 0°C; PT = pressione del gas alla temperatura T; P0 = pressione del gas alla temperatura di 0°C; α = valore costante pari a 1/(273,15 °C). Nelle principali leggi della termodinamica l’unità di misura adottata per la temperatura è gradi Kelvin (K) e non Celsius (°C). Il passaggio da una scala all’altra è molto semplice e governato da questa semplice relazione K=°C+273,15 Le tre leggi viste sopra sono tra loro collegate e con alcuni semplici passaggi matematici sono riassumibili in un’unica relazione detta equazione di stato dei gas perfetti : P*V =n*R*T dove: n = numero di moli del gas (una mole è la quantità di gas in cui peso in grammi è numericamente pari al peso atomico o molecolare del gas); R = costante di stato dei gas perfetti pari a 8,314 J/(mole*K). Questa relazione, per quanto relativa ai gas ideali, ha un importanza fondamentale nello studio dei sistemi termodinamici gassosi, anche perché in molti casi il comportamento di un gas reale risulta comunque approssimabile a quello di un gas perfetto. 31 2.6.1.2 L’equazione di stato per l’aria secca L’aria può essere considerata con buona approssimazione come un gas perfetto di peso molecolare M=29. Pertanto anche per l’aria secca l’equazione di stato applicata a un numero n di moli è espressa da: P*V=n*R*T con R = 8,314 J/(mole*K) = 8314 J/(Kmole*K). Ma, essendo n = m/M (m = massa dell’aria in chilogrammi), si ha: P*V = (m/M)*R*T = m*(R/M)*T La quantità R/M è una costante specifica dell’aria, di solito indicata con Ra (Ra = 287 J/(Kg.K)). Quindi l’equazione di stato per l’aria diviene: P*V = m*Ra*T o, se si considera una massa d’aria unitaria, P*V = Ra*T. Poiché m/V = ρ (densità dell’aria), l’equazione di stato diviene: P = ρ*Ra*T che è l’equazione di stato per l’aria secca. Tale relazione è molto utile per ricavare l’espressione della densità dell’aria: ρ = P/(Ra*T) 32 2.6.1.3 Il primo principio della termodinamica per l’aria secca Lo studio dei sistemi termodinamici ha portato alla formulazione di una delle più importanti leggi fisiche, nota con il nome di primo principio della termodinamica. L’energia, in natura, non si crea e non si distrugge ma può solo trasformarsi da una forma a un’altra. In particolare il lavoro, fatto o subito da un sistema, ed il calore, assorbito o ceduto, si trasformano l’uno nell’altro, o al più contribuiscono al cambiamento dell’energia interna del sistema. Per energia interna di un gas si intende quella forma di energia che il sistema possiede già di per sé a causa del movimento e della posizione delle singole molecole che lo compongono (in fisica prendono il nome di energia cinetica e potenziale molecolare). Nei gas perfetti l’energia interna dipende esclusivamente dalla temperatura del gas. Tenendo conto delle convenzioni sui segni di calore e lavoro viste, il primo principio della termodinamica per i gas perfetti, e quindi anche per l’aria secca, si esprime simbolicamente attraverso la relazione: ΔU = ΔQ – ΔL dove: ΔU è l’energia interna del sistema; ΔQ è il calore scambiato tra sistema e ambiente; ΔL è il lavoro scambiato tra sistema e ambiente. Conviene ricordare che da un punto di vista matematico, il simbolo Δ (delta) rappresenta una variazione. Così l’espressione ΔU indica la variazione dell’energia interna del sistema e non il suo valore assoluto. A seconda del tipo di trasformazione termodinamica, il primo principio della termodinamica assume ovviamente espressioni diverse. 33 Trasformazione isoterma: poiché lo stato energetico di un gas è determinato esclusivamente dalla sua temperatura, se la temperatura è costante lo è anche l’energia del gas e si ha: ΔU = 0; ΔQ = ΔL Trasformazione adiabatica: ΔQ = 0; ΔU + ΔL = 0 Trasformazione isocora: ΔL = 0; ΔU = ΔQ 2.6.1.4 Il gradiente termico verticale dell’atmosfera L’andamento della temperatura con la quota prende il nome di gradiente termico verticale dell’atmosfera e assume in meteorologia un’importanza fondamentale. La stessa stabilità atmosferica e cioè l’attitudine dell’atmosfera nel favorire, impedire o comunque condizionare i movimenti verticali dell’aria, dipende direttamente da tale gradiente. Nella troposfera la temperatura diminuisce con la quota in media di 6,5°C circa per chilometro (atmosfera in stato subadiabatico o atmosfera subadiabatica). Lo stato subadiabatico è la norma a quote oltre gli 800-1000 metri, mentre in prossimità del suolo raramente il gradiente termico verticale è di 6,5 °C per chilometro perché le prime centinaia di metri di troposfera sono influenzate dagli scambi di calore con il suolo. Di notte, ad esempio, il raffreddamento del suolo per irraggiamento può creare inversioni termiche dello spessore anche di 200-300 metri. Le inversioni termiche con base al suolo possono essere immaginate come un caso esasperato di atmosfera subadiabatica e possono essere osservate anche nelle masse d’aria calda provenienti da più basse latitudini, quando sorvolano 34 a lungo il mare, situazione abbastanza frequente quando sui nostri bacini soffia lo Scirocco. Viceversa nelle ore diurne il surriscaldamento del suolo si propaga anche alla bassa troposfera, generando, nei primi 200-800 metri, una forte diminuzione della temperatura con la quota, fino a 10°C per chilometro (atmosfera in stato adiabatico) o anche di più (atmosfera in stato superadiabatico). Sul mare i gradienti termici superadiabatici si osservano solo quando una massa d’aria abbastanza fredda sorvola un mare più caldo, una situazione, anche questa, abbastanza frequente sui nostri bacini, quando aria fredda nord-atlantica sospinta da venti di Maestrale o di Libeccio, entra nel Mediterraneo, un mare che a parità di latitudine è circa 4°C più caldo del vicino Atlantico. 2.6.2 Termodinamica dell’aria umida Dopo aver esaminato le proprietà termodinamiche dell’atmosfera nell’ipotesi,sostanzialmente astratta, di aria secca non contenente vapore acqueo o comunque lontana da eventuali processi di condensazione, verrà ora esaminata la condizione più realistica di aria umida, in grado di dar luogo, sotto determinate condizioni, a processi di condensazione del vapore acqueo in essa contenuto, caratterizzata dalla presenza di fenomeni elettrici. 2.6.2.1 Trasformazioni adiabatiche per l’aria umida Si è già visto che una particella di aria secca, in movimento verticale, è soggetta a espansione o compressione adiabatica, a seconda che il moto sia diretto verso l’alto o verso il basso, con una conseguente variazione della temperatura della particella nella misura di 10°C per chilometro (gradiente termico adiabatico ad). Si consideri ora invece il movimento verticale di una particella di aria satura. In questo caso la variazione ΔT di temperatura che avviene al suo interno può essere vista come somma di due distinti contributi: 35 una variazione Δa legata all’espansione o alla compressione adiabatica della massa d’aria in movimento; una variazione Δp determinata dalla condensazione del vapore saturo in eccesso (nel caso in cui la particella sia in moto verso l’alto) o dall’evaporazione delle goccioline d’acqua (nel caso in cui la particella si muova verso il basso). Ad esempio nel caso di una massa d’aria satura in ascesa la trasformazione adiabatica complessiva, può essere immaginata così composta: un primo tratto tra il livello iniziale della pressione (p + Δp) e quello finale alla pressione p, durante il quale la particella, per espansione, subisce un raffreddamento Δa; un secondo tratto, a pressione p, durante il quale la massa d’aria satura condensa l’eccesso di vapore determinato dal raffreddamento Δa. Di conseguenza l’aria viene riscaldata, a pressione costante, di una quantità Δp legata all’ immissione del calore latente di condensazione. Il procedimento può essere ripetuto, passo dopo passo, fin quando, nel suo movimento verso l’alto, la massa d’aria non abbia condensato tutto il vapore acqueo presente. Una volta che la massa d’aria è giunta alla saturazione e sono iniziati i processi di condensazione, si possono verificare due situazioni differenti: il vapore condensato rimane all’interno della massa d’aria satura (non si ha precipitazione); se la stessa massa d’aria subisse ora un riscaldamento adiabatico (ad esempio per effetto della compressione in fase di caduta da un pendio), il vapore condensato rievaporerebbe e la massa d’aria si riporterebbe nelle condizioni iniziali (processo reversibile); parte del vapore condensato precipita verso terra; in questo caso riscaldando adiabaticamente la stessa massa d’aria, non si riuscirebbe 36 a tornare esattamente alle stesse condizioni di partenza poiché mancherebbe il contributo dato al riscaldamento dalla rievaporazione dell’acqua precipitata. La trasformazione è cioè irreversibile e prende il nome di pseudo adiabatica. In entrambi i casi, comunque, la variazione complessiva ΔT di temperatura subita dalla massa d’aria satura per uno spostamento verticale ΔZ è minore che nel caso di aria secca. Infatti ora i due termini Δa e Δp sono di segno opposto sia nel caso di aria satura in ascesa sia in quello di aria satura in discesa e pertanto tendono a compensarsi. Tuttavia, siccome il temine Δa prevale in assoluto sul termine Δp, si deduce che, anche nel caso di aria satura, la massa d’aria si raffredda se è in ascesa e si riscalda se è in discesa. Ma ora il raffreddamento o il riscaldamento subiti in uno spostamento ΔZ sono ovviamente inferiori al corrispondente caso dell’aria secca. 2.6.2.2 L’equazione di stato per l’aria umida Nell'aria è sempre presente una piccola quantità di vapore acqueo, indicativamente circa 1% in massa, per cui si può correttamente parlare di aria umida. L'aria atmosferica “secca” di cui sopra, è, come noto, una miscela di ossigeno ed azoto (O2 ≅ 23% e N2 ≅ 76% in massa). La presenza di una quantità così ridotta di vapore acqueo nell’aria potrebbe apparire, ad un primo esame, di scarsa importanza tecnica. Ma in realtà anche piccole differenze nelle “modeste” quantità di vapore presenti nell'aria possono comportare notevoli conseguenze pratiche: ad esempio influenzare la sensazione di benessere termico delle persone o influenzare, e in notevole misura, la conservazione di oggetti e manufatti, etc. L'aria umida viene considerata nella pratica come una miscela di aria (gas) e di vapore acqueo (vapore surriscaldato), 37 prescindendo dalla sua composizione in ossigeno ed azoto. Si dice, quindi, che l'aria umida è una miscela d’aria secca e di vapore acqueo. Poiché lo stato del vapore può essere considerato “sufficientemente rarefatto” il comportamento di questo e dell’aria secca, e cioè dell’aria umida, può essere descritto con buona approssimazione mediante l’equazione di stato dei gas perfetti. In particolare, indicando con Pt la complessiva pressione della miscela aria-vapore e con nt il totale del numero di moli presenti nel volume V, si può scrivere: Pt*V = nt*R*T dove nt = na + nv ed essendo na e nv rispettivamente il numero di moli di aria e di vapore. L’equazione dei gas perfetti può essere ora scritta anche per ciascun componente nella forma: Pa = na* R*T/V Pv = nv*R*T/V dove Pa e Pv assumono il significato di pressioni parziali di questi componenti della miscela. Si noti che le pressioni Pa e Pv vengono così a rappresentare la pressione che ciascun componente (aria e vapore) eserciterebbe qualora occupasse da solo, e alla stessa temperatura T, l'intero volume a disposizione V. Esplicitando i numeri di moli si ottiene: na = Pa*V/R*T nv = Pv*V/R*T nt = Pt*V/R*T per cui, sostituendo nella relazione nt = na + nv, si ottiene la relazione tra la pressione totale della miscela gassosa e le pressioni parziali dei componenti: Pt = Pa + Pv 38 Questa relazione prende il nome di Legge di Dalton ed è valida per i soli gas perfetti. Tenendo conto dei bassi valori di Pv nell’aria atmosferica (circa 1300 - 2000 [Pa]) la relazione risulta del tutto corretta. Si consideri il diagramma (P,V) dell'acqua in figura 2.12: sul diagramma, lo stato del vapore presente nell'aria sia rappresentato dal punto 1. In questo stato (P1, V1) nell'aria sono presenti ρv1 = 1/V1 [kg/m3] di vapore. Se è nota la pressione totale Pt della miscela e, ad esempio, la pressione atmosferica, risulta anche determinata la composizione della miscela in moli nv/nt potendosi scrivere: Pv/Pt = nv/nt S’immagini, ora, che la temperatura dell'aria atmosferica diminuisca a parità però della pressione Pt. Durante questo processo la pressione parziale Pv si mantiene costante, finché la composizione dell'aria umida, definita dal rapporto nv/nt, rimane inalterata. Figura 2.9 Diagramma (P,V) dell'acqua 39 La trasformazione 1→2 sul diagramma (P, V) è isobara (la temperatura diminuisce fino al valore T2). Nello stato 2, il vapore è ormai saturo. Se la temperatura diminuisce ulteriormente lo stato del vapore non potrà che spostarsi a destra lungo la curva limite del vapore saturo verso più elevati valori del volume specifico (minori densità). In corrispondenza, la pressione Pv e il numero di moli di vapore presenti nella fase aeriforme nv diminuiranno e si separerà l’acqua, nell'aria si formerà una minuta dispersione di goccioline (nebbia). La temperatura T2 è detta temperatura di rugiada dell’aria. L'appannamento della superficie esterna di un bicchiere contenente una bibita gelata (formazione di minutissime goccioline d’acqua sulla superficie esterna) è dovuta proprio al raggiungimento della temperatura di rugiada dell’aria sulla tale superficie. Si supponga ora di considerare nuovamente lo stato rappresentato dal punto 1. È possibile immaginare di raggiungere la saturazione anche muovendosi a temperatura costante e cioè muovendosi sul diagramma verso sinistra, fino a giungere al punto 3 (T3 = T1). Ciò potrebbe essere realizzato mantenendo costante la temperatura dell'aria in un ambiente e aggiungendo a poco a poco vapore fino a che la Pv, aumentando progressivamente, non giunge al massimo valore consentito cioè al valore della pressione di saturazione Ps (T1). In altre parole, la saturazione del vapore può essere raggiunte sia raffreddando l'aria a Pt = cost, sia immettendo vapore nell'ambiente a T = cost. 40 3 Gli strumenti di misura dell’umidità dell’aria Negli ultimi anni si è assistito ad un crescente interesse verso i sensori di umidità per il monitoraggio ed il controllo dell’umidità dell’aria non solo in settori di interesse tradizionali, quali quello del condizionamento ambientale e meteorologico, ma anche in campo strettamente industriale. Si pensi ai numerosi processi industriali di controllo nei sistemi di essiccazione, di produzione e di stoccaggio, ma anche all’aumentato numero di applicazioni agroalimentari, museali, aeronautiche. A tale scopo differenti tipi di sensori sono stati sviluppati per soddisfare le diverse condizioni di operabilità richieste in ciascun campo di applicazione. Prima di descrivere i principi di misura dell’umidità ed i relativi sensori é opportuno evidenziare che la misura di umidità é spesso ottenuta tramite uno o più misure di parametri termoigrometrici differenti, quali: il titolo w, l’umidità relativa φ, la temperatura di rugiada Tr, la temperatura di bulbo umido Tu, etc., situazione, questa, meteorologicamente complessa sia dal punto di vista delle prestazioni di misura che delle limitazioni operative del sensore. E' utile sottolineare che l'umidità, come qualsiasi altra grandezza di misura, può essere misurata in modo "diretto", se il sensore fornisce il parametro di interesse senza dover conoscerne esplicitamente altri, o in modo "indiretto", valutando per calcolo il valore del parametro di interesse misurandone altri ad esso collegati (UNI 4546). É quindi possibile raggruppare i diversi principi di misura ed i relativi sensori in due categorie: igrometri diretti, che presentano una relazione funzionale 41 esistente tra l’umidità e una proprietà fisica (come ad esempio gli igrometri a capello, gli igrometri capacitivi, ecc.) igrometri indiretti, che effettuano una trasformazione termodinamica e misurano quindi l’umidità indirettamente sulla base di una relazione termodinamica (come ad esempio gli igrometri a specchio condensante in cui viene effettuata una trasformazione di raffreddamento isobara e isotitolo, gli psicrometri in cui viene effettuata una trasformazione di saturazione quasi adiabatica). Una classificazione simile può essere effettuata sulla base del parametro termoigrometrico misurato. In particolare, é possibile distinguere tra "sensori relativi" e "sensori assoluti" a seconda che questi misurino un parametro termoigrometrico relativo o assoluto. Nell'ipotesi di un assegnato valore della pressione dell'aria umida (generalmente costante e pari alla pressione di 101325 al livello del mare), è sempre possibile risalire indirettamente da una misura di un parametro relativo al valore di un parametro assoluto attraverso l'ulteriore misura della temperatura dell’aria Ta, (o di un'altra proprietà termodinamica indipendente). In tal caso, la misura indiretta sarà ovviamente affetta da un’incertezza funzione delle singole incertezze di misura secondo le note leggi della propagazione. Nel seguito vengono trattate, tra le numerose metodologie di misura, solo quelle normalmente utilizzate nelle applicazioni industriali. Sono stati, inoltre, brevemente esaminati quei sensori ottenuti tramite miglioramenti tecnologici di principi convenzionali che non hanno trovato ancora estese applicazioni industriali. Sono stati, invece, tralasciati quei sensori basati su principi di misura che non hanno ancora avuto sostanziale diffusione sul mercato, quali, ad esempio, gli igrometri spettroscopici, gli igrometri ottici come quelli a ad infrarosso, ad ultravioletto (Lyman alpha) e a fibre ottiche, gli igrometri acustici come quelli ad ultrasuoni e ad onde superficiali, gli igrometri ad effetto corona. Sono stati volutamente tralasciati 42 i metodi di tipo primario, come quelli gravimetrici, ed i generatori di umidità a due temperature, a due pressioni e a miscelamento, utilizzati esclusivamente in laboratorio per la taratura. Vanno infine menzionati gli igrometri a viraggio di colore, che sebbene stiano riscuotendo un certo interesse dal punto di vista industriale, possono essere considerati più che degli strumenti di misura degli indicatori qualitativi dell’umidità dell’aria. Per ognuna delle metodologie di misura esaminate sono state riportate, a valle di una descrizione sintetica del principio di misura e delle tecnologie utilizzate, le principali caratteristiche metrologiche in termini di campo di misura, incertezza e tempo di risposta. Sono, inoltre, evidenziate le principali caratteristiche operative e modalità di installazione. 3.1 Igrometri diretti Gli igrometri diretti sono probabilmente i sensori tecnologicamente e funzionalmente più semplici, pertanto presentano un costo relativamente basso. Negli ultimi anni la ricerca di nuovi materiali ha portato ad un sensibile incremento dell’affidabilità dei sensori igroscopici diretti, in modo particolare quelli di tipo elettrico, consentendone un ampia applicazione in ambito industriale e di laboratorio. Gli igrometri diretti possono essere classificati in modo diverso a seconda del principio di misura (meccanici, elettrici, a risonanza, ecc), delle tecnologie di produzione (a film sottile, a film spesso, a stato solido, ecc.) o ancora dei materiali utilizzati (polimerici, ceramici, ecc.). Nel seguito vengono suddivisi i diversi sensori in funzione del principio di misura in igrometri meccanici ed igrometri elettrici. 3.1.1 Igrometri meccanici Il primo e più popolare dispositivo di misura dell'umidità di tipo meccanico sembra essere stato realizzato per la prima volta dal De Sassure. Franchman e Regnault misero ulteriormente a punto tale strumento basato sul 43 fenomeno, a tutti ben noto, dell'elongazione di capelli umani in funzione dell'umidità. Successivamente tali dispositivi sono stati realizzati utilizzando materiali diversi quali membrane, sia animali che sintetiche, carta, tessuti. Nei dispositivi ad uscita elettrica, la variazione dimensionale del materiale igroscopico in funzione del contenuto di vapor d'acqua assorbito viene trasdotta nella variazione di resistenza elettrica di un potenziometro o di un estensimetro. Il campo di misura tipico di tali strumenti va dal 20% al 90%, per temperature comprese tra 0 e 40°C con una incertezza di misura raramente inferiore a ±5%. Il sensore, infatti, mostra un comportamento non lineare ed una sensibilità ridotta agli estremi del campo di misura (ad esempio per un igrometro a capelli la sensibilità varia da circa 0.5.mm/UR% m al 15%, fino a circa 0.05 mm/UR% m all'85%). Le scadenti prestazioni metrologiche, associate alla non trascurabile deriva nel tempo, ai fenomeni di isteresi, ai fenomeni di contaminazione superficiale, all’elevato tempo di risposta ed alla elevata sensibilità alle vibrazioni, rendono utilizzabili tali dispositivi più per indicazioni qualitative che per applicazioni strettamente metrologiche. D’altra parte la semplicità costruttiva rende tali strumenti molto economici e comodi per l’assenza di alimentazione elettrica. Per tali motivi l'uso in ambiente domestico ne costituisce il principale campo applicativo. Un impiego altrettanto frequente è quello di registratore delle condizioni ambientali associato ad un sensore di temperatura ed ad un sistema di registrazione a pennino. In tal caso il sistema prende il nome di termoigrografo. 44 Figura 3.1 Sensori di umidità igroscopici a rilevazione meccanica: a) a capello b) a membrana 3.1.2 Igrometri elettrici I sensori di umidità igroscopici elettrici sono basati sulla variazione delle proprietà elettriche dell'elemento sensibile in funzione della quantità di acqua adsorbita o absorbita dall'ambiente di misura. Il principio di funzionamento dipende dal tipo di elemento sensibile che può misurare una variazione di capacità, una variazione di resistenza o più in generale una variazione di impedenza. Gli igrometri resistivi misurano la variazione di resistenza dell’elemento sensibile. Si distinguono due modi di conduzione elettrica per questo tipo di sensori: conduzione di superficie e conduzione di massa. Nel modello a conduzione di superficie, i contatti elettrici sono disposti sulla faccia del film igroscopico di cui viene misurata la variazione di resistenza. Nel modello a conduzione di massa, invece, si misura la variazione della conduttività nella massa del materiale igroscopico interposto tra i due elettrodi. E’ inoltre possibile distinguere tra sensori che sfruttano la variazione di conducibilità ionica di una opportuna soluzione elettrolitica (ad esempio di LiCl) al variare del contenuto di vapor d'acqua presente 45 nell'ambiente di misura, oppure la variazione di conducibilità elettronica. Il primo sensore del tipo a variazione di conducibilità ionica fu sviluppato da F. W. Dunmore intorno alla fine degli anni '30 si basa sulla natura igroscopica del sale utilizzato. L'adsorbimento del vapor d'acqua contenuto nell'aria causa una variazione di resistenza elettrica, misurata in c.a. per evitare fenomeni di polarizzazione, che risulta proporzionale all'umidità relativa. Il campo di misura caratteristico di tali igrometri é però molto ristretto, pertanto, per coprire campi di misura più estesi (tipicamente 15÷90 %), é necessario disporre di una batteria di sensori aventi diverse percentuali di LiCl. Attualmente gli igrometri resistivi ionici più diffusi sono quelli polimerici che sfruttano l'incremento della conducibilità ionica di alcuni polimeri organici al variare della quantità di acqua adsorbita. Ciò é dovuto all'incremento della mobilità ionica e/o alla variazione della concentrazione dei portatori di carica. Un sensore di questo tipo molto noto é il cosiddetto "elemento di Pope". Analogamente a quello al LiCl, il sensore é costituito da un tubo o da una superficie piana polimerica su cui sono rispettivamente avvolti a spirale o disposti a greca due fili paralleli a formare due elettrodi (Figura 3-2). L’incremento di acqua adsorbita provoca come detto un aumento della conducibilità superficiale. La resistenza elettrica del film è di circa 107 Ω intorno al 30-40% U.R. e decresce esponenzialmente con l’aumentare dell’umidità relativa. La caratteristica del sensore è pertanto di tipo non lineare del tipo: avendo indicato con R la resistenza del film resistivo e α e β due coefficienti caratteristici. 46 Un esempio di substrato utilizzato é il polistirene trattato con acido solforico. A causa della struttura chimica facilmente compatibile è anche possibile aumentarne la sensibilità attraverso la copolimerizzazione. Spesso il polimero si trova accoppiato come elemento igroscopico insieme ad altri materiali come allumina o silicio. Un problema di non poco conto nell’utilizzare questi materiali come sensori di umidità è la loro facile idrosolubilità e la poca resistenza agli agenti atmosferici, anche se possono comunque avere un impiego a lungo termine dopo essere stati stabilizzati con una copertura costituita da una pellicola di resina. Inoltre il sensore risulta altresì molto sensibile alla temperatura rendendo necessaria una termocompensazione. Figura 3.2 Schema costruttivo e curva caratteristica tipica di sensori resistivi(Norton, 1989) Per quanto riguarda gli igrometri a variazione di conducibilità elettronica, essi sono costruttivamente simili a quelli ionici, ma risultano ancora poco utilizzati rispetto a questi ultimi. Tra essi i più diffusi sono probabilmente i sensori a film di carbonio. Essi consistono in un film igroscopico resistivo realizzato sia in forma cilindrica che in "wafer". Il film igroscopico é costituito generalmente da un supporto in plastica, sul quale sono depositati i due elettrodi e da un film sottile di cellulosa gelatinosa nel quale sono contenuti polveri di carbonio in sospensione. La maggior parte dei sensori di tipo resistivo presenta dei campi di utilizzo 47 più limitati rispetto ai sensori di tipo capacitivo. Le temperature di impiego solitamente vanno dai –10°C ai 60°C con un range di umidità che varia dal 5 % al 95% U.R.. I sensori ceramici resistivi presentano, rispetto ai polimerici resistivi, sia un campo di impiego in temperatura più esteso, che la possibilità di operare in condizioni di saturazione. Sensibilità, stabilità e affidabilità del sensore dipendono naturalmente dalla particolare struttura chimica del materiale adoperato. Mediamente l’incertezza risulta circa pari al 2-5%. I tempi di risposta tipici sono nell’ordine del minuto, ma esistono sensori che presentano tempi di risposta anche inferiori. Infine, per alti valori di umidità possono presentarsi fenomeni di deriva della caratteristica soprattutto in presenza di gas estranei, quali alcool e ammine, mentre gli idrocarburi aromatici, vapori acidi ed ossidi acidi come SO2 e NO2 possono essere addirittura distruttivi. Gli igrometri capacitivi presentano un funzionamento simile ad un condensatore in cui il dielettrico è un materiale igroscopico (solitamente polimerico o ceramico). Generalmente uno degli elettrodi è permeabile al vapor d’acqua. L’equilibrio igrometrico che si stabilisce tra l’isolante e l’ambiente, modifica la permettività relativa del dielettrico. Il risultato è una variazione della capacità dell’elemento sensibile che si trasforma in un’informazione rappresentativa dell’umidità relativa dell’aria. Questo tipo di dispositivo è sensibile all’umidità relativa poiché esso è in equilibrio termico con l’ambiente da caratterizzare. Le caratteristiche elettriche del dispositivo rendono trascurabile l’energia scambiata con l’ambiente per autoriscaldamento. Nella maggior parte dei casi la grandezza del sensore è ridotta e quindi direttamente utilizzabile “in situ”. Lo schema costruttivo tipico di tale sensore é mostrato in Figura 3-3; esso consta di un substrato isolante sul quale é depositato mediante attacco chimico l'elettrodo inferiore costituito da due contatti gemelli. Un sottile film polimerico, avente uno spessore di circa 1 µm, ricopre tale strato e fa da supporto all'elettrodo superiore, permeabile al vapor d'acqua, depositato 48 sotto vuoto su tale film. I materiali polimerici utilizzati per sensori commerciali sono per esempio acetato di cellulosa, polistirene, poliammide. Il sensore presenta una caratteristica tale che all'aumentare dell’umidità relativa (e quindi della quantità di acqua absorbita dal polimero) aumenta la costante dielettrica del polimero absorbente. Sostanzialmente simili a quelli polimerici dal punto di vista costruttivo i sensori ceramici sono costituiti da uno strato di materiale ceramico poroso sulle cui facce sono disposti due elettrodi generalmente costituiti da un materiale a porosità più elevata. I sensori ceramici essendo realizzati con processi di sinterizzazione sono molto stabili sia chimicamente che fisicamente. I materiali tipicamente utilizzati sono ceramiche porose sinterizzate ottenute a partire da ossidi di cromo, magnesio, ferro, stronzio, stagno ed alluminio. Sono in fase di studio anche le caratteristiche di sensori basati su ceramiche realizzate a partire da idrossidi di vari metalli sinterizzati. La curva caratteristica dei sensori capacitivi può essere descritta con buona approssimazione da una relazione del tipo: avendo indicato con εf, εw e εo le costanti dielettriche dell’acqua, del film sensibile e nel vuoto, ν la frazione volumetrica dell’acqua absorbita dal sensore, A la superficie degli elettrodi ed L lo spessore del dielettrico. Da tale relazione si evince che all’aumentare del rapporto tra la costante dielettrica dell’acqua e quella del film sensibile aumenta la sensibilità del sensore stesso. Inoltre la caratteristica é funzione della frequenza eccitante. Il campo di misura dei sensori capacitivi è molto ampio e varia tra circa il 5 ed 100%. E’ opportuno comunque tener presente che come per gli igrometri resistivi molti materiali polimerici non possono essere utilizzati in condizioni di saturazione a causa della solubilità del polimero stesso; ciò ovviamente ne limita il campo di misura in condizioni di saturazione. L’incertezza di misura risulta talvolta migliore del ± 2% con ottime 49 caratteristiche di linearità almeno fino al 90 %. Il tempo di risposta è variabile a seconda del tipo di polimero (o materiale ceramico) e della sua porosità da pochi secondi (per l'acetato di cellulosa) a circa un minuto (per la poliammide). Il campo di impiego in temperatura è generalmente simile a quello dei sensori resistivi e dipende dal tipo di film utilizzato. Figura 3.3 Schema costruttivo e curva caratteristica tipica di un sensore capacitivo I sensori a variazione di impedenza ad ossido di alluminio, malgrado la loro non eccellente stabilità, sono molto diffusi per uso industriale per i loro ottimi tempi di risposta, anche in corrispondenza di bassi valori di umidità. Essi, inoltre, sono adatti alla misura in presenza di idrocarburi sia gassosi che liquidi e possono soddisfare i requisiti di sicurezza intrinseca. Il sensore consiste di uno strato sottile di ossido di alluminio depositato su di un metallo stabile che ha la funzione di elettrodo. In particolare, se lo spessore del film di ossido é in film spesso (maggiore di 1 µm) il sensore risulta sensibile all’umidità relativa, se invece é in film sottile (minore di 0.3 µm) il sensore risulta sensibile all’umidità assoluta. La tecnica attualmente più utilizzata é quella di deposito in film sottile in seguito descritta. In tali sensori un sottile rivestimento, usualmente in oro, é depositato per evaporazione sotto vuoto sull'ossido per formare il secondo elettrodo. Tale elettrodo é tanto sottile da consentire alle molecole d'acqua il passaggio 50 dall'ambiente di misura verso lo strato poroso e viceversa. Attualmente i sensori possono essere costruiti utilizzando uno strato di silicio che funziona da base. Il vapor d'acqua che circonda l'elemento viene adsorbito o desorbito dall'ossido di alluminio fino a raggiungere una condizione di equilibrio con l’ambiente circostante. La quantità di acqua adsorbita, direttamente proporzionale alla pressione di vapore ed inversamente proporzionale alla temperatura T, determina una variazione sia della costante dielettrica che della conducibilità superficiale dell'ossido di alluminio. In figura 4 sono mostrati rispettivamente lo schema costruttivo e la curva caratteristica tipica di un sensore ad ossido di alluminio. Dalla curva caratteristica si evince che essa é approssimativamente esponenziale e ciò implica una minore sensibilità per bassi valori di umidità. Sensori tecnologicamente avanzati sono stati ottenuti utilizzando la tecnologia a film sottile depositando l'alluminio su una base conduttiva di silicio. In quest'ultima, sono alloggiate un riscaldatore ed un sensore per la misura della temperatura dell'elemento di ossido. Ottimi risultati sono stati ottenuti attraverso un sistema di condizionamento del segnale mediante algoritmi implementati per via software ed hardware in grado di effettuare le dovute compensazioni alle grandezze di influenza tipiche del sensore. Figura 3.4 Schema costruttivo e curva caratteristica tipica di un sensore all'ossido di alluminio. 51 Il campo di misura di tali sensori é generalmente compreso, in termini di temperatura di rugiada, tra -30 e 60 °C, ma esistono realizzazioni che consentono misure tra -110 e 60 °C (0.01 ÷ 200000 ppmv). L'incertezza di misura varia tra circa ± 2 °C, in un campo compreso tra -30 e 60 °C, fino ad un massimo di ± 5 °C per temperature di rugiada inferiori, mentre il tempo di risposta é di pochi secondi sull'intero campo di misura. Essi, inoltre, possono essere utilizzati sia a bassissime che ad elevate pressioni (da 6.7*10-1 a 3.4*107 Pa) e con velocità del flusso di misura variabili da 0 a 0.5 m/s (in aria). I sensori ad ossido di alluminio presentano effetti rilevanti sulla caratteristica umidità-impedenza in funzione della temperatura, dell'invecchiamento e della contaminazione superficiale. I campi di applicazione sono molto vari in quanto essi possono essere utilizzati sia per gas che per liquidi; in particolare, vengono utilizzati nell'analisi di idrocarburi, gas criogenici, gas naturale, aria essiccata, olii, liquidi organici, ecc.. 3.1.3 Altri sensori diretti Accanto ai sensori tradizionali su riportati sono stati recentemente introdotti sul mercato alcuni interessanti sensori diretti innovativi tra cui i sensori FET e quelli piezoelettrici. I sensori FET sono basati sulle proprietà dei transistor ad effetto di campo. Tale tipologia di sensori viene realizzata integrando il sensore di umidità con un diodo, utilizzato come termoelemento, sullo stesso chip e fabbricato secondo gli standard e le tecnologie dei circuiti integrati. La membrana sensibile all'umidità é costituita ad esempio da acetato di cellulosa ed é posta tra due elettrodi porosi in oro. I sensori piezoelettrici misurano la variazione della frequenza di risonanza del sensore costituito da: i) un cristallo di quarzo, che funge da elemento per il controllo della frequenza in un circuito oscillante; ii) un rivestimento igroscopico, generalmente di tipo polimerico che ricopre il cristallo oscillante; iii) un sistema di misura della variazione della frequenza di 52 risonanza. Tali sensori presentano un campo di misura di 0÷20.000 ppmv con un incertezza di misura variabile dell’ordine del 2%V.L; essi risultano sensibili alla contaminazione superficiale e ad alcuni agenti chimici contaminanti. 3.2 Igrometri indiretti Tutti gli igrometri indiretti effettuano la misura di umidità sulla base di una trasformazione termodinamica e misurano quindi l’umidità relativa indirettamente sulla base di una relazione termodinamica. In particolare negli igrometri a specchio condensante viene effettuata una trasformazione di raffreddamento isobara e isotitolo fino a raggiungere le condizioni di saturazione; la condizione di saturazione viene raggiunta invece in modo diverso negli psicrometri e nei saturatori adiabatici in cui viene effettuata una trasformazione adiabatica; negli igrometri elettrolitici la trasformazione è invece quella di essiccazione. In ogni caso per ottenere la misura dell’umidità nelle condizioni iniziali è necessaria la conoscenza delle trasformazioni termodinamiche utilizzate e delle relative relazioni. Sebbene gli igrometri indiretti siano funzionalmente più complessi di quelli diretti, essi sono generalmente più accurati e vengono per lo più utilizzati in laboratorio come campioni di trasferimento. 3.2.1 Igrometri a specchio condensante La condensazione del vapore atmosferico su di una superficie fredda é stato da lungo tempo utilizzata come indice del contenuto di vapor d'acqua presente nell'aria. Basti pensare che 200 anni fa la tecnica dello specchio raffreddato, su cui osservare l'incipiente condensazione del vapore, era già utilizzata. Il principio di misura, comune a tutti gli igrometri a specchio condensante, é basato sulla progressiva diminuzione della temperatura superficiale di un elemento sensibile. La conseguente diminuzione della temperatura dell'aria 53 atmosferica che lo lambisce prosegue fino al raggiungimento della condizione di saturazione con la conseguente formazione di un sottile film liquido (o solido) sull'elemento. La trasformazione termodinamico corrisponde ad un raffreddamento isotitolo a pressione costante fino alla temperatura di rugiada Tr o di brina Tb. Infatti in particolari condizioni termo igrometriche il raffreddamento del campione di aria può provocare un passaggio diretto del vapore acqueo dalla fase vapore a quella solida (temperatura di brina o frost point). L'istante in cui misurare la Tr (o Tb) è fissato dalla rilevazione dell'incipiente condensazione; é, quindi, necessario disporre di un opportuno sistema che fornisca tale informazione. Esistono svariate metodologie di rilevazione dell'incipiente condensazione del vapor d'acqua tra cui quella i) ottica (a specchio condensante); ii) capacitiva; iii) resistiva; iv) nucleare; v) della frequenza di risonanza; vi) ad iniezione d'acqua. In seguito sarà descritta in dettaglio solo quella ottica poiché è sicuramente quella che trova largo impiego in ambito industriale e scientifico. Il sistema di misura risulta in generale costituito dai seguenti sottosistemi: un sistema di rilevazione della condensa sullo specchio; un sistema di regolazione e controllo della temperatura dello specchio; un sistema di misura della temperatura. Negli igrometri a specchio condensante la rilevazione delle condizioni di incipiente condensazione avviene attraverso fotosensori ed in particolare mediante la variazione dell'indice di riflessione associato ad un fascio luminoso incidente sulla superficie raffreddata. In tal caso il sistema di rilevazione dell'incipiente condensazione del vapor d'acqua é costituito da uno o due rilevatori ottici sensibili alla variazione della radiazione riflessa dalla superficie raffreddata a causa della formazione di condensa o di ghiaccio. Il sistema di controllo e regolazione mantiene costante lo spessore del film mediante dei cicli di raffreddamento e riscaldamento della superficie. Tale superficie di condensazione viene denominata specchio per la sua particolare finitura superficiale. La misura della temperatura di rugiada viene, infine, effettuata mediante un sensore di temperatura (normalmente una termoresistenza al 54 platino) collocata al di sotto della superficie dello specchio per minimizzare le inevitabili incertezze dovute ai gradienti superficiali. Lo strumento di misura é mostrato schematicamente in Figura 3-5. L’elemento refrigerante raffredda lo specchio sulla cui superficie incide una radiazione luminosa. Tale raffreddamento é generalmente realizzato mediante un elemento Peltier che é utilizzabile anche per il successivo riscaldamento una volta effettuata la misura. Il raffreddamento dello specchio é causa dell'incipiente condensazione del vapore, il che provoca una variazione dell'intensità luminosa misurabile da un fotosensore opportunamente disposto. In particolare, disponendo di almeno due fotosensori investiti, uno dal fascio luminoso relativo allo specchio asciutto e l'altro dal fascio riflesso nelle condizioni di incipiente condensazione, è possibile rilevare anche una piccola quantità di condensa presente sullo specchio poiché essa genera una brusca variazione di segnale all'uscita del ponte in cui sono inseriti i fotosensori. Infatti, per aumentare la sensibilità di misura e per compensare eventuali variazioni di intensità luminosa emessa dalla sorgente, si fa generalmente ricorso a strutture a ponte di fotorilevatori. Questi ultimi costituiscono i due rami attivi di un ponte di misura; é ovvio, che la posizione dei due fotosensori é scelta in base a considerazioni statistiche riguardanti la distribuzione spaziale dell'intensità della luce diffusa in condizioni di incipiente condensazione. Per effettuare una misura accurata della temperatura dello specchio è necessario resistenza sotto la superficie dell'elemento riflettente. 55 incollare una termo Figura 3.5 Schema costruttivo e trasformazione termodinamica di un igrometro a condensazione con rilevazione ottica: (1) sorgente di luce;(2) specchio riflettente; (3) rilevatore di condensa; (4) sistema di controllo; (5) sensore di temperatura; (6) sistema di raffreddamento/riscaldamento (generalmente un elemento Peltier);(7) uno scambiatore). Particolari problemi insorgono in quelle situazioni in cui bisogna effettuare il monitoraggio continuo quando il valore dell'umidità cambia nel tempo (ad esempio per il controllo di processo). Per ovviare anche a tale problema sono stati messi a punto alcuni sensori a specchio condensante con un sistema di regolazione della temperatura dello specchio che non funziona stabilmente sulla temperatura di rugiada, ma oscilla continuamente tra la temperatura dell’aria e quella di rugiada. In generale é possibile distinguere due diverse tipologie: "a prelevamento" ed "ad immersione" (anche detta “in situ”). Nel caso di misuratori "in situ" la sonda, come per gli altri sensori di umidità, viene posizionata all'interno della camera di prova evitando in alcune realizzazioni che l’elettronica venga portata a temperature o ad umidità relative esterne al proprio campo di corretto funzionamento. Nel caso, invece, di misuratori "a prelevamento" il sensore andrà posizionato in un circuito parallelo al campione in modo da non influenzare o non essere influenzato da quest'ultimo. I campi di misura di tali strumenti sono compresi tra -100 e 100°C in termini di temperatura di rugiada; più propriamente il campo di misura dovrebbe essere espresso in termini di massima depressione (differenza tra la temperatura dell’aria e quella di rugiada) non esistendo alcuno strumento 56 che riesce a misurare depressioni pari a 200°C. La depressione, e quindi la temperatura di rugiada misurabile, è funzione della potenza dell’elemento refrigerante che può essere a due, tre, quattro o cinque stadi e può inoltre presentare sistemi di scambio termico ausiliari ad aria a ventilazione forzata, ad acqua o ad evaporazione. Sicuramente lo svantaggio maggiore, che caratterizza questo tipo di sensore, é la sua complessità; ciò giustifica i costi elevati in paragone agli altri igrometri commerciali. Per quanto riguarda il tempo di risposta, esso é funzione della velocità di riscaldamento/raffreddamento dello specchio; per gli igrometri industriali a specchio raffreddato tipicamente si ha circa 1°C/s. 3.2.2 Psicrometri I sensori di umidità psicrometrici, comunemente denominati psicrometri, sono stati nel passato i dispositivi maggiormente utilizzati nel campo della meteorologia e della termotecnica. Questa tecnica di misura, che risale ai primi dell'ottocento, si basa sulla misura della differenza di temperatura (depressione) esistente tra due termometri: il primo misura la temperatura di dell’aria (anche denominata temperatura di bulbo asciutto), il secondo la temperatura alla quale si porta un termometro mantenuto costantemente bagnato mediante una garza ed investito dalla corrente d’aria umida (denominata temperatura di bulbo umido). A rigore la temperatura di bulbo umido non è una proprietà di stato sebbene in molti testi esistano relazioni e diagrammi che correlano tale grandezza ad altre proprietà di stato. La ragione di ciò è che spesso si usa l’approssimazione di considerare la temperatura di bulbo umido coincidente con la temperatura di saturazione adiabatica. E’ infatti stato largamente dimostrato sperimentalmente che in particolari condizioni sperimentali (i.e. carico termico radiativo trascurabile e velocità dell’aria maggiore di circa 23 m/s) le due grandezze possono considerarsi praticamente coincidenti. E’ evidente che tale approssimazione comporta comunque un aumento dell’incertezza di misura e che solo una taratura può garantire misure accurate. A testimonianza della complessità dell’argomento basti pensare 57 che più di 1000 lavori teorici e sperimentali sugli psicrometri sono stati recentemente censiti. Differenti tipi di psicrometri sono disponibili sul mercato; essi possono essere classificati in due categorie: psicrometri a ventilazione naturale e a ventilazione forzata. Questa distinzione non è però sufficiente a caratterizzare i diversi tipi di psicrometri che si differenziano oltre che per il metodo di ventilazione, per la direzione del flusso (assiale o trasversale), per la schermatura dei termometri (doppia o singola), per il tipo di termometro (a bulbo, a termocoppia, a resistenza), per il tipo di garza (a tessuto, a micropori, ecc.), per l’alimentazione dell’acqua (continua o discontinua). Tutti questi fattori possono influenzare la caratteristica dello strumento e quindi la costante psicrometrica. Infatti numerosi studi teorici e sperimentali hanno dimostrato che quest’ultima non è una costante ma dipende oltre che dallo stato termodinamico, dal tipo di psicrometro. August, Maxwell e Arnold hanno posto le basi della moderna teoria psicrometrica. Threlkeld, Harrison, Kusuda, Wylie, e Sonntag hanno invece approfondito la teoria dello strumento contribuendo alla messa a punto dell’attuale modello teorico di funzionamento dello strumento. In particolare Wylie, modificando la teoria di Kusuda, ha messo a punto un modello su uno psicrometro standard a flusso trasversale ventilato. La teoria di Wylie però sebbene verificata sperimentalmente su uno psicrometro a flusso assiale non risulta generalizzabile come dimostrano gli studi sperimentali di Sonntag. Lo psicrometro, sebbene la complessità del suo principio di misura, è particolarmente semplice dal punto di vista costruttivo. Esso é costituito da una coppia di sensori di temperatura, dove il bulbo di uno é mantenuto asciutto mentre l'altro, rivestito di un manicotto, é impregnato di acqua in fase liquida (Figura3-6). Solitamente tale manicotto é costituito da una garza di cotone, ma esistono come accennato realizzazioni in altri tessuti o materiali ceramici porosi. Ai fini della misura risulta essenziale che il manicotto sia permanentemente impregnato d'acqua; ciò é reso possibile per strumenti discontinui bagnandoli di volta in volta, mentre per psicrometri a funzionamento 58 continuo lo strumento é corredato da un serbatoio di alimentazione. La maggior parte degli psicrometri tradizionali utilizza termometri a riempimento a mercurio o ad alcool, ma le realizzazioni più moderne presentano termometri ad uscita elettrica che consentono una più semplice interfacciabilità ad unità di elaborazione dati con calcolo e visualizzazione diretta dell’umidità relativa. La coppia di termometri è generalmente inserita in uno o due condotti metallici che fungono da schermi radiativi. L’aria umida viene forzata a lambire il termometro da un sistema manuale di rotazione (e.g. sling psicrometer) oppure da una ventola (e.g. aspirated psicrometer). Il funzionamento dello psicrometro é descritto dalla relazione di Ferrel semplificata: da cui è facile ricavare le relazioni di misura dell’umidità relativa e del titolo: dove A è la cosiddetta costante psicrometrica; ts (Ts) e tu (Tu) sono la temperatura di bulbo asciutto e di bulbo umido rispettivamente in °C (K); xs, Ts e xs, Tu sono le frazioni molari nelle condizioni di saturazione alla temperatura ts e tu; x è la frazione molare dell’aria umida; φ è l’umidità relativa dell’aria umida; w il titolo dell’aria umida. La relazione di Ferrel su riportata è evidentemente una semplificazione dell’equazione di bilancio dell’energia effettuata sul termometro a bulbo umido: 59 Dove Qc rappresenta il flusso convettivo tra aria e termometro, Qr il flusso radiativo tra termometro e schermo radiativo, Qk il flusso conduttivo lungo lo stelo del sensore (questo può essere in prima approssimazione trascurato) e QM il flusso di calore associato all’evaporazione dell’acqua dal termometro a bulbo umido ed infine Qv il flusso di calore associato al flusso di acqua liquida dal serbatoio. Figura 3.6 Schema costruttivo e trasformazione termodinamica di uno psicrometro. Il valore della costante psicrometrica adottato dal WMO nel 1990 per un igrometro Assmann è di 6.53*10-4 per acqua in fase liquida e di 5.75*10-4 acqua in fase solida. Tali valori sono stati calcolati da Sontag sulla base di numerose prove sperimentali di diversi sperimentatori. Il campo di misura degli psicrometri generalmente varia all'incirca tra il 10% ed il 100% in un campo di temperatura solitamente compreso tra 5 e 60 °C. Esistono tuttavia versioni di psicrometri che possono funzionare anche al di sotto dello 0°C su film di ghiaccio e a valori di umidità ridotti. Il tempo di risposta é funzione della velocità dell’aria e tipicamente dell'ordine di qualche minuto per velocità dell’aria di circa 3 m/s. 60 L’incertezza di misura è generalmente compresa tra il ±3-5%UR, anche se per applicazioni di laboratorio esistono realizzazioni più precise (±1-2%UR). Anche in un sistema di misura correttamente progettato, é necessario tenere in conto fattori come la contaminazione del manicotto impregnato d'acqua, o una velocità dell'aria diversa da quella progettuale. Per tale motivo è indispensabile quindi pulire periodicamente lo psicrometro (ed in particolare la garza e lo schermo radiativo), utilizzare acqua distillata (ed attendere un tempo sufficiente all’equilibrio termico di questa con l’ambiente), effettuare la misura minimizzando i carichi radiativi e le variazioni della velocità da quella nominale, tenere in debito conto delle variazioni della costante psicrometrica con la temperatura e soprattutto delle variazioni dell’umidità relativa con la pressione. 3.2.3 Igrometri a sali saturi Il sensore di umidità a sali saturi in questione, "satured salt dew point sensor", é molto simile all'elemento del Dunmore descritto in precedenza, pur sfruttando un principio di misura alquanto diverso. Il funzionamento del sensore é basato sul principio che la pressione di vapore di una soluzione salina è inferiore a quella dell’acqua. In particolare, essa aumenta al crescere della temperatura e diminuisce all'aumentare della concentrazione del sale disciolto. Quando il vapor d'acqua presente in un campione di aria umida condensa su di un sale igroscopico forma, sulla superficie di quest'ultimo, un sottile strato di soluzione satura. Per quanto detto, la pressione di vapore di questo strato é inferiore a quella del vapor dell'acqua contenuta nell'aria circostante. Se la soluzione salina viene riscaldata, la pressione di vapore dello soluzione aumenta fino ad eguagliare quella del vapore d’acqua ed i fenomeni di condensazione ed evaporazione raggiungono una condizione di equilibrio. La temperatura della soluzione corrispondente a tale condizione é direttamente correlata alla temperatura di rugiada dell'aria. Dal punto di vista costruttivo, l'igrometro é costituito da un tubo su cui é alloggiato un manicotto absorbente impregnato da una soluzione salina di 61 LiCl al 5% e ricoperto da due elettrodi (Figura 3-7). Alimentando il circuito elettrico in c.a., in modo da evitare la polarizzazione degli elettrodi, l'avvolgimento si riscalda per effetto Joule. Il campo di misura in termini di temperatura di rugiada è compreso tra 40°C e 60°C in un ampio campo di impiego in temperatura dell’aria. Figura 3.7 Schema costruttivo e trasformazione termodinamica di un igrometro a sali saturi. L’incertezza di misura é compresa tra ± 0.5 e ± 1.5 °C, mentre, il tempo di risposta è compreso tra i 10 e i 180 s ad una velocità dell'aria incidente di circa 0.5÷2 m/s . Il principale vantaggio dei sensori a sali saturi, rispetto a tutti gli altri a condensazione, é dovuto al fatto di poter misurare la temperatura di rugiada riscaldando l'elemento sensibile. Un piuttosto che raffreddando ulteriore vantaggio rispetto agli altri sensori 62 elettrici é la scarsa dipendenza dalla contaminazione superficiale rinnovando periodicamente il LiCl. Inoltre in termini di rapporto costo/prestazioni i sensori a sali saturi si presentano più vantaggiosi rispetto agli igrometri a condensazione e ad elettrolisi. La principale limitazione di questo tipo di sensore é dovuta all'impossibilità di utilizzo quando la pressione parziale del vapore dell’aria umida é inferiore alla pressione di vapore della soluzione di LiCl. Ciò evidentemente limita verso il basso il campo di misura dello strumento (UR%>11%). Nell'utilizzo dei sensori a sali saturi bisogna prestare particolare attenzione alla velocità dell'aria ed alla presenza di impurità superficiali. Infatti, una velocità maggiore di quella consigliata dal costruttore comporta generalmente un aumento dello scambio termico convettivo ed un aumento dell'evaporazione; ciò determina un valore della temperatura misurata più bassa di quella teorica. Al contrario la presenza di impurità generalmente, un ritardo nell'evaporazione del comporta, vapore assorbito e quindi una temperatura misurata maggiore di quella teorica. 3.2.4 Igrometri elettrolitici Gli igrometri elettrolitici, talvolta anche denominati igrometri coulombmetrici, sono specificamente utilizzati per misure di aria umida con bassi contenuti di vapor d'acqua. Una portata di aria umida, opportunamente controllata, viene inviata alla cella sensibile essiccante che assorbe completamente il contenuto di acqua del campione. Applicando ai capi dei due elettrodi una differenza di potenziale si può osservare l'elettrolisi dell'acqua adsorbita dal film di P2O5 in ossigeno ed idrogeno. La misura della corrente richiesta é direttamente proporzionale al numero di molecole d'acqua dissociate, nella misura di due elettroni per ogni molecola d'acqua. Un'ulteriore misura della portata dell'aria e della temperatura permette di realizzare una misura indiretta dell’umidità. 63 Il sensore (Figura 3-8) é costituito da un avvolgimento bifilare di elettrodi inerti (generalmente in platino) posto sulla superficie interna di un capillare di vetro o teflon rivestito da un film igroscopico costituito da pentossido di fosforo, P2O5, parzialmente idrato. Il sensore presenta un campo di misura compreso tra 0.1 e 1000 ppmv, con un ristretto campo di impiego in temperatura 0 – 40°C, un’incertezza di misura superiore a +/- 5% V.L. ed un tempo di risposta di circa 1 min. L'incertezza sulla misura dell'umidità é evidentemente influenzata dalla incertezza della misura della portata di aria. Tali sensori sono utilizzabili per la maggior parte dei gas inerti, organici ed inorganici, ma temono la presenza di sostanze che possono reagire con il P2O5 (ammina, ammoniaca, alcool, ecc.) o che siano comunque corrosive (cloro, ecc.). Deve inoltre essere evitato l'uso in presenza di idrocarburi insaturi che possono occludere la cella formando polimeri. Il principale vincolo dei sensori elettrolitici é costituito dall'elevata sensibilità al contenuto di idrogeno e di ossigeno nel campione. Infatti, un errore tipico di tali strumenti é dovuto alla ricombinazione di idrogeno ed ossigeno in acqua ed il successivo riassorbimento di questa. Per limitare questi effetti sono stati apportati nel tempo alcuni accorgimenti, quali ad esempio, la soluzione di avvolgere i due elettrodi all'esterno del capillare invece che all'interno, evitando così i suddetti fenomeni di occlusione. In questo caso il gas lambisce esternamente il capillare in uno spazio anulare. 3.2.5 Altri sensori indiretti Come per i sensori diretti esistono numerosi altri sensori indiretti che, pur non trovando ancora una larga diffusione, sono stati utilizzati anche in campo industriale o di laboratorio. Si pensi ad esempio agli igrometri condensazione diversi da quelli a rilevazione ottica come quelli a rilevazione capacitiva, resistiva in frequenza, gli igrometri a condensazione con variazione di pressione, gli igrometri a condensazione ad iniezione d'acqua. 64 Gli igrometri a condensazione a rilevazione capacitiva o a rilevazione resistiva sono, in linea di principio, analoghi a quelli a specchio condensante, ma presentano un sistema di rilevazione della condensa di tipo capacitivo o resistivo. La condensazione del vapor d'acqua sulla superficie sensibile causa infatti sia una variazione della capacità sia un aumento del valore della conducibilità elettrica superficiale. Con tali sensori é possibile misurare temperature di rugiada in campi molto ampi e con un'incertezza di misura variabile tra ± 0.5 e ± 1.0 °C. Il costo del sensore risulta inoltre notevolmente ridotto. 3.3 Criteri di scelta degli strumenti di misura La classificazione sopra riportata, unita alla conoscenza specifica delle diverse metodologie di misura, può essere di grande aiuto nella scelta del sensore. Infatti, a seconda dell'applicazione, é generalmente necessario determinare o un parametro assoluto (processi di essiccazione, pesatura, distillazione, ecc.) o uno relativo (benessere termoigrometrico, industria cartaria, agroalimentare, ecc). Una oculata scelta del dispositivo di misura più idoneo non può prescindere da fattori metrologici ed impiantistici, quali l'incertezza, il campo d'impiego in temperatura, il tempo di risposta e la modalità di installazione. A tale scopo in Tabella 3-1 sono riportate sinteticamente le caratteristiche metrologiche di funzionamento e di installazione relative ai singoli principi di misura discussi in dettaglio nei precedenti paragrafi. Un’analisi semplicistica della tabella può però condurre a scelte erronee essendo ad esempio l’incertezza generalmente funzione sia del tenore d'umidità, che della temperatura di impiego; é, quindi, sempre necessario tenere in debito conto di tutte le caratteristiche del sensore. Per ciò che concerne l’incertezza di misura non sempre il confronto tra le diverse tecniche di misura è immediato, specie tra strumenti diretti ed indiretti. Infatti nella stima dell’incertezza, è sempre necessario tener conto 65 di tutte le incertezze che concorrono alla misurazione (e quindi nel caso di una misura indiretta sempre l’incertezza nella misura della temperatura e talvolta l’incertezza nella misura di pressione) e, ovviamente, della sensibilità a ciascun parametro di misura (si noti che la sensibilità in generale può cambiare al variare delle condizioni di misura e ciò rende ancor più complessa la valutazione). In generale, anche alla luce della propagazione delle incertezze nelle misure indirette, é consigliabile una misura diretta del parametro termoigrometrico di interesse. Tuttavia, una misura diretta di un parametro relativo (tipicamente l’umidità relativa), spesso è di difficile realizzazione con incertezze accettabili, specie agli estremi del campo di misura (valori inferiori al 5÷10%UR o superiori al 95%UR) a causa delle limitazioni tecnologiche connesse ai sensori relativi. In particolare, per bassi valori dell’umidità relativa, é preferibile utilizzare sensori a condensazione o elettrolitici che in tale campo di misura sono in grado di apprezzare concentrazioni di vapor d'acqua anche di poche ppm. Per valori prossimi alla saturazione, invece, è consigliabile l'uso di sensori a condensazione o di psicrometri. Considerazioni impiantistiche quali la modalità di installazione, il rapporto costi/prestazioni, possono, per contro, suggerire l'utilizzo di sensori relativi tipicamente meno complessi e costosi di quelli assoluti, anche dove sarebbe necessaria la misura di un parametro assoluto. Inoltre per la maggior parte dei sensori sussistono particolari limitazioni, quali: la contaminazione superficiale, l'incompatibilità fisica in ambienti severi o l'incompatibilità chimica con alcuni composti, il controllo del flusso, la sensibilità a particolari grandezze d'influenza. E’ necessario dunque verificare caso per caso l’applicabilità del metodo di misura. Particolare importanza riveste infine il tipo di montaggio caratteristico della metodologia utilizzata. Le misure di umidità, infatti, possono effettuarsi, a seconda dei casi, sia direttamente nell’ambiente di misura, sia immergendo la sola parte sensibile, sia prelevando dall’ambiente di misura un campione d’aria umida. Nel caso di misura in "ambiente" il sensore viene collocato 66 direttamente nell'ambiente di misura; nel caso di misura ad “immersione” solo la parte sensibile del sensore viene collocata all’interno dell’ambiente di misura, posizionando così l’elettronica (nella maggior parte dei casi il trasmettitore) in un ambiente meno severo; nel caso infine di misura con "prelevamento" viene prelevato dall’ambiente di misura un opportuno campione d’aria umida e trasportato mediante un condotto al sensore. E' bene considerare che in quest'ultima situazione devono essere considerate le possibili variazioni dello stato termodinamico dell'aria umida durante il passaggio nei condotti di prelievo, causate, ad esempio, da fenomeni di condensazione o di assorbimento delle pareti. In tale evenienza il campione prelevato é caratterizzato da un tasso d'umidità profondamente diverso da quello originario. Dal punto di vista delle prestazioni bisogna, infine, sottolineare la scarsa idoneità dei sensori fortemente intrusivi alle misure in ambienti di dimensioni ridotte, dove forti scambi di massa e di energia termica non possono essere tollerati, senza la conseguente alterazione delle condizioni di misura. Il tempo di risposta dei sensori di umidità infine può assumere un ruolo chiave nella scelta del sensore in tutte quelle condizioni in cui il processo da monitorare risulta non stazionario. In tal caso è necessario scegliere un sensore che presenta un tempo di risposta inferiore al tempo caratteristico di evoluzione del processo misurato. Nel caso specifico il tempo di risposta può variare da pochi secondi a diversi minuti in funzione sia delle caratteristiche del sensore che del moto relativo aria-sensore. 67 Figura 3.8 Caratteristiche metrologiche tipiche dei sensori di umidità dell'aria industriali 3.4 Il telerilevamento Ad oggi uno dei metodi più utilizzati, che è risultato necessario anche per la produzione dei dati utilizzati nel nostro lavoro, al fine di ottenere misurazioni di umidità è il telerilevamento. Con il termine telerilevamento, corrispondente all’inglese remote sensing, si indica l’acquisizione di informazioni su un oggetto mediante un sensore non in contatto con esso. 68 Negli ultimi anni “l’oggetto” si è venuto sempre più nettamente identificando con l’ambiente terrestre e nel linguaggio corrente remote sensing corrisponde generalmente al telerilevamento ambientale. Per il loro modo di operare a distanza, i sistemi di telerilevamento devono sfruttare un meccanismo propagativo. L’informazione è quindi prodotta, oltre ad essere trasportata, da onde, che in molti casi sono elettromagnetiche, e in taluni “acustiche”. L’individuazione e la misura delle caratteristiche dell’oggetto osservato si basano sulle proprietà possedute dal campo elettromagnetico (o acustico) che ha interagito, mediante emissione, diffusione, riflessione o propagazione, con l’oggetto stesso. Nel telerilevamento si individuano quindi delle quantità elettromagnetiche primarie, a partire dalle quali si procede a determinare i parametri dell’oggetto osservato. La caratteristica essenziale dei sistemi di telerilevamento è la capacità di osservare, eventualmente in modo cadenzato, aree estese dell’ambiente terrestre, sfruttando anche la mobilità della piattaforma su cui è installato il sensore. Questo modo di operare presenta vantaggi sostanziali, in quanto, da una parte consente l’osservazione sia su scala globale sia su aree di difficile accessibilità fisica, e, dall’altra, tende a ridurre i costi di campionamento e raccolta dati effettuati con tecniche convenzionali. In alcuni casi, alla riduzione dei costi contribuisce anche il fatto che le quantità primarie misurate da uno stesso sistema di telerilevamento possono essere utilizzate nella produzione di dati che trovano applicazione in settori diversi. Grazie alle sue potenzialità e caratteristiche, il telerilevamento ha subito un forte sviluppo, soprattutto nell’ultima decade, sia nel contesto sperimentale, sia in quello operativo. In questi anni si sta verificando non soltanto un forte impulso alle attività più squisitamente scientifiche, quali quelle pianificate nei programmi di osservazione delle modifiche bioclimatiche globali, ma anche un significativo sviluppo della commercializzazione dei prodotti, grazie alla maturità raggiunta in alcuni campi applicativi. 69 L’uso scientifico, operazionale e commerciale del telerilevamento riguarda svariati settori ed è spesso difficile isolare ed identificare le varie categorie di utenti, sia per gli stretti legami tra di esse sia per le modifiche che intervengono anche in tempi relativamente brevi. Un elenco di larga massima dei campi in cui trovano o presumibilmente troveranno applicazione i sistemi di telerilevamento è il seguente: studio e monitoraggio delle variazioni del clima e della composizione atmosferica; previsioni meteorologiche; studio e monitoraggio del livello e della circolazione dei mari; monitoraggio del moto ondoso e dei ghiacci marini; monitoraggio delle zone costiere; monitoraggio del suolo e dei corpi idrici e delle loro variazioni, incluso l’inquinamento; monitoraggio della produttività vegetale e dei processi biologici superficiali; monitoraggio e gestione delle risorse non rinnovabili; determinazione della morfologia e dinamica della terra solida; monitoraggio e riduzione delle conseguenze delle calamità naturali. I molteplici campi di applicazione del telerilevamento sono un indicazione della complessità dell’ambiente terrestre, nel quale la presenza di un’atmosfera e di acque di particolari composizioni hanno permesso lo sviluppo di articolate forme di vita. L’atmosfera, le acque e la terra hanno interagito nel corso della storia, contribuendo a modifiche climatiche alle quali le diverse forme di vita si sono adattate. Attualmente una delle forme di vita, la specie umana, ha sviluppato la capacità di produrre essa stessa modifiche globali dell’ambiente terrestre in modi e secondo meccanismi che sono poco conosciuti e solo parzialmente compresi. 70 Mentre in alcuni casi, come all’impoverimento delle risorse energetiche minerali, gli effetti dell’attività umana sono abbastanza evidenti, in altri, come nell’alterazione della composizione atmosferica, i processi sono difficili da misurare e le loro conseguenze di difficile valutazione. Inoltre, gli effetti dei cambiamenti prodotti dall’uomo non sono facilmente separabili da quelli che si sono avuti e si manifestano in natura su tempi dell’ordine delle decine di anni o di secoli. Si ha la consapevolezza che i mari, l’atmosfera e le regioni polari esercitano influenze sul clima in maniera strettamente interconnessa e che le forme di vita terrestre e marine influenzano anch’esse sia il clima sia i cicli fondamentali, tuttavia i meccanismi che determinano lo stato del sistema globale “Terra” sfuggono attualmente in larga parte. In anni recenti, la comunità internazionale ha individuato e va configurando una serie di azioni tese all’osservazione e alla modellazione dell’ambiente. In questo ambito, l’ottenimento di molti dati fondamentali è affidato al telerilevamento che consente, come si è detto, l’osservazione su scala globale e a lungo termine. 3.4.1 Uso dello spettro elettromagnetico nel telerilevamento Come già accennato il telerilevamento sfrutta l’interazione tra campo elettromagnetico (o, talvolta, onda acustica) e il mezzo sotto osservazione. A seconda della frequenza su cui opera il sistema, intervengono meccanismi diversi, ciascuno dei quali produce effetti determinati sostanzialmente da un particolare parametro dell’oggetto. Quindi la scelta della frequenza di operazione è legata innanzi tutto al tipo di oggetto osservato e al tipo di informazione che si intende ottenere. Tale scelta deve peraltro tener conto delle proprietà trasmissive dei mezzi attraversati dalle onde elettromagnetiche. In particolare, tra la superficie terrestre e un sensore su piattaforma aerea spaziale è interposta l’atmosfera, che degrada il processo di acquisizione delle informazioni a causa dell’attenuazione, della diffusione (scattering) e dell’emissione, tutte dipendenti dalla frequenza, che essa introduce. 71 L’allocazione delle bande di frequenza per i diversi servizi e, naturalmente, i limiti tecnologici, sono ulteriori fattori che limitano la scelta delle lunghezze d’onda su cui far operare il sensore. Lo spettro elettromagnetico è suddiviso in bande che, convenzionalmente, hanno i seguenti limiti approssimati in termini di lunghezza d’onda λ: a) visibile (VIS): 0,4-0,7 μm; b) infrarosso vicino (NIR): 0,7- ~2 μm c) infrarosso termico (TIR): ~4-20 μm d) lontano infrarosso (FIR): ~20-300 μm e) microonde: ~1 mm -~1 m Si noti che la banda delimitata dalle lunghezze d’onda di 300 μm e di 1 mm viene talvolta denominata onde submillimetriche. Inoltre, la banda qui indicata come “microonde”, a sua volta, è spesso distinta in microonde, con limiti di frequenza tra ~300 MHz (λ= 1m) e ~30 GHz (λ= 1cm), e onde millimetriche, per lunghezze d’onda tra ~1 mm (300 GHz) e ~1 cm. L’attenuazione introdotta dall’atmosfera è un elemento critico nella scelta delle frequenze dei sistemi di telerilevamento per l’osservazione della superficie terra. Per quanto riguarda l’influenza della frequenza sulle prestazioni dei sensori, è opportuno considerare che: a differenza dei sistemi operanti nel visibile e nell’infrarosso vicino, che utilizzano la radiazione solare, quelli operanti nell’infrarosso termico e a microonde acquisiscono informazioni anche nelle ore notturne, dato che sfruttano l’emissione termica; l’operatività dei sistemi che usano il visibile e l’infrarosso è fortemente ridotta dalla presenza di nubi o nebbia, mentre i dati acquisiti a microonde sono generalmente inutilizzabili solo in caso di forte pioggia; 72 per effetto della dissipazione, la profondità di penetrazione di un’onda elettromagnetica in un mezzo naturale solido è dell’ordine della lunghezza d’onda, per cui i sistemi a microonde consentono di osservare il terreno sottostante la superficie ottica, generalmente fino a diversi centimetri di profondità; l’acqua limpida è relativamente trasparente in una ristretta banda del visibile, e solo i sistemi ottici sono in grado di effettuare misure al di sotto della superficie di specchi d’acqua. 3.4.2. Classificazione dei sensori Le tecniche di telerilevamento rientrano in due classi fondamentali: passive e attive. Nella tecnica passiva viene misurata la radiazione elettromagnetica emessa spontaneamente (per effetto “termico”) dall’oggetto o la parte di radiazione solare che l’oggetto riflette, diffonde o assorbe. Nel caso attivo, il sensore misura la parte di radiazione elettromagnetica o acustica che esso stesso ha generato e che è stata riflessa o diffusa dall’oggetto. All’interno delle due classi, si possono suddividere ulteriormente i sensori a seconda del tipo prevalente di informazione che forniscono e della banda di frequenza su cui operano. I sistemi passivi vengono generalmente definiti “radiometri” in qualsiasi banda di frequenza. E’ da tener presente la differenza sostanziale che esiste tra radiometri operanti nell’infrarosso termico o a microonde e quelli nell’ottico o nell’infrarosso vicino. I primi, come si è detto, misurano la radiazione elettromagnetica emessa spontaneamente dal mezzo sotto osservazione nella rispettive bande di frequenza, mentre i secondi misurano la frazione di radiazione solare riflessa dalla terra o, nel caso di osservazioni al lembo, assorbita dalla zona di atmosfera attraversata. 73 Il termine spettrometro, poco usato a microonde, indica un sensore che opera simultaneamente a diverse lunghezze d’onda. Recentemente sono stati sviluppati sensori iperspettrali, dotati di centinaia di canali. I radiometri a scansione usano antenne mobili o a scansione elettronica per esplorare zone estese dell’oggetto sotto osservazione, del quale producono immagini (mappe bidimensionali). In questo caso potenze misurate a diversi istanti corrispondono a diverse zone osservate, le cui dimensioni sono determinate dalla lunghezza angolare del fascio d’antenna e dalla distanza tra il sensore e il mezzo osservato. Si noti che sono in corso di sviluppo radiometri a microonde ad antenna sintetica, che sfruttano la tecnica interferometria per aumentare la risoluzione angolare. Le sonde radiometriche sono radiometri a più canali in grado di fornire profili (generalmente andamenti in funzione della quota) delle quantità di interesse attraverso opportune elaborazioni delle misure (tecniche di inversione). Per quanto riguarda i sensori attivi, il lidar è la versione ottica del radar. Gli altimetri sono radar (o lidar) su piattaforme spaziali o aeree dedicati a misure molto precise della distanza tra il satellite e la superficie terrestre. Anche gli scatterometri sono radar, dedicati a misure di potenza retrodiffusa, mentre i SAR sono radar ad apertura sintetica che, mediante un opportuna elaborazione delle misure di ampiezza e fase del campo elettromagnetico ricevuto, generano immagini ad alta risoluzione spaziale. Un radar può operare in configurazione monostatica, con l’antenna ricevente coincidente con quella trasmittente o in modo bistatico, con l’antenna ricevente in posizione diversa dalla trasmittente. Per la sua maggiore semplicità, la prima configurazione è nettamente la più usata, ma alcuni studi indicano che radar bistatici potrebbero essere di grande utilità nel telerilevamento. Si noti chi i radiometri nel visibile e NIR sono in definitiva dei sistemi bistatici. Infine, le sonde acustiche utilizzano onde sonore in modo sostanzialmente analogo al radar, o nel caso dei RASS (sonde radio acustiche), utilizzano 74 simultaneamente onde sonore ed elettromagnetiche delle quali sfruttano l’interazione. Introduciamo quindi un altro strumento importante per misurazioni termodinamiche: il SODAR. Acronimo dell'espressione inglese SOnic Detection And Ranging, il SODAR, è uno strumento meteorologico conosciuto anche come Wind Profiler, che misura la diffusione delle onde sonore riflesse dalle turbolenze atmosferiche. I sistemi Sodar vengono usati per misurare la velocità del vento a varie altezze sopra il livello del suolo (profilo del vento) e la struttura termodinamica dello strato più basso dell'atmosfera. Essi sono simili ai radar tranne per il fatto che per la rilevazione utilizzano segnali acustici anziché segnali radio. Tali strumenti vengono posti generalmente a terra, in luoghi silenziosi e dotati di barriere fono-assorbenti. Il SODAR emette un impulso acustico udibile (~2000 Hz) in 3 direzioni e riceve il segnale molto debole retro-diffuso dalle disomogeneità delle temperature nell’atmosfera. In presenza di vento, le disomogeneità dell’aria si muovono ed il segnale acustico retro-diffuso presenta uno spostamento “Doppler” nella frequenza, simile a quello che percepisce il nostro orecchio tra l’avvicinarsi e l’allontanarsi di un’auto in corsa. Il profilo verticale dell’intensità e della direzione del vento è rilevato dallo studio dello spostamento “Doppler” nell’onda acustica misurata nelle 3 direzioni fino a 600 -700 m dal suolo e con una risoluzione variabile tra 10 e 20 m. I SODAR di ultima generazione denominati phased array, sono facilmente rilocabili e compatti ideali anche per temporanee campagne di misura e risultano meglio gestibili rispetto ai precedenti SODAR del tipo triassiali, detti anche "a trombone" per la loro tipica forma. 75 4 Il clima in Europa Per i nostri studi è stato necessario ed utile introdurre ed approfondire alcune informazioni circa la situazione climatica europea. In quest’ottica riportiamo di seguito una presentazione per macroaree del clima europeo. L’Europa si colloca nella fascia temperata boreale, che si estende tra i 30° ed i 60° di latitudine e può essere suddivisa, nonostante la relativa ridotta estensione areale, in quattro macroregioni climatiche dovute all’ampia estensione in latitudine, la variegata morfologia, la distribuzione geografica di mari e terre emerse e l’influenza di mari e correnti oceaniche. Nel dettaglio, queste macroaree sono: Regione polare, caratterizzata da inverni lunghi e freddi ed estati brevi con temperature che raramente superano i 10°C. Le precipitazioni sono generalmente inferiori ai 250 mm/anno, ma per molti mesi il suolo è ricoperto da coltri di neve. Regione atlantica, caratterizzata da inverni temperati ed estati fresche. Le precipitazioni sono frequenti tutto l’anno. Regione continentale, caratterizzata da inverni lunghi e rigidi ed estati brevi ma calde. L’escursione termica è molto forte e le precipitazioni sono scarse. Il clima continentale si può a sua volta distinguere in: Clima continentale temperato, mitigato dalla vicinanza all’Oceano; Clima continentale alpino, caratterizzato da inverni freddi, estati brevi e fresche, piogge abbondanti, gelo e neve; 76 Clima continentale arido, con basse temperature ma precipitazioni assenti. Regione mediterranea, caratterizzata da inverni miti ed estati calde. In quest’area le precipitazioni sono concentrate in autunno e primavera nella parte più a nord, mentre si manifestano principalmente in autunno ed inverno a latitudini inferiori (sud Italia, Andalusia ecc.) Figura 4.1 Macroregioni climatiche europee 4.1 I climi e le macro regioni europee Per “clima”, nell’opinione pubblica, si intende l’andamento medio delle condizioni del tempo (atmosferico) e dei fenomeni meteorologici in relazione a caratteristiche geografiche, umane o naturalistiche di un certo territorio. Storicamente, infatti, sono stati i geografi ed i naturalisti a studiare per primi il clima come causa fondamentale della diversificazione degli ambienti locali e territoriali osservati e come elemento di definizione e di classificazione geografica e naturalistica. 77 In realtà, il clima è lo stato di equilibrio energetico tra il flusso totale di energia entrante sul nostro pianeta, che è quasi totalmente l’energia solare, ed il flusso totale di energia uscente dal nostro pianeta, che è in parte radiazione solare riflessa dall’atmosfera, dal suolo e dalle nubi, ed in parte energia emessa o irraggiata dalla terra nel suo insieme. Il nostro pianeta è in pratica un’enorme macchina termica costituita dalle seguenti componenti: atmosfera, oceano, biosfera, geosfera e criosfera. Tali componenti interagiscono incessantemente fra loro scambiandosi flussi di calore, flussi di energia e flussi di materia. Le interazioni fra le componenti sono favorite da alcuni cicli fondamentali che esistono in natura, tra cui i principali sono quello dell’acqua e quello del carbonio ma non bisogna trascurare quello dell’azoto e di altri composti minoritari tra cui lo zolfo e gli aerosol. Figura 4.2 Clima: equilibrio energetico Il clima viene quindi definito come l'insieme delle condizioni atmosferiche (temperatura, umidità, pressione, venti) che caratterizzano una regione geografica per lunghi periodi di tempo e ne determinano il tipo di 78 vegetazione, la flora e la fauna, influenzando anche le attività economiche delle popolazioni che vi abitano le loro abitudini e la loro cultura. Sono elementi climatici tutti quei fenomeni meteorologici tra loro interagenti e considerati nei loro valori medi ottenuti attraverso osservazioni durante numerosi anni. I principali elementi climatici sono: INSOLAZIONE L'insolazione è un elemento fondamentale del clima in quanto da questo parametro dipendono tutti gli altri fenomeni atmosferici. L'energia del sole che arriva nell'atmosfera viene in parte diffusa dalle nubi e dalle molecole dei gas costituenti l'aria, in parte assorbita dal vapore acqueo e dall'anidride carbonica, in parte arriva a terra e viene di nuovo irradiata nell'atmosfera. L'insolazione dipende dall'inclinazione dei raggi solari e dal periodo di illuminazione diurna. TEMPERATURA Le isoterme rappresentano la distribuzione della temperatura sulla superficie terrestre ed uniscono tutti i punti di egual temperatura media a livello del mare cosi da eliminare l'influenza dell'altitudine. Le isoterme possono essere mensili, annuali, stagionali; indicano come la temperatura, seguendo l'andamento dell'insolazione, diminuisce dall'Equatore ai Poli. La zona più calda non è però quella Equatoriale, ma una zona continentale più spostata verso il Tropico del Cancro. Anche i poli del freddo non coincidono con quelli geografici. PRESSIONE Le variazioni di pressione provocano venti, precipitazioni, trombe d'aria ecc. e tutto ciò incide sul clima. UMIDITA' L'umidità varia in continuazione con l'evaporazione e con le precipitazioni. Le regioni più secche sono in genere quelle prive di 79 vegetazione e lontane dal mare. L'umidità decresce anche in base all'altezza. PRECIPITAZIONI In meteorologia, con il termine precipitazioni (anche note impropriamente idrometeore) si intendono tutti i fenomeni di trasferimento di acqua allo stato liquido o solido dall'atmosfera al suolo ovvero pioggia, neve, grandine, rugiada, brina ecc. che rappresentano una fase del ciclo idrologico. Particolare attenzione in meteorologia merita la neve. Essa è una precipitazione atmosferica nella forma di acqua ghiacciata cristallina che consiste in una moltitudine di minuscoli cristalli di ghiaccio tutti aventi di base una simmetria esagonale e spesso anche una geometria frattale, ma ognuno di tipo diverso e spesso aggregati tra loro in maniera casuale a formare fiocchi di neve. Dal momento che è composta da piccole parti grezze è un materiale granulare. Ha una struttura aperta ed è quindi soffice, a meno che non sia sottoposta ad una pressione esterna. La disciplina che studia le caratteristiche fisico-chimiche della neve in relazione all'ambiente è la nivologia. Le precipitazioni influenzano il clima in quanto fanno diminuire la temperatura. Si definiscono fattori climatici le condizioni che producono variazioni sugli elementi del clima e si distinguono in: fattori zonali che agiscono con regolarità dall'equatore ai poli. fattori geografici che agiscono in modo diverso per ogni località. 80 Sono fattori zonali: la latitudine, per cui dall'equatore ai poli diminuisce la temperatura poiché l'energia solare che la superficie terrestre riceve decresce; la circolazione generale atmosferica, che influisce attraverso gli scambi di calore tra le regioni calde intertropicali e le regioni più fredde delle medie e alte latitudini. Sono fattori geografici: l'orografia, la distribuzione delle terre e dei mari, le correnti marine, la vegetazione l'attività umana. Il clima è legato a molti elementi variabili ed è quindi soggetto a classificazioni che possono essere considerate soggettive in base all'importanza data ai vari elementi. La classificazione più seguita è quella proposta dallo studioso Koppen all’inizio del XX secolo con alcune modifiche. Questo sistema di classificazione dei climi è basato sulle differenze in termini di temperatura e precipitazioni. Il suo fondamento consiste nell’osservazione che l’effetto più evidente e diretto del clima è il tipo di vegetazione associato. Ne risulta una suddivisione della Terra in cinque grandi aree climatiche, ciascuna corrispondente all’area di distribuzione di una particolare categoria di flora e quindi fauna. Le condizioni climatiche come precedentemente influenzate da diversi fattori naturali. 81 sottolineato sono Entrando nello specifico del caso europeo uno dei fattori più importanti è la presenza della "corrente del Golfo" una corrente tropicale che proviene dal Golfo del Messico ed attraversa l'oceano Atlantico. Questa induce un innalzamento lieve ma determinante delle temperature in tutta l'Europa occidentale che si affaccia sull'oceano, creando le condizioni per un clima fresco-umido, condizioni che hanno determinato l'insediamento umano e un'agricoltura ricca. Attualmente si percepisce un progressivo spostamento della corrente del golfo per effetto del riscaldamento globale. Questo è un problema importante perché rischia di cambiare le condizioni climatiche di una parte dell'Europa. E non ne possiamo prevedere tutte le conseguenze. I climi e le grandi regioni europee sono: Clima e ambiente atlantico Clima e ambiente mediterraneo Clima e ambiente continentale (freddo, medio, arido) Clima e ambiente artico (regione polare e subpolare) Clima e ambiente alpino (regione alpina e delle montagne giovani) 4.1.1 Clima e ambiente Atlantico Il clima atlantico è fortemente condizionato dal fattore marittimo. Le temperature non scendono mai al di sotto dello zero grazie all’azione mitigatrice dell'oceano e della "corrente del Golfo". Le temperature fredde ma non rigide consentono un'agricoltura ricca e attività di allevamento rigogliose potendo contare su grandi pascoli sempre verdi. Il Bioma caratteristico dell’ambiente atlantico è la prateria, accompagnata da una foresta di latifoglie che ad oggi è quasi scomparsa in seguito all’insediamento delle attività umane. 82 Figura 4.3 La regione europea ed il clima atlantico Figura 4.4 La prateria inglese presso Heatrow, Inghilterra 4.1.2 Clima e ambiente Mediterraneo Il clima mediterraneo interessa tutta la parte meridionale dell'Europa e soprattutto le coste. Il Mediterraneo è un mare chiuso con un unico sbocco sull'oceano Atlantico (lo stretto di Gibilterra), oltre ad uno “artificiale” sul mar Rosso (il canale di Suez). 83 La una temperatura media delle acque mediterranee così come il livello di salinità delle acque risulta più alta di quella oceanica. Queste caratteristiche favoriscono sulle coste del mediterraneo livelli di precipitazione molto inferiore a quelli oceanici. Caratteristiche tipiche di quest’area sono quindi le temperature miti e le scarse piogge, concentrate di solito nella stagione invernale. La stagione estiva è calda e secca. Il caldo non è torrido perché mitigato dalle brezze marine che spirano lungo le coste. Il bioma di questo ambiente è la macchia mediterranea, caratterizzata da arbusti e cespugli, spesso aromatici (mirto, rosmarino, salvia etc). La macchia ha sostituito la foresta mediterranea sempreverde che un tempo ricopriva le aree costiere ed oggi è scomparsa. Figura 4.5 La regione europea e il clima mediterraneo 84 Figura 4.6 La macchia mediterranea in Sicilia 4.1.3 Clima e ambiente continentale Il clima continentale occupa uno spazio considerevole all'interno del territorio europeo e non può essere classificato in modo omogeneo ma va suddiviso in tre sottoregioni: a clima continentale medio, a clima continentale freddo ed a clima continentale arido. La prima zona, quella a clima continentale medio, può considerarsi tipica zona di transizione con altri climi. E’ una zona con caratteristiche continentali quali escursioni termiche e temperature non estreme. Interessa parte dell'Europa centrale e si apre nella pianura che dalla Francia si estende verso est nella pianura sarmatica russa. Più ci si allontana dal mare minore è la piovosità mentre le escursioni termiche si fanno sempre più evidenti. Le caratteristiche tipiche di questo clima sono le temperature rigide invernali e l’elevata piovosità, concentrate di solito nella stagione estiva. Il caldo estivo è a volte afoso e non sempre mitigato dalle brezze. 85 Figura 4.7 La regione europea e il clima continentale Il bioma di questo ambiente è la foresta temperata, quasi del tutto scomparso in natura a favore delle attività agrarie e industriali. In alcuni paesi ci sono ancora grandi foreste ma sono solo una piccola parte della foresta che ricopriva l'ambiente. La zona a clima continentale freddo si trova in quella parte d'Europa che dall'estremo nord percorre la penisola scandinava e la Russia settentrionale. E' il territorio della foresta di conifere che prende il nome di taiga. Questa zona risulta poco adatta all'insediamento umano ed è scarsamente abitata. 86 Figura 4.8 La Taiga l clima continentale arido è il territorio della steppa. Una vasta prateria formata da erbe e qualche arbusto, caratterizzata da una forte aridità, frequentata da una particolare quanto variegata fauna, adattata a questo ambiente. Figura 4.9 Steppa presso Volgograd 87 4.1.4 Clima e ambiente artico In Europa la regione artica è un territorio che comprende l'alta penisola scandinava e la Russia. Vengono associate a questo clima l'Islanda e le aree alpine e di alta montagna del territorio europeo. I territori scandinavi e della Russia si affacciano sul mare artico e sono completamente gelati per molti mesi dell'anno. Le temperature sono molto rigide e l'insediamento umano è raro e difficoltoso. Il bioma locale è la tundra. In questi luoghi il terreno è gelato per molti mesi e viene chiamato permafrost. Esso si scongela in una breve stagione estiva, e il territorio diventa un grande acquitrino caratterizzato da muschi, licheni e funghi. ll territorio si trova sulla dorsale atlantica molto attiva dal punto di vista tettonico. Eruzioni vulcaniche e fenomeni di vulcanismo secondario sono diffusi e frequenti e non permettono l'insediamento all'interno dell'isola. A queste latitudini è visibile il fenomeno dell'aurora polare, un fenomeno ottico dell'atmosfera caratterizzato da bande luminose di vari colori. Figura 4.10 La regione europea ed il clima artico 88 Figura 4.11 Aurora boreale nella regione artica 4.1.5 Clima dell'ambiente alpino Le montagne europee hanno un clima di tipo continentale freddo che può raggiungere addirittura i rigori del clima artico. Si tratta delle Alpi, dei Carpazi, i Balcani, la Sierra Nevada e i Pirenei. Queste montagne hanno in comune l'origine cenozoica e risultano abitate da molti secoli. Le zone montuose hanno un clima variabile in base all'esposizione al sole dei versanti e in relazione all'altitudine. Figura 4.12 La regione europea ed il clima alpino e montano 89 Figura 4.13 Alpi Giulie, Friuli Venezia Giulia Di seguito per completezza riportiamo una tabella relativa ai range medi di umidità relativa annua e temperatura massima e minima per alcune tra le principali città europee. Figura 4.14 Range medi di umidità relativa per le città europee di riferimento 90 5 L’applicazione Per gli scopi prefissati si è deciso di articolare il nostro lavoro in una serie di analisi di diversa natura: Nello specifico le elaborazioni svolte sono state: analisi temporale, confrontando l’andamento dell’umidità relativa negli anni analisi spaziale, confrontando tra i 135 punti interni al perimetro investigato analisi in quota, confrontando l’omogeneità dei dati alle superfici di riferimento meteorologico considerate Abbiamo quindi ritenuto necessario disporre di serie storiche di dati, inerenti ai valori medi mensili di umidità relativa, che fossero il più lunghe possibile. La ricerca si è rivelata difficoltosa, in quanto ostacolata da diversi fattori: Irreperibilità dei dati; Mancanza di serie storiche sufficientemente lunghe; Inadeguatezza e pessima qualità dei dati. Le informazioni da noi cercate si riferiscono a valori di umidità relativa a livello globale misurati a diverse quote di riferimento: 500 Hpa (~5500 m s.l.m.), 700 Hpa (~3000 m s.l.m.), 850 Hpa (~1500 m s.l.m.) e 1000 Hpa (~0 m s.l.m.). Queste quote sono state scelte in quanto coincidenti con il livello standard delle superfici utilizzate in meteorologia per elaborare qualsiasi tipo di prodotto e quindi facilmente collegabili con eventuali altri studi e teorie. 91 Inizialmente le nostre ricerche si sono rivolte ad enti italiani (ad es. Aeronautica militare) constatando però un assoluta lacuna per quanto concerne questo tipo di informazioni. A questo punto abbiamo allargato il nostro campo di ricerca ad enti internazionali focalizzando la nostra attenzione soprattutto su quelli anglosassoni, tedeschi e americani. La risposta alle nostre ricerche è arrivata una volta imbattuti nei dati prodotti dal National Centers for Environmental Prediction (NCEP) e dal National Center for Atmospheric Research” (NCAR), due tra i più importanti enti di riferimento in termini di previsioni e analisi ambientali al mondo. Figura 5.1 Simbolo CFSR, Reanalysis [1979 – 2010] Una volta effettuata la registrazione al sito ed autenticatici, come studenti del Politecnico di Milano, tramite il motore di ricerca interno al sito, abbiamo effettuato una ricerca tra tutti i dati prodotti e disponibili al download imponendo come parametro di ricerca un database che riportasse i dati globali di umidità relativa misurati a diverse quote di riferimento. Poste queste condizioni iniziali ci siamo imbattuti nella data collection “Climate Forecast System Rianalisis (CFSR)”. Il CFSR, sistema globale ad alta risoluzione, è stato progettato ed eseguito considerando in modo congiunto i vari sistemi di atmosfera, oceano e terra così da fornire una migliore e più completa stima dei campi di indagine. 92 La risoluzione atmosfera globale dei dati CFSR è ~ 38 km con 64 livelli che si estendono dalla superficie a 0,26 HPa. La spaziatura globale della latitudine per l’oceano è 0.25° all'equatore e si estende a 0.5° a livello globale, eccezion fatta per i tropici. Il modello globale della superficie terrestre considera 4 livelli del terreno mentre il modello globale ghiaccio-mare ne valuta 3. Per completare e migliorare l’attendibilità del CFSR sono state utilizzate le più attendibili e aggiornate osservazioni in situ e satellitari. Da questo database, contenente informazioni per un periodo di 31 anni dal 1979 al 2009, è stato possibile selezionare i dati di umidità relativa media mensile. Per mese sono riportate quattro misurazioni di umidità relativa coincidenti con quelle medie misurate negli orari principali di osservazione sinottica (00:00, 06:00, 12:00 e 18:00 UTC). Questo dato lo abbiamo ovviamente scaricato per tutte e quattro le quote di riferimento adottate. Figura 5.2 Schermata di selezione per intervallo temporale e superfici isobariche da scaricare 93 Oltre ai valori di umidità relativa questo database riporta numerose altre informazioni. Per completezza le elenchiamo di seguito: temperature dell’aria, albedo, riscaldamento atmosferico, stabilità atmosferica, quantità/frequenza nubi, presenza di acqua liquida/ghiaccio nelle nubi, temperatura del punto di rugiada, entità evaporazione, altezza geopotenziale, onde gravitazionali, flusso di calore, pressione idrostatica, spessore/estensione del ghiaccio, tipologie di copertura del suolo, quantità di radiazione a onde lunghe, quantità di radiazione a onde corte, temperatura massima / minima, tipologia ed entità delle correnti oceaniche , temperatura potenziale, acqua precipitabile, tasso di precipitazione, salinità, monitoraggio dei movimenti dei ghiacci nel mare, altezza della superficie del mare, copertura nevosa, neve precipitata, umidità /acqua contenuti del suolo, sublimazione, temperatura dell'aria in superficie, entità venti in superficie, entità venti a quote superiori, trend della temperatura, tipologie di specie vegetali al suolo. Figura 5.3 Elenco da spuntare per selezionare le variabili da scaricare tra tutte quelle possibili 94 5.1 Visualizzazione e preparazione dato Il dato scaricato necessitava di diverse manipolazioni per rispondere alle nostre esigenze operative. Una volta completato il download dei dati è stato in primis necessario individuare dei software adatti a visualizzare ed operare in forma matriciale sui valori stessi oltre che in grado di rappresentarli graficamente. Abbiamo scaricato alcuni programmi suggeritici direttamente sul sito del NCAR per l’interpretazione dei dati in formato netCDF. Tra quelli proposti i migliori per le nostre finalità si sono rivelati Panoply, un'applicazione multipiattaforma che riporta gli array geogrigliati in formato netCDF ed un add-on, sviluppata appositamente per Excel, che ci ha permesso di visualizzare ed elaborare in forma matriciale le informazioni. Vista la pesantezza e la mole dei dati scaricati abbiamo ritenuto utile concentrare le nostre analisi su una perimetro areale ridotto. Da una scala globale siamo passati quindi ad una scala europea leggermente allargata, individuando un perimetro di interesse con latitudine da 30°N a 70°N e longitudine da 30°O a 40°E. Abbiamo scelto questo dominio spaziale in quanto, anche se considerare una sola parte del globo potrebbe risultare arrischiato, la nostra scelta risultava comunque di buona estensione e ben rappresentate di tutte le tipologie di suolo. Scegliere l’Italia, ad esempio, sarebbe stato possibile in quanto molto estesa in latitudine ma avremmo riscontrato problemi a causa delle presenza delle poche terre emerse in relazione al mare circostante; avremmo dunque avuto poco materiale per il confronto. Il passo arbitrariamente scelto tra una stazione di misura e la successiva è stato di 5°,sia in latitudine che in longitudine, ottenendo così dati relativi a 135 stazioni per tutte e quattro le quote di nostro interesse. Questa scelta è giustificata dal fatto che al fine di valutare e quantificare le variazioni di umidità relativa, adottare passi spaziali eccessivamente piccoli 95 ci avrebbe portato ad investigare zone plausibilmente caratterizzate da condizioni al suolo simili, rendendo inutile la ricerca di un qualsiasi legame tra le caratteristiche al suolo e l’umidità. Allo stesso modo, l’analisi avrebbe perso di senso se si fosse adottato un passo eccessivo, riducendo eccessivamente il campione di dati utilizzati esponendo le nostre analisi a conclusioni errate e superficiali. Figura 5.4 Vertici del perimetro interessato dalle nostre analisi Tra le 4 registrazioni giornaliere: 00:00, 06:00, 12:00 e 18:00 UTC abbiamo arbitrariamente scelto di utilizzare solo quella di mezzogiorno. Scelta giustificata dal fatto che i cambiamenti orari in termini di umidità relativa non risultano utili ai fini della nostra analisi, essendo noi altresì interessati ad ottenere e lavorare su misure medie mensili. Siamo quindi giunti ad ottenere dei file divisi per quota che, per ogni punto di latitudine e longitudine determinate, riportassero il valore medio mensile. 96 5.2 Elaborazioni Il dato di partenza si presentava come un file unico con riportati, in sequenza cronologica, tutti i mesi a partire dal gennaio del 1979. Abbiamo quindi dovuto separare, per ogni quota, tutti i mesi, raccogliendoli in una trentina di file annuali. Una volta preparato il dato in termini spaziali e temporali è stato quindi necessario raccogliere per ogni stazione di misura (ad es. il punto lat: 30; long: 10) tutti i dati disponibili mese per mese (ad es. Tutti i Luglio del 1979 al 2010), divisi per quota (ad es. 700 Hpa), così da poter notare anche tramite un grafico a linee, quali fossero i trend e/o le ciclicità presenti nell’andamento dell’umidità relativa con il passare degli anni, nella data stazione e per la data mensilità. Figura 5.5 Tabella e grafico dei valori di umidità relativa nel punto di quota 700 Hpa a latitudine 30°N, longitudine 10°E per tutti i mesi di Luglio del trentennio considerato 97 Per ogni mese abbiamo inoltre calcolato i valori estremi (massimo e minimo dal 1979 al 2009), il valor medio e la deviazione standard. I dati relativi ai vari mesi negli anni sono quindi stati rappresentati su un grafico con in ascissa i vari anni ed in ordinata i valori di umidità relativa %. Ogni grafico è stato completato riportando la linea di tendenza con relativa equazione. Mediando i dati dei dodici mesi per ogni singolo anno abbiamo prodotto una serie di grafici, questa volta su scala annuale, che rappresentassero l’andamento dell’umidità relativa negli anni riportando, anche in questo caso, la linea di tendenza relativa. A questi grafici si è nuovamente accoppiata la semplice analisi statistica sopra riportata calcolando i valori estremi, il valor medio e la deviazione. Figura 5.6 Tabella e grafico dei valori di umidità relativa media annua nel punto latitudine 50°N, longitudine 30°E per la quota 700 Hpa, e relative analisi statistiche Passo successivo è stato raccogliere su un unico file, per ogni quota e per ogni stazione, tutti i valori del coefficiente angolare della linee di tendenza della 98 media annua effettuando anche su questa serie semplici considerazioni statistiche stimando valore minimo, massimo e la media. Figura 5.7 Valori del coefficiente angolare della linee di tendenza della media annua e relative analisi statistiche Successivamente abbiamo catalogato i valori di pendenza in funzione dei sei intervalli di seguito riportati, così da poterci rendere conto subito visivamente quale fosse il trend dominante. 99 Figura 5.8 Scala falso colore per pendenze linee di tendenza Il risultato è la seguente tabella: Figura 5.9 Catalogazione dei valori di pendenza entro le sei macrocategorie Per completare le nostre analisi preliminari, tramite Google Earth, per ogni stazione della nostra analisi, abbiamo qualitativamente valutato la tipologia di ambiente al suolo. 100 Per semplificare l’analisi abbiamo individuato sei macro categorie: pianura, deserto, mare, rilievo, ghiaccio, altopiano. Questa operazione è stata effettuata con l’obiettivo di investigare circa la presenza di qualche correlazione tra la tipologia di elementi riscontrati al suolo e l’andamento dell’umidità. Di seguito riportiamo la tabella ottenuta: Figura 5.10 Risultati dell’analisi della tipologia di paesaggio al suolo effettuata tramite Google Earth Conoscere il tipo di ambiente al suolo in un determinata stazione ci è servito anche per meglio comprendere, il livello di affidabilità dei dati utilizzati. 101 Ciò che abbiamo fatto è stato incrociare i valori, precedentemente calcolati di umidità relativa media annua a 1000 Hpa con l’informazione appena registrata circa la tipologia di ambiente al suolo, andando a verificare se ci fosse o meno una corrispondenza tra il valore di umidità atteso ed i valori ottenuti come media annua. Primo caposaldo di questo confronto è stato che, in prossimità di specchi d’acqua chiusi e mare, si sarebbero dovuti registrare dei picchi in termini di umidità relativa. Considerazione simili ma opposta è stata effettuata nel caso di situazione desertica al suolo. In questo caso ovviamente ciò che ci si attende di trovare sono dei picchi relativamente negativi di umidità. Quest’analisi è stata effettuata internamente ai singoli livelli latitudinali, ovvero tra stazioni poste a stessa latitudine. Confrontare infatti la situazione dell’entroterra islandese con l’entroterra nord-africano non avrebbe prodotto, secondo la nostra opinione, alcuna considerazione valida. A titolo d’esempio riportiamo di seguito alcune delle tabelle ottenute: Figura 5.11a Verifica corrispondenza tra i valori di umidità relativa media annua a 1000 Hpa e l’informazione registrata tramite Google per le stazioni a latitudine 50°N 102 Figura 5.11b Verifica corrispondenza tra i valori di umidità relativa media annua a 1000 Hpa e l’informazione registrata tramite Google per le stazioni a latitudine 30°N Si può immediatamente notare la buona corrispondenza tra ciò che ci si attenderebbe in virtù della situazione al suolo ed i valori medi misurati, corrispondenza che conferma la bontà del dato sin qui utilizzato. 103 6 Distribuzioni di probabilità Essendo obiettivo del nostro lavoro un’analisi di dati distribuiti spazialmente e temporalmente, non potevamo non avvalerci dell’aiuto della statistica per guidare le nostre elaborazioni. Primo passo delle nostre analisi è stato quello di provare a capire a quali distribuzioni potessero appartenere i dati ricavati. Introdurremo in questo capitolo quindi gli strumenti statistici, ovvero le distribuzioni, che abbiamo preso in considerazioni per la nostra analisi, della quale si parlerà nel capitolo successivo 6.1 La variabile casuale La variabile aleatoria, detta anche casuale o stocastica, è una variabile che può assumere determinazioni diverse in dipendenza del verificarsi di eventi aleatori, che costituiscono una partizione di un insieme universo prefissato. Ad una variabile aleatoria X è necessario associare la sua distribuzione o legge di probabilità P(X), che assegna ad ogni sottoinsieme dei possibili valori di X la probabilità che la variabile casuale X assuma valore in esso. Per variabili aleatorie a valori reali, la legge di probabilità della variabile casuale X è individuata univocamente dalla sua funzione di ripartizione o funzione di distribuzione cumulativa, che è definita come la funzione che associa a ciascun valore x la probabilità dell’evento “la variabile casuale X assume valori minori o uguali ad x”. È quindi la funzione che ha per dominio la retta reale e per immagine l’intervallo [0,1], definita da: 104 F(x) = P(X ≤ x) per - < x < + La funzione di ripartizione è caratterizzata dalle seguenti proprietà: (x) è una funzione non decrescente di x (F(x) 0 per ogni x); Il limite per x che tende a +di F(x) è uguale a 1; Il limite per x che tende a -di F(x) è uguale a 0. Inoltre, se la variabile casuale X è discreta – se l’insieme dei possibili valori è finito o numerabile – è definita anche la funzione di probabilità, come una funzione di variabile reale che assegna ad ogni valore possibile di X la probabilità dell’evento elementare: P(x) = P(X = x) Se invece la variabile casuale X è continua – quando può assumere tutti gli infiniti valori di R o di un suo intervallo [a,b] – viene definita anche la funzione densità di probabilità f(x), data da: f (x) = dF(x)/dx = F’(x) Questa funzione gode delle seguenti proprietà: Associa sempre un valore non negativo a ciascun valore di X; L’area sottesa al grafico della funzione f(x) è pari a 1. Per una variabile casuale continua X la probabilità P (c < X < d) è pari all’area sottesa dalla funzione di densità f(x) nell’intervallo [c,d]. Se la variabile casuale X ha una funzione di densità f(x) e c ≤ d allora la probabilità che X assuma un valore compreso nell’intervallo [c,d] è : 105 6.2 Distribuzione normale o gaussiana La distribuzione normale rappresenta il caso più importante e più noto tra tutte le distribuzioni di probabilità, anche per il ruolo che detiene nel teorema centrale del limite. Infatti, secondo il teorema, la distribuzione gaussiana può fornire un’approssimazione per la somma di molte variabili aleatorie indipendenti X1, …, Xn aventi una stessa distribuzione. Una variabile aleatoria X ha una distribuzione normale, con media µ e varianza σ2, se la sua funzione di densità di probabilità è data da: e se la sua funzione di ripartizione è data da: 1 X X 2 1 F(X ) e 2 2 Per indicare una variabile casuale X distribuita in modo Normale si usa in genere la notazione N(µ, σ2). 106 Figura 6.1 Distribuzione Gaussiana La variabile casuale gaussiana di tipo continuo, che assume valori compresi tra - e +, descrive una curva simmetrica e campanulare, dotata delle seguenti caratteristiche: La curva è perfettamente simmetrica all’ordinata massima Y, dove la funzione f(X) raggiunge il punto di massimo, in corrispondenza di Xi = µ. Ciò comporta che media, mediana e moda coincidano; La sua funzione di distribuzione f(X) è asintotica di X verso - e +; tuttavia per Xi che dista più di 3σ2 dalla media, la distanza tra la curva e l’asse delle X è estremamente ridotta; La curva è crescente per valori di X che vanno da - a µ ed è decrescente per valori che vanno da µ a + ; µ determina la posizione della curva sull’asse delle ascisse; σ2 determina la maggiore o minore concentrazione della curva intorno a µ; La curva presenta due punti di flesso in corrispondenza di µ + σ e µ – σ, che rappresentano i punti in cui la curva da convessa diventa concava. 107 Figura 6.2 Caratteristiche curva Gaussiana Ogni distribuzione normale è univocamente definita dalla media e dalla varianza, dette anche valori attesi della distribuzione E(X) e Var(X): 1 X 1 E( X ) X e 2 2 2 dX 1 X 1 Var ( X ) 2 ( X ) 2 e 2 2 2 dX Si può notare come al variare di media e varianza la curva subisca sia uno spostamento sull’asse dell’ascissa, sia un appiattimento. Se la media viene tenuta fissa e si fa variare solo la varianza, si osserva che la curva si appiattisce quando la varianza cresce mentre diventa più appuntita quando la varianza cala, mantenendo però costante il centro di gravitazione. 108 Figura 6.3 Cambiamenti della Gaussiana al variare di media e varianza Un caso particolare della distribuzione gaussiana è la distribuzione normale standardizzata o ridotta, convenzionalmente indicata con Z e così definita: Z = (X – µ)/ σ La distribuzione normale standardizzata presenta le medesime caratteristiche di una distribuzione gaussiana; ciò che le distingue è il fatto che nella distribuzione ridotta la media E(X) è nulla e la deviazione standard VAR(X) è pari ad 1. La funzione di densità della distribuzione normale standardizzata diventa: 1 1 2 z2 f ( z) e 2 L’importanza della distribuzione normale standardizzata sta nel fatto che le probabilità corrispondenti alle superfici racchiuse dalla curva normale possono essere calcolate e sono quindi state tabulate. È inoltre noto che se un fenomeno si distribuisce secondo una distribuzione normale standard si ha che: Circa il 68% di tutti i valori cade nell’intervallo che dista + σ e – σ dalla media. P[µ – σ ≤ x ≤ µ + σ] = 0.6826 109 Circa il 95% dei valori cade nell’intervallo che dista + 2σ e – 2σ dalla media. P[µ – 2σ ≤ x ≤ µ + 2σ] = 0.9544 Circa il 99% dei valori cade nell’intervallo che dista + 3σ e – 3σ dalla media. P[µ – 2s ≤ x ≤ µ + 2s] = 0.9974 6.3 Distribuzione lognormale La distribuzione lognormale è la distribuzione di probabilità di una variabile aleatoria X il cui logaritmo logX segue una distribuzione normale. La distribuzione lognormale è limitata inferiormente ed ha come limite zero. La sua funzione di densità di probabilità è: La sua funzione di ripartizione è: Erf rappresenta la funzione degli errori, definita come: 110 I valori di media, moda, mediana e varianza sono rappresentati rispettivamente da: La distribuzione lognormale può fornire un’approssimazione per il prodotto di molte variabili aleatorie indipendente X1,….,Xn aventi la medesima distribuzione. 6.4 Distribuzione gamma La distribuzione gamma è una distribuzione di probabilità continua definita sui numeri reali non negativi. Viene definita tramite una coppia di parametri chiamati fattore di forma α e fattore di scala λ, entrambi positivi. La sua funzione di ripartizione è data da: dove (k, x) rappresenta la funzione gamma incompleta inferiore regolarizzata. La sua funzione di densità di probabilità è invece data da: 111 con Γ(k) funzione gamma. La distribuzione gamma ammette come casi particolari sia l’esponenziale – quando il fattore di forma a è pari ad 1 – sia la chi quadro – quando il fattore di scala è pari alla metà dei dati a disposizione e il fattore di scala è pari a 2 – ed è legata ad altre distribuzioni quali la Poisson e la Weibull. Si tratta quindi di una famiglia di distribuzioni molto flessibile. La proprietà fondamentale della distribuzione gamma è che, per ogni numero intero positivo n, la funzione Γ(n) vale (n+1)! La media e la varianza di una variabile casuale X avente distribuzione gamma Γ(x, α, λ) sono così definite: µ(x) = α λ σ2 (x) = α λ 2. Pertanto, se si conoscono media e varianza del campione casuale, si possono ottenere i parametri della distribuzione gamma risolvendo le seguenti espressioni: α (x) = µ(x)2/ σ(x)2 λ(x) = σ(x)2/ µ(x) 112 7 Il software R In questo capitolo analizzeremo i passaggi e le operazioni effettuati per trovare eventuali corrispondenze tra elementi statistici e fattori fisici che caratterizzano la climatologia dell’umidità nell’area in esame. Per la nostra analisi abbiamo scelto R perché è un software libero, distribuito con licenza GNU General Public Licence della Free Software Foundation, è open source, ovvero ogni utente ha il permesso di accedere liberamente al suo codice interno e di proporre modifiche ed infine perché è risultato intuitivo e di facile utilizzo. Ovviamente in fase di scelta si è tenuto conto anche dell’affidabilità del software e del fatto che, per effetto di quanto detto prima, attorno ad R ruota gran parte della comunità statistica mondiale (progetto R) che contribuisce a correggere e revisionare il contributo di ognuno e a mantenere costantemente aggiornato il software. Unico problema che ne deriva è la vasta gamma di librerie contenenti le più svariate tipologie di funzioni che, a seconda delle necessità, vanno scaricate ed implementate alla versione base. 7.1 Importazione dei dati in R Per svolgere le analisi statistiche necessarie al nostro scopo abbiamo utilizzato il software statistico R, importando in esso i dati ottenuti attraverso le operazioni svolte con un foglio di calcolo. Questo software utilizza uno specifico linguaggio di programmazione, chiamato anch’esso R e derivato dal linguaggio S. 113 I dati, in formato .xls, relativi alle serie temporali medie per un dato punto per una data quota, sono stati ripuliti, e convertiti in formato .CSV; ovvero in “file con valori separati da virgola”. In questo modo i dati sono stati resi compatibili con l’ambiente R. Successivamente e di volta in volta, attraverso la funzione read.table, sono stati caricati i file interessati dalle nostre elaborazioni. 7.2 Adattamento ad una distribuzione nota Per poter attuare un’analisi statistica su un certo insieme di dati si è dovuto prima di tutto verificarne la conformità rispetto ad un determinato modello teorico. Per questo motivo, come primo passo, abbiamo deciso di cercare una distribuzione statistica che rappresentasse opportunamente il fenomeno da noi studiato. Essendo il nostro scopo quello di rappresentare un campione di dati di umidità annuale dal punto di vista medio, abbiamo tralasciato tutte quelle distribuzioni di probabilità che si utilizzano per descrivere gli eventi rari ed estremi, come le distribuzioni di Gumbel, di Weibull e di Poisson. Tra le distribuzioni possibili, abbiamo deciso di provare con le seguenti: Distribuzione normale o gaussiana; Distribuzione lognormale; Distribuzione gamma. Questa scelta è stata dettata da diverse motivazioni; la gaussiana perché svolge un ruolo fondamentale nella statistica inferenziale e si adatta bene alla rappresentazione di molti fenomeni, la lognormale in quanto importante variante della distribuzione normale e perché, insieme alla gamma, da letteratura, si adatta in modo soddisfacente alle serie idrologiche. 114 La distribuzione normale o gaussiana è una distribuzione di probabilità continua che viene spesso usata come prima approssimazione nella descrizione di variabili casuali a valori reali che tendono a concentrarsi attorno ad un singolo valor medio. La gaussiana dipende da due parametri, la media µ e la varianza σ2 e viene indicata con il simbolo N(µ,σ2). La distribuzione lognormale è la distribuzione di probabilità di una variabile aleatoria, il cui logaritmo segue una distribuzione normale e viene indicata col simbolo logN(µ,σ2). La distribuzione gamma, indicata con Γ è una distribuzione di probabilità continua, definita sui numeri reali non negativi [0, ∞). Viene descritta attraverso due parametri, il fattore di forma o shape α ed il fattore di scala o rate λ. Per determinati valori di α e λ, la distribuzione gamma si riduce ad una distribuzione esponenziale ε(λ) o ad una distribuzione chi quadro χ2(n). Nello specifico, si ha distribuzione esponenziale quando il fattore di forma è pari ad 1, mentre si ha distribuzione chi quadrato quando il fattore di forma è pari a n/2 – con n numero dei dati osservati – e il fattore di scala è pari a 2. Una volta scelte le funzioni con cui confrontare i dati è stato necessario stimarne i parametri per poter applicare dei test statistici volti a saggiare la bontà del modello. Abbiamo quindi stimato il fattore di scala e di forma della sola distribuzione gamma – in quanto i parametri delle altre distribuzioni venivano automaticamente calcolati da R – con il metodo dei momenti. Questo metodo consiste nell’eguagliare i momenti empirici calcolati con i dati in nostro possesso con quelli teorici determinati in base alla funzione scelta e al numero di parametri da stimare. Abbiamo considerato il momento del primo ordine dall’origine – la media – ed il momento centrale di secondo ordine – la varianza. Abbiamo calcolato in R media e varianza delle nostre serie storiche, per quota e per punto, attraverso le funzioni mean e var e abbiamo poi stimato i fattori di forma e scala nel seguente modo: 115 α = (media dati osservati)2/ (varianza dati osservati) λ = media dati osservati / varianza dati osservati Fatto questo si è passati alla scelta del test statistico di controllo da applicare alle nostre serie di dati. Uno dei test più potenti ed utilizzati in letteratura, soprattutto per serie storiche brevi, per verificare l’adattabilità dei dati alla gaussiana è il test di Shapiro. Nonostante ciò e nonostante la facilità di utilizzo di questo test in R, implementato direttamente nel pacchetto base e al quale bisogna fornire solamente il vettore dei dati, abbiamo scelto di applicare un altro test, quello di Kolmogorov – Smirnov. Ciò a causa della possibilità di utilizzare un unico test per testare il dato nei confronti delle tre distribuzioni sopracitate. 7.2.1 Test di Komogorov – Smirnov Il test di Kolmogorov – Smirnov è un test statistico non parametrico ideato nei primi del novecento da Andrey Nikolaevich Kolmogorov e modificato nel 1939 da Vladimir Ivanovich Smirnov. Per un singolo set di dati, come nel nostro caso, il test di Kolmogorov – Smirnov One Sample Test viene utilizzato per testare se l’insieme dei dati osservati è consistente con una data distribuzione standard. Questo test assume come ipotesi nulla che la distribuzione da investigare coincida con una distribuzione nota. Viene calcolato il parametro D, come differenza tra ogni coppia di valori osservato e teorico, misurando quindi la distanza tra le due distribuzioni. Il parametro D viene utilizzato ai fini del calcolo del P – Value, definito come la probabilità di ottenere un risultato pari o più estremo di quello osservato, 116 supposta vera l’ipotesi nulla. Indica quindi il minimo livello di significatività per il quale l’ipotesi nulla viene rifiutata in favore dell’ipotesi alternativa. Figura 7.1 Tabella valori P-value e significatività del test 7.2.1.1 Risultati del test di Kolmogorov – Smirnov Dai risultati ottenuti dall’applicazione del test è apparso evidente che le distribuzioni lognormale e gamma non si adattano assolutamente ai nostri dati di umidità. Qui di seguito sono riportati, come esempio, i risultati ottenuti per il punto di longitudine 30° e di latitudine 20°, per la quota di riferimento di 1000 Hpa, considerando che kl indica il test effettuato per la distribuzione lognormale e kg quello per la distribuzione gamma. > kl <- ks.test(1000 (20;30),"plnorm", mean=mean(y),sd=sd(y)) > kg <- ks.test(1000 (20;30),"pgamma", shape=1) > kl One-sample Kolmogorov-Smirnov test data: 1000 (20;30) D = 1, p-value < 2.2e-16 alternative hypothesis: two-sided 117 > kg One-sample Kolmogorov-Smirnov test data: 1000 (20;30) D = 1, p-value < 2.2e-16 alternative hypothesis: two-sided Da notare i valori del P – value: in entrambi i casi molto inferiore a qualsiasi soglia di accettabilità. Al contrario abbiamo verificato che la distribuzione normale si adatta, anche se con diversi livelli di significatività, a circa il 90% dei nostri punti in funzione delle quattro quote di riferimento. Riportiamo qui di seguito un esempio di risultato ottenuto in R, con l che indica il test effettuato per verificare l’attendibilità della distribuzione normale. Questa volta il test utilizzato è il test di Lilliefors, una variazione del test di Kolmogorov – Smirnov, utilizzato appositamente per testare l'ipotesi nulla che i dati provengono da una popolazione distribuita normalmente. > l <-lillie.test(1000 (20;30)) >l Lilliefors (Kolmogorov-Smirnov) normality test data: 1000 (20;30) D = 0.0949, p-value = 0.6779 In questo caso possiamo osservare il valore del P – value sia molto maggiore di 0.1. ciò indica consistenza con l’ipotesi nulla 118 Abbiamo poi deciso di suddividere i risultati ottenuti per la distribuzione normale, e per ogni quota, in quattro classi, in funzione del grado di adattamento. Ricordiamo che non tutte le stazioni considerate avevano un P – Value maggiore di 0.1, quindi non tutte presentano dati consistenti con l’ipotesi nulla. Abbiamo cosi ottenuto un risultato per cui ad alcune serie di dati non siamo riusciti ad attribuire nessuna delle tre distribuzioni prese in considerazione, per tutti gli altri invece siamo riusciti ad attribuire una distribuzione normale anche se con livelli di significatività differenti. Nello specifico, abbiamo scelto tra le molteplici suddivisioni proposte in letteratura la seguente: Figura 7.3 Range di significatività Abbiamo quindi realizzato una semplice statistica da cui è emerso che, facendo riferimento alla quota relativa a 1000 Hpa: L’ 11% del campione, pari a 15 punti su 135, non si adatta alla distribuzione normale; Il 28% del campione, pari a 37 punti su 135, si adatta alla distribuzione normale con un basso grado di significatività; Il 34 % del campione, pari a 46 punti su 135 si adatta alla distribuzione normale con un medio grado di significatività. Il restante 27 % del campione, pari a 37 campioni su 135 si adatta alla distribuzione normale con un alto grado di significatività; 119 facendo riferimento alla quota relativa a 850 Hpa: Il 10% del campione, pari a 13 punti su 135, non si adatta alla distribuzione normale; Il 24% del campione, pari a 32 punti su 135, si adatta alla distribuzione normale con un basso grado di significatività; Il 33% del campione, pari a 45 punti su 135 si adatta alla distribuzione normale con un medio grado di significatività. Il restante 33% del campione, pari a 45 campioni su 135 si adatta alla distribuzione normale con un alto grado di significatività; facendo riferimento alla quota relativa a 700 Hpa: Il 16% del campione, pari a 22 punti su 135, non si adatta alla distribuzione normale; Il 25% del campione, pari a 34 punti su 135, si adatta alla distribuzione normale con un basso grado di significatività; Il 33% del campione, pari a 44 punti su 135 si adatta alla distribuzione normale con un medio grado di significatività. Il restante 26 % del campione, pari a 35 campioni su 135 si adatta alla distribuzione normale con un alto grado di significatività; ed infine, facendo riferimento alla quota relativa a 500 Hpa: Il 16% del campione, pari a 22 punti su 135, non si adatta alla distribuzione normale; Il 21% del campione, pari a 28 punti su 135, si adatta alla distribuzione normale con un basso grado di significatività; Il 33% del campione, pari a 44 punti su 135 si adatta alla distribuzione normale con un medio grado di significatività. Il restante 30 % del campione, pari a 41 campioni su 135 si adatta alla distribuzione normale con un alto grado di significatività 120 7.3 Analisi di omogeneità della varianza L'analisi della varianza è un insieme di appartenenti al mondo della statistica inferenziale che permettono di confrontare due o più gruppi di dati confrontando la variabilità interna a questi gruppi con la variabilità tra i gruppi. L'ipotesi nulla solitamente prevede che i dati di tutti i gruppi abbiano la stessa origine, ovvero la stessa distribuzione stocastica, e che le differenze osservate tra i gruppi siano dovute solo al caso. Si usano queste tecniche quando le variabili esplicative sono di tipo nominale anche se nulla impedisce di usare queste tecniche anche in presenza di variabili esplicative di tipo ordinale o continuo, ma in tal caso sono meno efficaci delle tecniche alternative (ad esempio: regressione lineare). Per le nostre elaborazioni, di carattere più speditivo che esaustivo, ci è bastato fermarci all’applicazione dei test di omogeneità della varianza; test che in realtà vengono considerati il primo passo per un’ANOVA (ANalysis Of Variance) vera e propria. 7.3.1 Risultati del test di omogeneità della varianza tra due campioni Abbiamo confrontato a coppie le serie di dati di umidità media annua delle quote fra esse contigue, per un totale di tre confronti per punto: uno fra le quote 1000 Hpa e 850 Hpa, uno fra 850 Hpa e 700 Hpa ed un altro tra 700 Hpa e 500 Hpa, con il fine di capire se i diversi campioni potessero avere la stessa origine. Si è scelto di effettuare il confronto solamente tra quote adiacenti dello stesso punto, scartando fin da subito un possibile confronto tra tutte e quattro le quote perché altrimenti, dato la natura dei dati e della variabile, l’analisi non avrebbe condotto ad un risultato significativo. Qui di seguito abbiamo riportato come esempio i risultati ottenuti per il punto di longitudine 70° e di latitudine 40°; considerando che le 1000.850 121 indica il confronto effettuato tra le serie di dati corrispondenti alle quote riferite a 1000 Hpa e 850 Hpa, le850.700 quello tra 850 Hpa e 700 Hpa ed infine le700.500 quello per tra 700 Hpa e 500mb. > le1000.850<-levene.test(dati1,gruppi1,location="mean", kruskal.test=T) > le850.700<-levene.test(dati2,gruppi2,location="mean", kruskal.test=T) > le700.500<-levene.test(dati3,gruppi3,location="mean", kruskal.test=T) > le1000.850 rank-based (Kruskal-Wallis) classical Levene's test based on the absolute deviations from the mean ( none not applied because the location is not set to median ) data: dati1 Test Statistic = 6.3155, p-value = 0.01197 > le850.700 rank-based (Kruskal-Wallis) classical Levene's test based on the absolute deviations from the mean ( none not applied because the location is not set to median ) data: dati2 Test Statistic = 0.0607, p-value = 0.8054 > le700.500 rank-based (Kruskal-Wallis) classical Levene's test based on the absolute deviations from the mean ( none not applied because the location is not set to median ) 122 data: dati3 Test Statistic = 3.693, p-value = 0.05464 Visto che siamo riusciti a definire che non tutte le serie storiche provengono da distribuzioni normali abbiamo deciso di eseguire i test sull’omogeneità della varianza utilizzando un test non parametrico, il test di Levene, che ci permettesse di slegarci dai parametri delle distribuzioni e paragonare cosi campioni di dati aventi anche origini differenti. Anche in questo caso si è realizzata una semplice statistica da cui è emerso che, considerando campioni omogenei per un valore del p-value > 0.1 : Il 79% del campione, pari a 107 confronti su 135 fra le quote riferite a 500 Hpa e 700 Hpa, risulta omogenei; L’84% del campione, pari a 113 confronti su 135 fra le quote riferite a 700 Hpa e 850 Hpa, risulta omogeneo ; Il 36% del campione, pari a 49 confronti su 135 fra le quote riferite a 850 Hpa e 1000 Hpa, risulta omogeneo. Nella pagina seguente, a titolo di esempio, riportiamo i risultati ottenuti dai confronti tra i campioni posti a 500 Hpa e quelli a 700 Hpa: 123 124 8 Conclusioni L’obiettivo della nostra analisi, come precedentemente detto, è stato descrivere ed inquadrare la questione relativa all’umidità in Europa effettuando analisi temporali, spaziali ed in quota. L’umidità, come detto, è un fenomeno atmosferico complesso, variabile nello spazio e nel tempo e regolato dall’interazione tra caratteri geografici statici e caratteri dinamici. Questa interazione dipende a sua volta da innumerevoli fattori: Latitudine e incidenza dei raggi solari; Stagionalità; Distribuzione di mari e terre emerse; Correnti e venti; Orientamento dei grandi sistemi montuosi; Rilievi e loro esposizione topografica; Acque continentali. Il nostro studio è stato effettuato su serie storiche di dati di umidità relativi a 135 stazioni distribuite su un territorio vasto e morfologicamente variegato. Dai risultati delle analisi temporali non abbiamo potuto evidenziare alcuna corrispondenza significativa tra il cambiamento climatico e l’evolversi nel tempo dei vari regimi di umidità. 125 Questo potrebbe ritenersi dovuto fondamentalmente all’utilizzo di un campione troppo limitato nel tempo, 30 anni si sono rivelati essere un orizzonte temporale eccessivamente ridotto per analisi di questo tipo, Il campione utilizzato si è ad ogni modo confermato essere affidabile e completo; caratteristiche verificate grazie al test effettuato con l’ausilio di Google Earth per individuare le caratteristiche al suolo. Questo test ci ha fornito un ottima corrispondenza tra i valori di umidità relativa e ciò che è stato riscontrato al suolo. Una volta raccolti per ogni stazione di misura (ad es. il punto lat:30; long:10) tutti i dati disponibile mese per mese (ad es. Tutti i Luglio del 1979 al 2009), divisi per quota (ad es. 700 Hpa), si è proceduto con l’analisi spaziale con l’obiettivo di individuare eventuali trend. Abbiamo cercato di individuare, qual’ora ci fossero andamenti dominanti utilizzando i valori di pendenza riassuntivi dell’andamento dell’umidità media nel trentennio considerato. L’elaborazione effettuate pur avendo evidenziato alcune omogeneità locali non presenta caratteristiche di uniformità ed univocità tali da permettere di poter effettuare considerazioni credibili ed esaustive. Per provare a chiarire questo genere di risultati riteniamo sarebbe stato necessario avere competenze tecnico-scientifiche specifiche di tipo meteorologico non a nostra disposizione, oltre a disporre di dataset relativi ad un orizzonte temporale più esteso. Successivamente abbiamo verificato l’adattabilità del dato a distribuzioni note quali la normale, la lognormale e la gamma. Per quanto riguarda distribuzione lognormale e gamma i valori del P – value sono molto inferiore a qualsiasi soglia di accettabilità, facendoci così escludere un adesione del nostro campione a questo tipo di distribuzioni. 126 Riportiamo di seguito i valori percentuali relativi la soglia di accettabilità ottenuti dall’applicazione del test di Kolmogorov – Smirnov per il caso di distribuzione normale: Dove sono stati utilizzati i seguenti range, definiti in letteratura, per descrivere qualitativamente il grado di significatività Dai risultati ottenuti risulta che la distribuzione normale possa adattarsi ai nostri dati con una percentuale che varia dall’84% della quota di 500 Hpa fino al 90% per la quota di 850 Hpa. Questo mostra buona aderenza con le caratteristiche di continuità e poca variabilità del parametro umidità. Per i restanti campioni non siamo stati in grado di attribuire nessuna distribuzione di probabilità, non riuscendo a caratterizzare in questo modo una percentuale di dati oscillante dal 16% al 10%. Le analisi in quota sono state svolte sempre tramite il software R con l’obiettivo di valutare l’omogeneità tra quote adiacenti. Il test utilizzato in questo caso è stato il Levene Test. L’obiettivo perseguito è stato provare a capire se i dati appartenenti a quote adiacenti potessero appartenere allo stesso “universo statistico”, investigando cosi se la misura di umidità relativa ad una data quota potesse risultasse indipendente oppure no rispetto a quella della quota subito superiore o inferiore. 127 Anche in questo caso si è realizzata una semplice statistica. Considerando campioni omogenei quelli per un valore del P-value > 0.1 abbiamo verificato quanto segue: 500→700 700→850 850→1000 N° Stazioni omogene su 135 Percentuale omogeneità 107 7900% 113 84 49 36 Spicca il 36% di omogeneità tra gli 850 Hpa e 1000 Hpa, valore particolarmente basso. Questo dato risulta fisicamente giustificato dal passaggio che avviene in questa zona da regime turbolento, al suolo, a regime laminare, in quota. Indirettamente inoltre, conferma l’influenza della tipologia di suolo e della morfologia sul regime di umidità misurato. 8.1 Sviluppi futuri Affinché il lavoro fin qui presentato possa divenire spunto per future trattazioni che approfondiscano e migliorino la conoscenza sul tema trattato riteniamo possano essere intraprese diverse strade. Si potrebbe sicuramente ampliare il perimetro di trattazione, così da poter effettuare valutazioni su scala globale rendendo le potenziali conclusioni il più aderenti possibili alla complessità dei fenomeni meteorologici. A tal proposito si potrebbe affinare il passo di discretizzazione nella speranza di ottenere una più completa ed attendibilità individuazione di eventuali trend e/o ciclicità. Sarebbe utile considerare l’eventualità di effettuare nuovamente questo tipo di analisi incrociando dati di umidità relativa e/o assoluta di diversa origine, ad esempio, oltre ai dati satellitari utilizzando database ottenuti tramite spazializzazione di dati puntuali forniti da radiosondaggi, scelta che tra le altre cose permetterebbe di verificare indirettamente la bontà del dato satellitare. Noi non abbiamo perseguito questo tipo di strada per diverse ragioni: 128 elevato spesa necessaria per ottenere dati di questo tipo, tra i database a libero accesso spesso non vi sono riportati dati relativi a tutte le quote di interesse l’orizzonte temporale fornito, ad oggi, non è ancora soddisfacente per alcuni tipi di analisi Sarebbe sicuramente interessante impostare nuove analisi, considerando un maggior numero di quote così da poter in qualche modo fare considerazioni più attendibili sul profilo di umidità. Con il passare degli anni sarà ovviamente possibile avere accesso a serie sempre più lunghe e precise affinando naturalmente futuri risultati, permettendo di approfondire ad esempio il collegamento umiditàcambiamento climatico. 129 Appendice 1 A1.1 NCAR NCAR nasce a partire da un piccolo gruppo di scienziati innovativi, molti dei quali docenti universitari, come risposta creativa alla grande sfida che ha affrontato la nazione statunitense negli anni tra il 1930 e il 1950. Nel 1930 i principali dipartimenti di meteorologia erano stabiliti presso il Massachusetts Institute of Technology, l'Università di Chicago, e le altre principali università degli Stati Uniti. Il loro obiettivo era quello di indagare scientificamente i principi fisici che sono basilari per definire il comportamento dell'atmosfera. Nel giro di un decennio, le operazioni militari della seconda guerra mondiale, che a differenza di quelli di qualsiasi precedente guerre si basavano su assalti che erano non solo via terra e mare bensì anche aerei, erano fortemente dipendenti e condizionate dalle condizioni atmosferiche estese a vaste regioni, dal Nord Atlantico al Pacifico del Sud, dai poli ai tropici . Le competenze meteorologiche dei vari dipartimenti universitari crebbero così rapidamente che i servizi militari inviarono propri membri per imparare i fondamenti della meteorologia. Il compito di questi ufficiali incaricati spaziava dalla produzione di banali previsioni meteo giornaliere a ben più importanti e strategiche pianificazioni per le varie operazioni militari, come il D-Day in Normandia. I servizi militari furono supportati in questo periodo anche da enti di ricerca meteorologica così da produrre un miglioramento nella comprensione del tempo e del clima. I piloti militari in missione di bombardamento a lungo raggio hanno scoperto la presenza ad alta quota di “fiumi” d’aria in rapido movimento, ora note come correnti a getto (jet streams), ormai riconosciuti come elementi chiave per la previsione della circolazione atmosferica su larga scala. 130 Nonostante gli imponenti programmi di formazione degli anni ‘40, il settore delle scienze atmosferiche perse terreno negli anni del dopoguerra, diventando una sorta di cugino povero di molti altri rami della scienza. Circa il 90% dei meteorologi americani nella metà del secolo sono stati impiegati dal governo federale, principalmente nella produzione di previsione anziché impegnarli in progetti di ricerca sulle tematiche fondamentali del clima. Il numero di nuove persone che entravano in campo era tristemente basso facendo si che la meteorologia vantasse la più piccola percentuale di dottorati rispetto a qualsiasi altra disciplina scientifica. Nel 1956, l'Accademia Nazionale delle Scienze ha incaricato un comitato di eminenti scienziati ad indagare e valutare lo stato degli studi in materia di meteorologia. Notando la dimensione e la complessità dei problemi atmosferici e le risorse inadeguate per la loro risoluzione, la commissione ha raccomandato un aumento esponenziale del sostegno alla ricerca di base. Accoppiato con il nuovo finanziamento, la commissione propose di istituire un Istituto nazionale (in seguito chiamato un centro nazionale) sulla ricerca atmosferica che fosse gestito da un consorzio di università con il sostegno della National Science Foundation. La missione dell'Istituto avrebbe dovuto essere quella di: Affrontare i problemi fondamentali dell'atmosfera su scala adeguata alla loro natura globale. Strutturare le strutture di ricerca necessarie per un tale approccio su larga scala. Fornire un approccio interdisciplinare coordinato a questi problemi cosa che non sarebbe stata possibile procedendo a livello di singoli dipartimenti universitari. Preservare l'alleanza naturale tra ricerca e istruzione, senza squilibrare i dipartimenti universitari. Nel 1960, ha avuto inizio per mano del NCAR, a Boulder in Colorado, un programma della National Science 131 Foundation (NSF), gestito dall’organizzazione no profit “Universiy Corporation for Atmospheric Research” (UCAR). Al momento in cui ha finanziato la creazione del NCAR, il programma NSF era stati in vigore solamente da dieci anni. Oggi, NCAR fornisce la ricerca universitaria e la comunità scientifica con strumenti quali aerei e radar per osservare l'atmosfera e con la tecnologia e l'assistenza per interpretare e utilizzare queste osservazioni prodotte, tra cui l'accesso a supercomputer, modelli computerizzati di interpretazione e previsione della realtà ed un servizio di supporto diretto agli utenti. Gli scienziati del NCAR e delle Università si trovano quindi a collaborare sui vari temi di ricerca quali ad esempio la chimica atmosferica, il clima, la fisica delle nubi e delle tempeste, i rischi meteorologici per l'aviazione e le interazioni tra il sole e la terra. L’obiettivo degli studi in tutte queste aree e quello di cercare di capire e quantificare quello che può essere il ruolo degli esseri umani sia nella determinazione del cambiamento climatico che in risposta ai sempre più frequenti eventi meteorologici estremi. 132 Appendice 2 A2.1 Biomi Il clima locale determina la formazione di un ambiente caratteristico, chiamato bioma. Il bioma è l'insieme di animali e vegetali che vivono in un determinato luogo o ambiente geografico che hanno raggiunto un elevato grado di adattamento all'ambiente naturale che li ospita con particolare riferimento alla flora ed al clima. Si distinguono biomi terrestri e biomi dell'idrosfera. L'identificazione di un bioma terrestre si basa sulle specie proprie e sulle caratteristiche fondamentali dell'ambiente. A2.1.1 La tundra In geografia fisica, il termine tundra, indica un'area dove la crescita degli alberi è ostacolata dalle basse temperature e dalla breve stagione estiva. Il termine tundra deriva dal termine lappone tunturia, che significa "pianura senza alberi". Tundra è quindi per estensione la vegetazione tipica delle zone polari artiche, composta principalmente da muschi, licheni e pochi arbusti. È pertanto una vegetazione tipica di climi molto rigidi. Geograficamente, si estende nelle zone ai margini delle regioni perennemente ricoperte dai 133 ghiacci, dove il terreno già a pochi centimetri dalla superficie è ghiacciato (permafrost). In queste regioni, l'inverno è molto rigido mentre l'estate è corta e fresca, Per questo le specie animali che vi vivono concentrano la loro attività nel periodo estivo. Tutte le specie tipiche di questo habitat possiedono cicli riproduttivi molto veloci, entro l'arrivo dei primi freddi devono completare la propria riproduzione, lo sviluppo ad età adulta e prepararsi per la lunga e fredda stagione invernale. A2.1.2 La taiga La taiga è un bioma caratterizzato da foreste di conifere. Si tratta di una regione geografica umida subartica, dove il clima è meno rigido e l'estate è più lunga. La vegetazione è formata da abeti, larici e pini, con foglie aghiformi sempreverdi. Le foreste di conifere sono molto importanti anche del punto di vista economico: gran parte del legname prodotto per l'industria deriva proprio dallo sfruttamento di queste foreste. La taiga offre riparo e alimentazione anche a molti animali della tundra, che sopraggiungono spinti dai rigori invernali. È localizzata nella zona nord del globo e si trova quasi sempre sotto la tundra. 134 A2.1.3 Grasslands (praterie) La prateria è una vasta estensione di terreno erboso, in genere pianeggiante. È caratteristica delle zone dell'America settentrionale (Mississippi, Montagne Rocciose) con scarsa umidità, livelli di precipitazione inferiori a 500 mm anno e suolo coperto di neve durante l'inverno. Prevalgono le specie erbacee (Graminacee e leguminose annue) con cespugli e rari alberi isolati; nelle zone dove la temperatura è maggiore e minore l'umidità si sviluppano anche agavi e cactus. A2.1.4 La steppa La steppa è una formazione vegetale erbacea. È caratteristica delle regioni tropicali, subtropicali e temperate con periodi piovosi corti. Manca la vegetazione arborea, ad eccezione di cespugli bassi. Sono presenti piante erbacee graminacee di breve durata, rigogliose durante la breve stagione delle piogge. 135 A2.1.5 Deciduous forest (foresta temperata) La foresta temperata è un tipo di foresta presente sia nell'emisfero boreale che in quello australe. Nella regione boreale si estende alle regioni di clima temperato oceanico, a quelle a clima medio europeo, a clima nord-europeo ed a clima continentale. Nella regione australe è caratterizzata da vegetazione sempreverde a causa della maggiore umidità (araucarie, eucalipti). A2.1.6 Mediterranean chaparral (bioma mediterraneo) Il bioma mediterraneo è una zona di transizione che si trova nell'emisfero boreale tra la fascia temperata e quella tropicale. La flora è costituita da conifere e sughere che sono state in parte rimosse dall'azione umana e dagli arbusti aromatici e sempreverdi che fanno parte della macchia mediterranea. Caratterizzato da estati aride e piogge concentrate soprattutto nei periodi autunnali ed invernali. 136 A2.1.7 Deserto In geografia si definisce deserto ogni area inadatta all'insediamento umano, del tutto o quasi disabitata, in cui non piove quasi mai, il terreno è arido e non coltivabile. Esistono due tipi principali di deserto: le aree a clima caldo (deserto roccioso, sabbioso, a dune), presenti nelle regioni tropicali, caratterizzate da accentuata aridità, vegetazione ridotta o assente, mancanza di corsi d'acqua perenni. L’escursione termica tra il giorno e la notte è elevata per la mancanza di umidità e per la distanza dal mare; le aree a clima freddo (deserto freddo, deserto bianco), presenti nelle regioni settentrionali e meridionali a margine dei continenti boreali e australi (Groenlandia, Artide e Antartide), caratterizzate da freddo intenso e perenni distese di neve e ghiaccio. A2.1.8 Savana La savana è un habitat delle regioni calde tropicali in cui le piogge cadono con regolarità stagionale. È costituita da vaste distese di graminacee, alte fino a 137 due metri, disseminate di cespugli e di rari alberi isolati (come acacia, baobab o euforbia). La savana è diffusa in America, in Australia ed in Africa e nelle zone con scarsa piovosità si trasforma in steppa. Le savane (Africa occidentale e sudoccidentale), si sviluppano in regioni caratterizzate da clima arido, con precipitazioni annue comprese tra i 100 e i 400 mm; tali zone variano dalle foreste a volta aperta, con una modesta presenza di erbe, alle vere e proprie savane, nelle quali invece le erbe sono dominanti e gli alberi sono molto rari. A2.1.9 Foresta tropicale La foresta equatoriale (o pluviale) è una foresta fittissima e particolarmente ricca di specie vegetali. Nelle zone presso l'Equatore si estendono immense foreste pluviali, che in passato erano assai più estese di oggi. La più grande foresta del mondo è quella dell'Amazzonia, nell'America del Sud. Essa copre un territorio di circa 7 milioni di chilometri quadrati (pari a circa venti volte l'Italia). La seconda foresta pluviale per estensione si trova in Africa Centrale e ricopre il bacino del fiume Congo. Queste regioni forestali forniscono una grande quantità di ossigeno, valutata in metà di tutta quella contenuta nell'atmosfera. 138 A2.1.10 Bioma alpino La vegetazione alpina varia a seconda delle zone altitudinali: alla quota più alta ci sono muschi e licheni; scendendo verso il basso si incontrano boschi di conifere e quindi faggeti; nel sottobosco, querce e castagni. 139 Appendice 3 A3.1 Clima dettagliato per alcuni dei principali paesi europei Osserviamo ora la descrizione climatica delle singole nazioni in cui sono presenti le stazioni di rilevamento che abbiamo analizzato. A3.1.1 Finlandia Tra i paesi scandinavi la Finlandia è quella con il clima più rigido. L’inverno freddo e secco, della durata di sette mesi, da ottobre ad aprile, cede il passo velocemente ai tre mesi estivi, caldi e piovosi. A3.1.2 Norvegia La Norvegia gode di un clima abbastanza temperato soprattutto lungo le coste e nelle isole, nonostante l’elevata altitudine. Questo grazie all’influenza della corrente Nord Atlantica che ne mitiga alquanto le temperature. Questo particolare fenomeno impedisce la formazione dei ghiacci marini durante l’inverno. Le Alpi Scandinave dividono la Norvegia in due aree climaticamente distinte: Le zone sud orientali e nord orientali hanno un clima di tipo continentale. Le coste occidentali hanno un clima di tipo marittimo con inverni relativamente miti ed estati fresche e piovose. A3.1.3 Danimarca La Danimarca è caratterizzata da un clima temperato marittimo, con frequenti precipitazioni dovute ai venti atlantici, portatori di aria umida e mite, ma non abbondanti a causa della mancanza di rilievi montuosi. Le 140 temperature non scendono mai eccessivamente, nemmeno in pieno inverno, grazie alla corrente nordatlantica. A3.1.4 Regno unito Il clima nel Regno Unito è temperato marittimo ma presenta forte variabilità. I venti umidi oceanici favoriscono le precipitazioni e riducono l’escursione termica annua spirando aria mite in inverno e fresca d’estate. Il clima può cambiare repentinamente nell’arco di una stessa giornata ed i fenomeni sono spesso circoscritti. A3.1.5 Francia La Francia gode di un clima generalmente temperato anche se la presenza del massiccio centrale e la lontananza dal mare concorrono a variarne il clima in senso tendenzialmente continentale. Possiamo distinguere quattro diverse zone climatiche: Clima oceanico umido che caratterizza la fascia atlantica dai Pirenei alla Manica con estati fresche e inverni miti. Le precipitazioni sono frequenti nelle stagioni intermedie. Clima semicontinentale che caratterizza le zone orientali e quasi tutti i massicci montuosi con inverni secchi, gelidi e ventosi ed estati gradevoli. Le precipitazioni sono concentrate nella stagione invernale. Clima intermedio che caratterizza le regioni settentrionali con inverni molto freddi ed estati miti ma piovose. Clima tirrenico che caratterizza le regioni meridionali con inverni miti ed asciutti ed estati calde e ventilate. Le precipitazioni si concentrano in autunno e primavera. A3.1.6 Olanda L’Olanda è caratterizzata da un clima temperato marittimo ad eccezione della zona più interna ai confini con la Germania, che presenta caratteristiche più continentali. Gli inverni sono freddi e le estati miti. Le precipitazioni, 141 distribuite uniformemente durante l’anno, sono generalmente frequenti ma deboli. A3.1.7 Germania La Germania presenta un clima variegato in quanto sul territorio si scontrano correnti miti e temperate provenienti dall’Oceano Atlantico, correnti fredde di origine polare e correnti gelide provenienti dalla Siberia che causano instabilità e bruschi cambiamenti di tempo. Le correnti meridionali vengono invece fermate dalla catena alpina. Nelle zone settentrionali i venti umidi e miti dell’Atlantico determinano un clima oceanico con inverni miti ed estati fresche e ventilate. Le precipitazioni sono distribuite in modo piuttosto omogeneo con picchi durante la stagione estiva. Nell’area orientale il clima è più continentale, con inverni molto freddi ed estati molto calde, con lunghi periodi di siccità. Le regioni centrali e meridionali sono zone di transizione, dove il clima passa dal moderatamente oceanico al continentale. Nella fascia alpina e prealpina le temperature sono più basse rispetto al versante italiano e le precipitazioni piovose e nevose sono abbondanti soprattutto in primavera ed estate. A3.1.8 Svizzera La Svizzera presenta una discreta varietà di microclimi locali e regionali dovuta alla presenza delle catene montuose. Le zone settentrionali sono caratterizzate da un clima semicontinentale influenzato dall’Atlantico. Sulla regione alpina arriva aria marittima umida e mite con azione rinfrescante d’estate e mitigante in inverno. Le zone meridionali presentano invece caratteristiche mediterranee, con inverni più caldi. Le precipitazioni sono concentrate soprattutto nella tarda primavera e in estate. 142 A3.1.9 Austria L’Austria è caratterizzata da un clima continentale, con inverni rigidi e molto nevosi. Le precipitazioni piovose si registrano soprattutto nei mesi estivi, con una graduale diminuzione procedendo da ovest verso est. Si possono distinguere tre zone climatiche: le regioni orientali, caratterizzate da clima continentale influenzato dai venti freddi di origine siberiana e con precipitazioni deboli; le regioni interne montagnose, caratterizzate da un clima alpino con estati brevi e abbondanti precipitazioni nevose concentrate nei lunghi inverni. le regioni restanti, che presentano un clima di transizione caratteristico dell’Europa centrale, umido e temperato. A3.1.10 Ucraina L’Ucraina è caratterizzata da un clima moderatamente continentale. Le regioni orientali sono in parte raggiunte dalla brezza siberiana, mentre le zone occidentali sono percorse dai venti caldi del Mediterraneo. Sulle zone costiere le precipitazioni sono molto scarse mentre nelle zone più interne sono più frequenti, soprattutto nei mesi estivi. A3.1.11 Romania La Romania è soggetta ad un clima di transizione tra il temperato e il continentale a causa della sua posizione e della sua geografia. I monti Carpazi fungono da barriera contro le masse d’aria provenienti dall’Atlantico, relegando la loro influenza alla sola zona centro-occidentale del paese, dove portano inverni più miti e precipitazioni più intense; il massiccio blocca anche le irruzioni di aria gelida proveniente da est – nordest, ovvero dalle steppe russe ed ucraine, che portano inverni estremamente rigidi e precipitazioni ridotte nel sud e sud – est del paese. Le influenze mediterranee giungono attraverso il Mar Nero, rendendo il clima più mite e di tipo marittimo. Le precipitazioni sebbene adeguate in tutto il paese, sono più intense verso ovest e con l’aumentare dell’altitudine. 143 3.1.12 Bosnia – Erzegovina Il clima della Bosnia – Erzegovina ha carattere tipicamente continentale con influssi mediterranei nella valle della Neretva, aperta verso l’Adriatico; è caratterizzato da inverni freddi e nevosi e da estati calde e afose. Le escursioni termiche giornaliere non sono elevate mentre risultano significative su scala annuale. Le precipitazioni sono abbondanti e ben distribuite. 3.1.13 Croazia La Croazia è divisa climaticamente in due zone. Le zone costiere presentano un clima mediterraneo, con inverni umidi e miti ed estati calde e secche mentre nell’entroterra si ha un clima continentale, con inverni rigidi ed estati fresche e piovose nelle regioni centrale e più secche nelle regioni settentrionali. A3.1.14 Italia L’Italia gode di un clima temperato mediterraneo grazie all’influenza del mare che la circonda su tre dei suoi quattro lati e grazie alla presenza delle Alpi che offrono un efficace ostacolo ai freddi venti provenienti da nord. Tuttavia il clima si dimostra molto diversificato a seconda della lontananza dal mare e dalle montagne. L’inverno risulta molto freddo sulle Alpi, freddo e nebbioso nella valle del Po e negli Appennini centrali, mite sulle coste, specialmente su quelle tirreniche. L’estate è calda e secca su quasi tutta la penisola ad eccezione dalla pianura padana dove la forte umidità rende le estati spesso afose; sulle Alpi e lungo gli Appennini la stagione estiva è fresca e con abbondanti precipitazioni. 144 Appendice 4 A4.1 Software R R è un ambiente di sviluppo per l’analisi statistica di dati, che si basa su un linguaggio di programmazione derivato dal linguaggio S. È un software libero, distribuito con licenza GNU General Public Licence della Free Software Foundation, ed è disponibile per un’ampia varietà di sistemi operativi, tra cui Windows, MacOS e Linux. È open source, ovvero ogni utente ha il permesso di accedere liberamente al suo codice interno e di proporre modifiche. R permette di elaborare dati, eseguire calcoli ed effettuare rappresentazioni grafiche; può essere utilizzato anche per descrivere modelli statistici estremamente complessi. È infatti un ambiente molto potente, utilizzato da milioni di utenti tra cui importanti statistici. Inoltre è possibile estendere largamente le capacità di questo software con l’implementazione di packages appositi, organizzati nel sito del CRAN, Comprehensive R Archive Network. Grazie a questi moduli è possibile usufruire di innumerevoli funzioni statistiche aggiuntive, di comunicare con database specifici o con sistemi GIS, di importare ed esportare file e dati in e da diversi formati. R può essere utilizzato tramite linea di comando o attraverso un’interfaccia grafica, a seconda delle scelte dell’utente. Viene inoltre edito dai membri del progetto R una pubblicazione chiamata R Journal, nella quale vengono introdotti ed illustrati i nuovi pacchetti e vengono fornite spiegazioni sulla programmazione e sulle tecniche che è possibile utilizzare. 145 A.4.1.1 Formule utilizzate IMPORTAZIONE DA EXCEL (.xls) Pacchetto XlsReadWrite: read.xls (“directory del file.xls”, colNames = TRUE, sheet = 3, from = 1, rowNames = TRUE, naStrings = NA) IMPORTAZIONE DA FILE TESTO (.txt) Funzione Read.table: read.table (“directory del file . txt”, sep = “”, header = TRUE, quote = “”, dec = “,”, na.strings = “_”) A.4.1.2 KS test Ks test per la distribuzione normale: ks.test (nome vettore dati, “pnorm”) Ks test per la distribuzione lognormale: ks.test (nome vettore dati, “plnorm”) 146 Ks test per la distribuzione gamma: ks.test (nome vettore dati, “pgamma”, a, l) A.4.1.3 Test di Levene non parametrico Test di Levene per confronto delle varianze delle diverse serie di dati levene.test(dati, gruppi, location="mean", kruskal.test=T) rank-based (Kruskal-Wallis) classical Levene's test based on the absolute deviations from the mean ( none not applied because the location is not set to median ) 147 Bibliografia Tecniche e strumenti per il telerilevamento ambientale, Roma, 2000. Consiglio nazionale delle ricerche. Ghezzi Antonio, dispense di Misure e reti idrometeorologiche, Milano, 2008. Greppi Mauro, Idrologia, Milano,Ulrico Hoepli, 2005. Holton James R., An introduction to dynamic meteorology, New York, Academic Press Inc., 1972. Iacus Stefano M. e Masarotto Guido, Laboratorio di statistica con R, McGrawHill, 2003 Martyn Danuta, Climates of the World, Varsavia, PWN – Polish Scientific Publishers, 1992. Muggeo, Vito M. R. e Ferrara Giancarlo, Il linguaggio R: concetti introduttivi ed esempi, seconda edizione, 2005. Guzzi Rodolfo, Manuale di climatologia, franco Muzzio e& C. editore Piazza Lello Elio, Probabilità e statistica, Progetto Leonardo, 2011. 148 Pinna Mario, Climatologia, Torino, Unione Tipografico – Editrice Torinese, 1977. Project team ECA&D, Royal Netherlands Meteorological Institute KNMI, Algorithm Theoretical Basis Document (ATBD), 2010. Ricci Vito, Rappresentazione analitica delle distribuzioni statistiche con R, 2005. World Meteorological Organization WMO, Measurement of precipitation, sesto capitolo di “Guide to Meteorological Instruments and Methods of Observation”, WMO – n°8, settima edizione, 2008. Sitografia Sito internet: ECA&D European Climate Assessment and Dataset http://eca.knmi.nl/ Sito internet: NOAA http://www.esrl.noaa.gov Sito internet: NASA http://www.nasa.gov Sito internet: Centre for Environmental Data Archival http://badc.nerc.ac.uk 149 Sito internet: IPPC intergovernmental panel on climate change http://www.ipcc-data.org/obs/index.html Sito internet: CSL research data archive http://rda.ucar.edu/#home Sito internet: The R Project for Statistical Computing http://www.r-project.org/ Sito internet: The Comprehensive R Archive Network http://cran.r-project.org/ Sito internet: Met Office, Weather and Climate Change http://www.metoffice.gov.uk/ Sito internet: WMO, World Meteorological Organization http://www.wmo.int/pages/index_en.html Sito internet: Wetter Zentrale Klimadaten http://www.wetterzentrale.de/klima/index.html Sito internet: National Climatic Data Center NCDC http://www.ncdc.noaa.gov/oa/ncdc.html Sito internet: Eumetsat http://www.eumetsat.int/Home/index.htm Sito internet: Global Precipitation Climatology Project GPCP http://cics.umd.edu/~yin/GPCP/main.html 150