5 - VALUTAZIONE DEL RISCHIO DI INQUINAMENTO DELLE ACQUE SOTTERRANEE MEDIANTE L’USO DEL KRIGING DISGIUNTIVO* Passarella G., Vurro M., Caputo M.C., IRSA-CNR, Bari D’AgostinoV., Tecnopolis – CSATA, Bari Giuliano G, IRSA-CNR, Roma RIASSUNTO Il rischio R a cui è soggetto un sistema naturale rappresenta la quantificazione della perdita o del danno attesi, in conseguenza del verificarsi di un particolare fenomeno, naturale o indotto dall’uomo. La vulnerabilità di un sistema e la pericolosità dell’evento verificatosi sono due variabili indipendenti, ed essenziali, per la valutazione del rischio. Nel caso di sistemi idrici sotterranei la vulnerabilità è determinata in base alla elaborazione delle conoscenze relative alle caratteristiche fisiche (idrogeologia) dei sistemi stessi e numerosi sono gli studi, nel campo delle risorse idriche sotterranee, relativi alla valutazione della vulnerabilità degli acquiferi ed alla relativa rappresentazione cartografica in classi. La quantificazione della pericolosità di eventi naturali e/o indotti su un sistema naturale, può, al contrario, rappresentare un impegno arduo, dipendendo, questa valutazione da diversi fattori, non sempre facilmente schematizzabili. Ne consegue che la determinazione di questo fondamentale parametro per la valutazione del rischio può, in certi casi, essere difficile e addirittura impossibile. La possibilità di quantificare il rischio, in termini probabilistici, in modo più diretto, consentirebbe di evitare la determinazione delle sue componenti. Obiettivo di questo studio è, quindi, la proposizione di una metodologia per valutare il rischio, nell’ambito della problematica della gestione delle acque sotterranee. L’evento potenzialmente dannoso, in questo caso, è lo spandimento agricolo di sostanze fertilizzanti sul terreno, il sistema vulnerabile è, ovviamente, la falda idrica sotterranea mentre il rischio che si vuole valutare è quello del superamento di soglie assegnate di concentrazione di certi inquinanti nella falda. * IRSA (2000): “Aspetti applicativi delle tecniche geostatistiche alle acque sotterranee”, Quad. Ist. Ric. Acque, 114, Roma 1 SUMMARY The risk R to whom a natural system is subject represents the quantification of the expected damage produced by particular natural or anthropogenic event. The vulnerability of a system and the hazard of the event are two independent variables that are very important for the risk assessment. Considering groundwater systems, the vulnerability is determined by elaborating the information about the physical characteristics of the systems (hydrogeology) and a large number of studies have been carried out for the evaluation of the groundwater systems vulnerability and its cartographic representation. On the contrary, the evaluation of the hazard related to natural or anthropogenic events can be rather difficult. In fact the hazard is strictly dependent on different factors not always easily valuable. It follows that the evaluation of this important parameter for the risk assessment, is sometimes be very difficult or impossible. The possibility of assessing the risk, directly, in probabilistic terms, could allow to avoid the evaluation of its components. This study aims to propose a methodology for the risk assessment in the frame of groundwater system management. The potentially harmful event considered is the fertilizers and manure application on the ground surface, responsible of the occurrence of nitrate concentrations in groundwater that is the vulnerable system; the risk that has to be assessed is the possibility that a given nitrate concentration threshold be exceeded. 2 5.1 - Introduzione Il rischio è il prodotto tra la vulnerabilità di un sistema e la pericolosità associata ad un evento dannoso. La vulnerabilità è definita come la capacità che un sistema naturale ha di resistere ad un evento o di subirne danno; la pericolosità, invece, è la probabilità che un dato evento accada. Gli elementi che concorrono alla definizione della vulnerabilità sono la sensibilità, la resilienza, la rinnovabilità ed i punti deboli. Un sistema è più o meno sensibile ad un evento esterno in relazione alla propria attitudine a subirne nocumento. La resilienza è quella caratteristica che permette ad un sistema di ritornare in modo naturale, più o meno velocemente, allo stato in cui si trovava prima di subire un danno. La rinnovabilità si differenzia dalla resilienza in quanto misura la capacità di potere ripristinare uno stato di fatto iniziale per via quasi esclusivamente artificiale. Infine, la presenza di punti deboli in un sistema naturale può produrre effetti nocivi incontrollati in ambiti anche molto vasti. La pericolosità è definita come la probabilità che un determinato evento possa verificarsi in una parte del sistema naturale considerato. Quando si studia la pericolosità associata ad un evento si deve valutare l’estensione temporale e spaziale degli eventi passati, determinare la gravità degli effetti da essi prodotti e stimare la loro frequenza temporale. È relativamente consolidato il modo di operare per pervenire a valutazioni relative alla probabilità di accadimento di determinati eventi critici in aree per le quali si dispone di campioni di dati, e si interpreta la variabile campionata come aleatoria. In campo idrologico, si pensi alle valutazioni che riguardano le probabilità di accadimento di eventi meteorologici estremi, ad esempio di piogge caratterizzate da una certa durata e intensità, e la valutazione degli effetti in una sezione di chiusura di un bacino. L’obiettivo è quello di raggiungere un giusto compromesso fra costi di un sovradimensionamento di un opera di contenimento ed il rischio ambientale o infrastrutturale derivante da un sottodimensionamento. I dati da utilizzare, in questo caso, sono quelli rappresentativi degli eventi estremi. Senza entrare nel dettaglio su quanti (un evento critico o k eventi critici per anno) e quali dati debbano essere selezionati, si può affermare che la soluzione del problema passa attraverso la scelta del tipo di modello di distribuzione teorica o pdf (probability density function) degli estremi climatici e la stima dei suoi parametri. Fra i modelli si possono citare quelli di Gumbel (1958), di Fisher-Tippet (1928) del I, II e III tipo, e quelli più recenti come il TCEV (Two Component Extreme Value) (Rossi et al., 1984). I metodi di calcolo dei parametri delle pdf sono 3 consolidati. Alcuni di essi si rifanno agli schemi iterativi per gli stimatori ML (Maximum Likelihhod) tra i quali quelli proposti da Jenkinson (1969) e Stevens e Van Isaker (1975). Analogamente, e in via del tutto generale, si potrebbe mutuare il precedente approccio in ambito di gestione delle acque sotterranee. Nei pozzi di monitoraggio in cui si effettuano i prelievi e le corrispondenti misure di concentrazione sarebbe sempre possibile descrivere statisticamente i dati, e passare dall’istogramma ad una pdf (normale o asimmetrica). Attraverso la pdf sarebbe immediato stimare la probabilità associata ad intervalli aperti (o chiusi) di valori per l’inquinante. La probabilità del verificarsi dell'evento, riferita al luogo ove insiste una stazione di rilevamento, sarebbe risolta nel momento in cui si ipotizzasse un modello di pdf per i dati (non solo i valori massimi) e si stimassero i suoi parametri. Nell’ambito delle acque sotterranee, il problema così posto è di scarso interesse mentre assume rilevanza la valutazione della probabilità in un generico punto dell’acquifero, anche non strumentato, quale premessa per costruire le mappe di rischio. Per fare ciò, in altri contesti (vedi ancora l’idrologia delle acque superficiali) si utilizzano delle opportune tecniche, dette di regionalizzazione (Cannarozzo et al., 1990, Nathan R.J. e McMahon T.H., 1990, Zanframundo et al., 1994, D’Agostino 1996). Ipotizzando che in una data regione sia presente un insieme di siti strumentati appartenenti alla stessa distribuzione di probabilità, l’analisi regionale consente di assegnare un sito strumentato ad una regione, di applicare alcuni test per verificare se le regioni siano significativamente omogenee, e di scegliere la pdf da adattare ai dati assegnati a ciascuna regione. Nelle analisi delle frequenze regionali si possono utilizzare le statistiche basate sugli L-momenti (Hosking e Wallis, 1993) per: − identificare siti singolari in una regione; − valutare se una proposta regione sia omogenea; − valutare se una distribuzione candidata fornisce un adeguato adattamento ai dati. Riassumendo, quindi, le tecniche di regionalizzazione permettono di: − ampliare il campo di validità di una pdf da punti strumentati ad una regione; − migliorare la stima dei parametri della pdf in quanto tutti i dati delle stazioni, che insistono su di una regione, sono raggruppati e considerati come un unico campione; − estrapolare i parametri idrologici da un sito, in cui sono stati raccolti i dati, ad un altro nel quale i valori sono richiesti ma non sono disponibili. Tra 4 l’altro, Nathan e Mc Mahon (1990), Burn e Borman (1993) hanno proposto le equazioni di regressione sulle aree omogenee mentre Rao e Hsieh (1991) l’uso di EOF (Empirical Orthogonal Functions). L’analisi regionale, così intesa, è utile per costruire mappe di rischio ai fini della gestione delle acque sotterranee? L’indagine bibliografica orienterebbe verso una risposta negativa, nel senso che non esistono lavori scientifici che abbiano sperimentato l’utilizzabilità di siffatti metodi di regionalizzazione per la costruzione di mappe di rischio. Ciò ha una giustificazione. Le pdf costruite mediante il precedente approccio sono in stretto legame con l’ampiezza delle regioni: maggiore è l’omogeneità e l’estensione dell’area regionale maggiore è la significatività della pdf i cui parametri, in questo caso, sarebbero stimati sulla base di un campione più numeroso. Nella caratterizzazione territoriale del rischio avremmo una probabilità di superamento di prefissate soglie che sarebbe associata a tutta la regione. Ma, se queste fossero estese, la mappa di rischio fornirebbe una vista con un dettaglio molto ampio. La rappresentazione grafica sarebbe del tipo valore (la probabilità) associato ad un poligono chiuso (la regione). La rappresentazione ad iso-livelli di probabilità, a questo punto, diventa un artificio grafico e può avvenire solo attraverso l’interpolazione dei parametri della pdf (Franchini e Galeati, 1994). L’individuazione della metodologia non può prescindere dall’obiettivo che si intende perseguire. Le analisi di caratterizzazione del rischio richiedono una pdf in tutti i punti del territorio discretizzato, sia in quelli su cui insiste un pozzo di monitoraggio, sia in quelli che ne sono sprovvisti. L'attuale sviluppo tecnologico offre i margini per la sperimentazione di soluzioni innovative che, fino a poco tempo fa, potevano sembrare difficilmente ipotizzabili. Da un lato si può contare sulle tecnologie GIS (Geographic Information System) che permettono di gestire i dati geometrici e alfanumerici, provenienti in qualsiasi formato e scala, all'interno di un unico modello continuo del territorio dove tutte le informazioni sono immediatamente accessibili, omogenee e congruenti. D’altro canto, le sperimentazioni di metodologie CPU bounded oggi sono praticabili con minimi investimenti. Sulla base di queste premesse, quello di cui si ha bisogno è un modello probabilistico da legare ad un dominio n-dimensionale. Tale modello esiste e prende il nome di funzione aleatoria (FA). Gandin (Delfiner, 1973) e Matheron (1970) hanno inizialmente reso popolare la teoria delle funzioni aleatorie, rispettivamente nella meteorologia e nel controllo delle risorse naturali. Sotto l’assunzione che le variabili in esame 5 siano FA stazionarie o intrinseche, si possono utilizzare i metodi definiti come optimal interpolation da Gandin, e kriging da Matheron, al fine di ottenere valutazioni areali medie o mappature di una variabile. L’allargamento delle applicazioni in altri ambiti e le specificità di alcuni problemi hanno contribuito allo sviluppo di ulteriori tecniche, tali da caratterizzare il kriging come un insieme di tecniche, ad affermare una disciplina, nota come geostatistica, ed una scuola francese, il Centre de Gèostatistique di Fointanebleau. Nelle prossime sezioni si imposta il modello e si individua la metodologia che si adotterà per il caso di studio. 6 5.2 - Valutazione spaziale del rischio in ambito geostatistico La geostatistica privilegia una impostazione generale per il modello rappresentativo della variabile in oggetto (Isaaks e Srivastava, 1989). Non si forzano, quindi, i dati al modello. Con l’adozione del criterio dei minimi quadrati, a cui si rifanno gli stessi modelli regressivi citati nella precedente sezione, e con la scelta di una forma funzionale si trascura tutto ciò che intrinsecamente è contenuto nei dati. La geostatistica mette a disposizione gli strumenti per l'indagine, l'analisi e la modellizzazione delle variazioni spaziali della variabile. Tale approccio trova giovamento, pertanto, dalle conoscenze a priori sulla situazione fisica e territoriale del contesto di riferimento, o quant'altro utilizzabile nella interpretazione dei fenomeni sottogiacenti. Gli strumenti e i metodi geostatistici sono, ormai diffusamente, utilizzati per: − quantificare le relazioni spaziali di una variabile nota solo in alcuni punti; − ricostruire l’andamento spaziale una variabile, simulare le sue variazioni o stimare le probabilità che i suoi valori superino determinate soglie in un punto o nei nodi di un reticolo ordinato. Il reticolo può essere rappresentato graficamente in 3D, in proiezione prospettica o ortografica, oppure in forma di curve di iso-livello. Gli elementi essenziali per la quantificazione delle relazioni spaziali, detta analisi strutturale o variografia, sono: − una conoscenza del fenomeno e del territorio in esame; − una base di dati campionaria della variabile. L’analisi geostatistica dei dati avviene attraverso due fasi: 1. esplorativa, mediante la quale si visualizza la distribuzione spaziale del campione di misure per ottenere informazioni sulla minima distanza di campionamento, sulla media e sulla varianza campionaria; sulla normalità della distribuzione della popolazione; 2. strutturale, mediante la quale si individua la struttura, detta variogramma, della variabile campionata. Il comportamento del variogramma deve rispondere ad un requisito di continuità spaziale intesa come piccole variazioni della grandezza considerata per piccole distanze di campionamento. L'obiettivo dell'analisi strutturale è l'individuazione di tale continuità, sulla base dei dati disponibili, e la determinazione del modello che meglio la rappresenta. I modelli sono a tre parametri legati, in qualche modo, alla varianza del campione (sill), alla massima distanza d'influenza fra coppie di punti (range) e ad un fattore di scala (nugget). Il variogramma non risolve il problema di conoscere i valori incogniti nei punti non strumentati che possono anche essere disposti in modo regolare 7 (grid). Gridding è l'operazione di riempimento, con valori stimati o simulati, di un reticolo che sia idealmente sovrapposto al territorio in esame. Il reticolo è caratterizzato da nr punti equamente spaziati o aree orizzontalmente contigue e da nc punti equamente spaziati o aree verticalmente contigue. Mediante le tecniche di interpolazione stocastica del kriging è possibile stimare i valori del reticolo e, mediante tecniche di simulazione è possibile ottenerne dei valori simulati. Le tecniche del Kriging sono contraddistinte dalle proprietà di non distorsione e di minima varianza per lo stimatore Z*(x) della variabile casuale Z(x), nella generica posizione x. Le proprietà si riferiscono, rispettivamente, a ciò che, mediamente, ci si aspetta che accada alle differenze fra Z*(x) e Z(x) e alla loro varianza nei punti non strumentati. Le attese sono quelle di non produrre sottostime e neanche sovrastime, così come di avere la più piccola varianza sulle differenze fra Z*(x) e Z(x). Le tecniche di kriging permettono di quantificare la qualità delle stime attraverso la varianza di stima del kriging (KEV): essa diventa un indicatore per confrontare fra loro le prestazioni di tali tecniche. Inoltre, un altro vantaggio è la possibilità di tenere conto sia dell’eventuale ridondanza o clusterizzazione dei dati, e sia delle possibili anisotropie. Alcune tecniche più avanzate permettono di introdurre nel processo di stima le informazioni soft o qualitative (Bardossy et al. 1988, Bardossy et al. 1990). La simulazione geostatistica genera un insieme ordinato di valori che rispetti prefissate caratteristiche strutturali e statistiche, note a priori, quali media e varianza globali, range, nugget effect, e tipo di variogramma. Il reticolo simulato riproporrà la media e la varianza imposta al simulatore. A differenza delle tecniche di interpolazione del kriging, la simulazione non ha l'obiettivo della minima varianza nella produzione del reticolo e, pertanto, non è possibile ottenere una varianza di stima. La simulazione geostatistica può prevedere una fase di condizionamento legato alle misure: fra le infinite simulazioni generabili si sceglie quella che passa per i punti noti nella zona in esame. Lo stimatore adottato da alcune tecniche di kriging pesa linearmente i dati del campione z(x1),..z(xn) (geostatistica lineare). In particolare, il kriging semplice e ordinario è applicato nei casi in cui non esista drift nei dati e la varianza rimane costante in tutta l'area di interesse. Il sistema del kriging ordinario può essere decomposto in un equivalente sistema derivato da un modello di regressione (Matheron, 1970). Da qui la generalità dell’approccio. Esistono delle situazioni in cui i dati presentano drift. Le proprietà statistiche della pioggia, ad esempio, possono variare significativamente dentro l’area di 8 studio, sotto l’influenza orografica nelle zone montagnose o gli effetti del mare sulle zone costiere. Uno dei possibili modi per trattare i dati affetti da drift (o trend) è il kriging universale. Il drift è analizzato e rimosso dai dati mediante una trend surface analysis (Watson, 1971). I residui sono sottoposti ad analisi strutturale: il drift è reintrodotto nei dati nel passo di interpolazione insieme al modello di variogramma dei residui. Un’altra risposta appropriata a questo problema è dato dalle ipotesi intrinseche di ordine k (Matheron, 1973). In media, cioè, la variazione spaziale si suppone essere di tipo polinomiale di ordine k. Per il processo di stima (areale o di mapping), e per l’identificazione della funzione covarianza si cerca di filtrare la componente polinomiale (Kitanidis, 1986), onde evitare stime distorte e rispettare la filosofia delle tecniche del kriging. Emerge, per dati di pioggia, che i risultati migliori si hanno considerando costante, almeno localmente, il valore medio del fenomeno (cioè k=0).Una ragione fornita per questo risultato (Barancourt et al., 1992) è la difficoltà a rappresentare il meccanismo orografico attraverso i polinomi. Volpi e Gambolati (1978), per lo studio della piezometria, hanno proposto un modello basato su un fenomeno fisico, inteso come external drift, applicando il kriging ordinario sui residui. Nell’uso delle tecniche lineari (o non lineari) del kriging, si fa riferimento al cosiddetto kriging locale: solo gli intorni del punto da interpolare intervengono nella stima. In alcuni casi, quali il campionamento abbastanza fitto, può essere conveniente assumere che ci sia stazionarietà solo dentro la finestra di ricerca, nonostante il trend sui dati. Si parla in questo caso di quasi-stazionarietà (Journel e Huijbregts, 1978). Il cokriging è una tecnica multivariata che utilizza, nella stima, altre variabili che sono in relazione con quella principale e per le quali sia più agevole, o meno costoso, il campionamento (Myers, 1982). La stima della variabile può trovare giovamento dalle variabili ausiliarie. Sulle tecniche della geostatistica lineare si possono fare le seguenti ulteriori considerazioni. L’uso del kriging ordinario, pur non essendo vincolato alla forma dei dati, fornisce la stima migliore solo quando l’insieme delle variabili è multigaussiano. Nei casi in cui le distribuzioni di frequenza sono (1) significativamente asimmetriche e (2) presentano un salto a zero, nel senso che ci sono molti valori nulli rispetto a quelli significativamente diversi da zero, allora può essere conveniente utilizzare le tecniche della geostatistica non lineare. Il kriging disgiuntivo è una tecnica non lineare (Rivoirard, 1994). Ha il vantaggio di produrre delle stime che sono, generalmente, a varianza minore rispetto a quelle del kriging ordinario. Inoltre, l'uso di pesi non lineari sui dati, permette di valutare la probabilità, spazialmente condizionata, che determinati 9 valori di soglia siano superati. Nel kriging disgiuntivo, la variabile di partenza, interpretata come una FA stazionaria del secondo ordine, è trasformata (anamorfismo) in una distribuzione normale (sono anche possibili gli usi di pdf bivariate gamma o binomiali negative). Il kriging disgiuntivo prende in considerazione questa trasformazione attraverso i polinomi di Hermite (Yates et al. 1986a). La geostatistica non parametrica è il regno della geostatistica non lineare: in luogo della combinazione lineare dei dati si usa quella delle funzioni, la funzione indicatore. E’ necessario, pertanto, codificare l’indicatore, costruire i variogrammi indicatore e applicare le tecniche di simulazione/kriging sugli indicatori. Questo approccio ha dei vantaggi, quali: − nessuna dipendenza da modelli − intervento di valori estremi (outliers) nell’analisi strutturale − modellizzazione del variogramma in funzione dell’ampiezza dei dati Nelle tecniche non parametriche, quindi, − si dividono i dati in classi, corrispondenti a prefissati tagli o soglie sui dati; − si codificano i dati in un valore indicatore 0 o 1; − si stima l’istogramma locale in una qualsiasi posizione attraverso l’indicator kriging, usando i variogrammi costruiti per ciascun taglio; − si derivano le stime o si realizzano le simulazioni usando gli istogrammi locali. L’indicator kriging (IK) è il kriging ordinario degli indicatori (Goovaerts P., 1994a). I risultati dell’IK, nei punti di un grigliato, sono valori compresi fra 0 e 1. Essi possono essere interpretati come probabilità di accadimento di eventi. L'impossibilita' di conoscere perfettamente la realtà, nei punti non strumentati, apre il campo all'idea, molto semplice, di simularla dopo averla, in qualche modo, modellizzata. Il campione è interpretato come una realizzazione della FA Z(x): una simulazione produce un'altra realizzazione di Z(x). Queste due realizzazioni, identificate come z0(x) e zS(x), sono puntualmente diverse ma globalmente (statisticamente) simili, provenendo dalla stessa funzione aleatoria Z(x), e avendo in comune i primi due momenti. Se l’interesse è verso la dispersione della variabile all'interno dell’area geografica allora sia z0(x) che zS(x) sono equivalenti. La simulazione ha, in più, il vantaggio di essere presente in tutti i punti desiderati. Una FA possiede una infinità di realizzazioni possibili {zS(x)}. Tra queste si possono scegliere le simulazioni {zSC(x)} che sono uguali ai valori presenti nei punti campione xi: questa tecnica si chiama condizionamento. La simulazione condizionata produce un reticolo che conserva le caratteristiche di dispersione della variabile e, in più, passa per i punti sperimentali (Journel, 1974). 10 Si può essere tentati di pensare che la simulazione non differisca da un processo di stima prodotto dalle tecniche del kriging. La differenza, però, esiste. Una stima fornisce, in ciascun punto x, lo stimatore che sia il più possibile vicino al valore reale (incognito): lo stimatore non è, dunque, costruito per riprodurre la variabilità nel dominio. Gli stimatori, addirittura, sottostimano la varianza globale. La simulazione, invece, riproduce sia la media che la varianza globale, di contro, in ciascun punto x, zs(x) non può essere il ‘migliore’ stimatore, nel senso BUE (Best Unbiased Estimator) delle tecniche del kriging. Se si procede con la simulazione, è possibile generare più mappe, ciascuna delle quali può onorare i dati misurati (mappe condizionate) e, approssimativamente, riprodurre uno stesso variogramma e una stessa distribuzione. Esistono diversi modi per simulare geostatisticamente le variabili. Nella simulazione gaussiana sequenziale (Gòmez-Hernàandez J.J. e Cassiraga, 1994) è necessario: 1. trasformare i dati in forma normale; 2. costruire il modello del variogramma sui dati; 3. selezionare casualmente un nodo del reticolo; 4. stimare il valore nel nodo selezionato, usando il kriging ordinario e ottenendo, così, una KEV; 5. generare un numero casuale di tipo gaussiano con media e varianza, rispettivamente, stima e KEV: questo numero sarà assegnato al nodo di griglia. L’algoritmo procede ripartendo dal punto 3 e fino ad esaurire tutti i nodi del reticolo. Nella stima (punto 4) sono considerati i nodi già processati nei passi precedenti, in modo da garantire la struttura descritta dal modello di variogramma. Infine, la siffatta griglia simulata è ritrasformata nella distribuzione di partenza. Nella simulazione indicatore sequenziale (Freulon, 1994) è necessario: 1. dividere i dati in classi definendo dei valori di taglio o di soglia; 2. codificare ciascun dato in un valore indicatore, 0 o 1, a seconda che il valore sia più piccolo (rispettivamente più grande) del taglio; 3. costruire il modello del variogramma sugli indicatori, e per tutti i tagli; 4. scelto il primo taglio, selezionare in modo casuale il primo nodo; 5. stimare il valore k nel nodo selezionato, usando l’indicator kriging e ottenendo, così, un valore compreso fra 0 e 1; 6. generare un numero u uniformemente distribuito fra 0 e 1; 7. confrontare u con il valore k; se u è minore di k allora si assegna al nodo il codice 1 altrimenti 0. 11 L’algoritmo prosegue dal punto 4 e fino a che tutta la griglia non sia stata simulata. Nel kriging, di cui al punto 5, si usano tutti i nodi già simulati. Esaurita la griglia, si passa a costruirne un’altra passando ad un altro taglio e al relativo variogramma. Tale processo è, comunque, molto lento, anche se esistono degli accorgimenti che permettono di renderlo più veloce (Goovaerts, 1994b). Altre tecniche di simulazione fanno riferimento alle proprietà di autosimilarità dei frattali (Puente, 1994). Ad esempio, il modello di moto browniano frazionale (il cosiddetto fBm) ha un equivalente geostatistico: il modello power. Oppure, la derivata approssimata del fBm, cioè il fGn (fractional Gaussian noise). Per usare i frattali si deve: − stimare la codimensione frattale, o valore H − usare il valore H per generare tracce artificiali della proprietà statistica (usando, per esempio, la tecnica delle addizioni aleatorie successive o SRA). Il valore di H compreso fra 0.6 e 0.9 è quello che indica una correlazione infinita che incrocia tutte le scale di osservazione dei fenomeni: è il valore stimato più ricorrente. Il moto di Levy frazionale (il cosiddetto fLm) è la più potente generalizzazione del fBm (Chu e Journel, 1994). Si assume che gli incrementi abbiano una distribuzione stabile di Levy, con code che decadono più lentamente della distribuzione gaussiana. È capace di modellare cambiamenti bruschi in sequenze non stazionarie (per esempio, log porosità). I tipici valori di H ottenuti usando la tecnica fLm sono compresi fra 0.1 e 0.5. Infine, i dati geostatistici possono essere simulati usando gli algoritmi genetici e di annealing (Hegstad et al., 1994), usati come schemi di ottimizzazione combinatoriale (i cosiddetti COS). In entrambi gli algoritmi, i vincoli spaziali sono espressi come una funzione obiettivo da minimizzare. I COS sono flessibili nel senso che sono capaci di gestire qualsiasi tipo di vincolo, che possa essere accettabilmente espresso nella funzione obiettivo. Poiché i vincoli possono essere diversi, la tecnica sarà più o meno veloce secondo la complessità della funzione obiettivo. In generale, per gli algoritmi genetici e di annealing è necessario: − generare una distribuzione casuale di valori che rispetti uno specificato istogramma; − perturbare il sistema, scambiando i valori nel caso dell’annealing o mutandoli/incrociandoli negli algoritmi genetici con l’obiettivo di avvicinarsi alla struttura di correlazione spaziale più simile a quella target. 12 Se si arriva a ciò, il sistema è detto avere una bassa energia e la perturbazione è accettata. Tra gli altri, i vantaggi dell’uso dei COS sono: − non fanno nessuna assunzione gaussiana; − possono onorare i variogrammi sperimentali e non solo quelli teorici; − possono gestire le anisotropie strutturali (variogrammi differenti per differenti direzioni). 13 5.3 - Il modello geostatistico Lo strumento usato in geostatistica per rappresentare numericamente le relazioni o le similarità tra i dati è detto variogramma. Fu introdotto da Matheron (1970) che ha il merito di avere, in qualche modo, generalizzato il concetto probabilistico di funzione di covarianza. Nel caso in esame si suppone che esista una variabile aleatoria Z(x) in ciascun punto x del dominio D di interesse; pertanto per due punti x ed y di D è possibile definire la covarianza ρ(x,y) come segue: ρ(x,y) = Ε[ Ζ ( x ) ⋅ Ζ ( y )] − Ε[ Ζ ( x )] ⋅ Ε[ Ζ ( y )] (5-2) Nella formula (5-2), E rappresenta l'operatore che fornisce il valore medio o aspettazione della variabile casuale. Dividendo ρ(x,y) per la varianza di Z, in x e in y, si ottiene il coefficiente di correlazione lineare. Al variare di x ed y si descrive una funzione, detta di covarianza, che è definita su ℜ2 ed è, perciò, di difficile uso pratico. Inoltre, la stima della covarianza per ciascuna coppia di variabili aleatorie Z(x) e Z(y) necessita di due campioni di misure: uno per Z(x) e l'altro per Z(y). Questi non sono disponibili e, quindi, è necessario adottare delle ipotesi, dette di stazionarietà. Se y = x + h e se la funzione di covarianza diventa indipendente dal punto di appoggio x, cioè ρ (x,x+h) = ρ (h), allora il dominio di definizione della funzione di covarianza si riduce e si semplifica. Il vettore h, espresso in termini di coordinate polari, ha due componenti: modulo e direzione. Qualora si assuma che la variazione spaziale sia di natura isotropica, ρ (h) diventa una funzione definita su ℜ. L'ipotesi di stazionarietà sulla funzione di covarianza è detta del secondo ordine e permette di fare le inferenze statistiche su ρ(h), dall'unico campione spaziale z(x1),..z(xn). Attraverso l'uso del variogramma si ipotizza un tipo di stazionarietà meno forte della precedente, detta intrinseca del primo ordine. Il variogramma è definito come la varianza degli incrementi: γ(h) = 1 var [Z(x + h) - Z(x)] 2 (5-3) Gli incrementi sono detti, anche, differenze di ordine uno. Attraverso l'ipotesi intrinseca si sposta la stazionarietà dalla Z(x) ai suoi incrementi. In assenza di 14 tendenza a grande scala (o drift), γ(h) diventa l'aspettazione delle differenze al quadrato di Z(x), cioè: γ(h) = 1 var [E(Z(x + h) - Z(x))2 ] 2 (5-4) E' in questa forma che il variogramma è più usato ed utilizzato nella inferenza statistica dai dati. Quando esiste una varianza finita σ2, allora γ(h) e ρ(h) sono in relazione attraverso l'espressione seguente: γ(h) = σ 2 ( 1 − ρ(h)) (5-5) e, quindi, quando la correlazione spaziale diventa zero, γ (h) diventa uguale alla varianza di Z(x). Le ipotesi di stazionarietà riguardano il modello e non i dati. Solitamente non esiste nessuna contro indicazione alle decisioni iniziali che riguardano la stazionarietà. E' possibile che durante le analisi sui dati si possano riscontrare delle situazioni in contrasto con le ipotesi: esse vanno opportunamente gestite e non escludono la revisione delle decisioni iniziali già adottate. Il variogramma, a differenza della funzione di covarianza, può rimanere definito anche se la varianza spaziale cresce indefinitamente all'interno della scala di osservazione del fenomeno. L’uso della covarianza è, comunque, vantaggioso perché si possono prendere in considerazione le medie dei cambiamenti nei casi di relazioni non ergodiche. La misura della covarianza può essere normalizzata dividendola per la varianza dei dati, fornendo, così, il correlogramma, misura tradizionalmente usata dagli analisti delle serie temporali. Esistono altre misure spaziali. Il madogramma, ad esempio, considera la differenza assoluta media, al posto delle differenze quadratiche medie di γ (h); ne deriva, così, una misura più robusta della struttura di correlazione. Si possono anche usare le differenze quadratiche mediane o le differenze assolute mediane, invece della media. 5.3.1 - Proprietà del variogramma In un’analisi strutturale, si ha bisogno che la media e la varianza cambino sistematicamente dentro l'area in esame. Nell’equazione (5-4) si osserva che la differenza quadratica fra i dati nei punti x e y fornisce una misura del livello di similarità della variazione. 15 Se la distribuzione spaziale del campione è regolare, si possono avere più differenze quadratiche campionarie associate alle distanze fra le coppie z(xi) e z(xj). E' possibile, così, costruirsi il grafico che è detto (semi-) variogramma sperimentale. Le distanze fra le coppie di punti campione sono rappresentate sull'asse delle ascisse ed etichettate con la lettera h; le medie delle differenze elevate al quadrato relative a tutte le coppie ad uguale distanze sono rappresentate sull'asse delle ordinate ed etichettate con la lettera greca γ*(h). Il grafico non cambia forma se i valori delle ordinate sono divise per due, come risulta dalla eq. (5-4). Nel caso in cui la distribuzione del campione sia irregolare, si devono considerare delle classi di distanze, ampie multipli di un lag, per mediare le differenze in questione. Il passo finale nell'analisi strutturale è il riconoscimento del modello γ(h) dal suo grafico sperimentale. È, quindi, necessario selezionare un appropriato modello, e determinarne i suoi parametri. Gli elementi che costituiscono gli attributi spaziali del variogramma sono i seguenti: − Nugget: è il valore di γ(0). Esprime la misura della variabilità media per piccole distanze Se due punti sono molto vicini, è ragionevole aspettarsi che i loro valori siano pressoché simili e che il nugget, quale misura della differenza quadratica media, sia vicino allo zero. Talvolta il nugget può essere presente se le misure campionarie sono affette da errori. Il campione proveniente dalle reti di monitoraggio ha una distanza minima di campionamento che concorre a caratterizzare il primo punto del grafico sperimentale del variogramma. Se esistono effetti locali non evidenziabili alla scala di osservazione del campione, il nugget può essere assunto differente da zero in misura tanto maggiore quanto più grande è la distanza minima dall'origine. E' spesso indicato come c0. − Range: è la distanza, nell'unità di misura del campione, dopo la quale due punti diventano spazialmente non correlati o, parimenti, è la massima distanza entro la quale le differenze quadratiche medie crescono prima di assestarsi intorno ad un valore, detto sill. L'assunzione implicita, su cui si basa la variografia, è l'esistenza di una continuità spaziale legata alla scala di osservazione del fenomeno che si estrinseca sull'andamento delle differenze quadratiche medie: esse crescono dal nugget fino al sill in funzione della distanza fra i punti. Il range è talvolta descritto come la misura dell'area di influenza del campione. I range possono essere diversi fra loro nel caso in cui ci sia un comportamento anisotropico della 16 − − − variabilità spaziale di una grandezza. Il range è spesso indicato con la lettera minuscola a. Sill: è la massima variabilità delle differenze quadratiche medie espressa dal campione dei dati. Così come per i range, anche i sill possono variare con la direzione. Il sill del variogramma, se esiste, è generalmente poco più grande del valore della varianza. Il valore del sill è indicato, spesso, con la lettera c. Continuità: è il comportamento del variogramma a piccole distanze ed è utilizzata per orientarsi circa le scelte sul modello di variogramma da adattare sul grafico sperimentale. La continuità è un indicatore dell'uniformità o della regolarità spaziale del fenomeno. Essa può essere esaminata convenientemente se è disponibile un numero significativo di campioni a piccole distanze. Solitamente sono presenti quattro tipi di continuità nei variogrammi: 1. parabolica. E' indicativa di alta continuità, nel senso che se le distanze fra coppie di punti aumentano, si misura una bassa differenza quadratica media fra loro. Questo tipo di continuità può essere un indicatore della presenza di una tendenza a grande scala presente nei dati, cioè, i valori crescono o decrescono in modo sistematico all'interno dell'area di studio; 2. lineare. E' indicativa di una continuità, nel senso che c'è una relazione diretta fra i cambiamenti nelle differenze quadratiche medie tra i campioni e il crescere delle distanze; anche questo caso può essere un indicatore della presenza di tendenza spaziale sui dati; 3. discontinua. E' indicativa di una irregolarità alle piccole distanze, nel senso che ci sono delle elevate differenze tra i campioni per piccole distanze; 4. casuale. E' indicativa di una alta irregolarità, non esiste, perciò, una distanza, anche minima, entro cui misurare una relazione fra i dati. La fisica sottogiacente ai fenomeni naturali non giustifica questo tipo di continuità che è sinonimo di non strutturabilità del fenomeno. Pendenza: è il cambiamento subito da γ nell'intervallo di distanze che vanno da zero fino al range. Indica il livello di continuità del fenomeno: bassa pendenza rappresenta cambiamenti graduali dei valori fino al range; alta pendenza rappresenta rapidi cambiamenti già per piccole distanze. 17 5.3.2 - Modelli di variogramma Per modello si intende una funzione matematica continua che rappresenta adeguatamente il grafico del variogramma sperimentale. I tipi più comuni di modelli di variogramma sono i seguenti: Variogramma sferico: è rappresentato da una curva crescente fino al range (limite di influenza). Dopo il range le differenze quadratiche medie non cambiano e la curva diventa costante. Lo sferico è un variogramma caratteristico di dati con aree di influenza ben sviluppate e buona continuità. La formula che regola il modello sferico è la seguente: ∀h ≤ a ∀h > a γ (h) = c 0 + c(1.5 h a − 0.5(h a ) 3 ) γ ( h) = c 0 + c (5-6) Variogramma nugget: è caratteristico di fenomeni che le cui differenze quadratiche medie non variano al crescere delle distanze. Punti, quindi, vicini fra loro hanno un comportamento similare a quelli che sono distanti. Il grafico sperimentale del variogramma è ben approssimato da una retta orizzontale che passa attraverso il punto di nugget che coincide, quindi, con il sill. La variazione, quindi, avviene a una scala più piccola di quella cui si sta riferendo il variogramma nugget oppure essa è non strutturabile. La formula che regola il modello nugget è la seguente: ∀h γ ( h) = c o (5-7) Variogramma esponenziale: è rappresentato da una curva che cresce al crescere delle distanze senza raggiungere il valore di sill. E' caratteristico di dati che hanno una limitata area entro cui si manifestano le relazioni di influenza oppure che mostrano una elevata distanza di continuità. La formula che regola il modello esponenziale è la seguente: γ (h) = c 0 + c(1 − e − h a ) (5-8) Variogramma lineare: è rappresentato da una curva che evidenzia una crescita lineare delle differenze quadratiche medie al crescere delle distanze. Per definizione, quindi, non ha né sill né range mentre può avere un effetto nugget. La formula è la seguente, con ω coefficiente angolare della retta: γ ( h ) = c 0 + ωh 18 (5-9) Variogramma gaussiano: è rappresentato da una curva che inizialmente cresce lentamente con la distanza. Da una certa distanza in poi, il tasso di crescita è accelerato, assestandosi sul valore di sill ad un ben definito valore di range. Il variogramma gaussiano è caratteristico di dati con una elevata presenza di tendenza che si manifesta a piccola scala e, nello stesso tempo, un alto livello di continuità regionale. La formula che regola il modello gaussiano è la seguente: γ (h) = c 0 + c(1 − e −( h a ) ) 2 (5-10) Il comportamento spaziale di certi fenomeni può non essere identico per tutte le direzioni. Per determinare l'anisotropia direzionale attraverso l'uso del variogramma, il campione di dati è raggruppato per classi di direzioni e di distanze. La classe di direzione è determinata da una direzione principale e da un angolo di tolleranza che è il numero di gradi da considerare in entrambi i lati della specificata direzione principale. Le tolleranze non devono produrre delle sovrapposizioni. Calcolando i variogrammi sperimentali per le classi di direzioni prescelte, si deve indagare sulla forma e sui parametri dei modelli da adattare sui grafici sperimentali per verificare se esistono delle similarità (isotropia) oppure no (anisotropia). Il numero delle classi di direzioni dipende dalla numerosità del campione e, nel caso peggiore, può non abilitare l'indagine sull'anisotropia. E' ricorrente adottare due classi che abbiano una tolleranza di 45° (es.: 0°- 45° e 90°- 45°) rispetto alle quali si possono evidenziare due tipi di anisotropie: geometrica e zonale. La prima si verifica nel caso in cui il range nella prima classe è differente da quello della seconda; la zonale, invece, si riferisce a sill differenti per le due classi di direzione. 5.3.3 - Costruzione di un variogramma Per qualsiasi variabile che sia stata campionata è possibile calcolare il variogramma in una, due o tre dimensioni del dominio spaziale (Krajewski e Gibbs, 1993). In molti studi, infatti, può essere utile introdurre una terza dimensione nella costruzione del variogramma, ad esempio l'altezza sul livello del mare, la profondità, il tempo, e così via. Benché il variogramma tridimensionale possegga tutte le proprietà teoriche definite precedentemente è uno strumento poco pratico. Anche se il dominio di interesse è del tipo XYZ, per molti scopi ci si costruisce un variogramma bidimensionale, scegliendolo opportunamente fra il piano XY o XZ o YZ. 19 I dati di interesse vanno descritti statisticamente (minimo, massimo, media, deviazione standard, skewness e kurtosis). L'istogramma, i grafici di frequenza cumulati e quelli di dispersione sono utilizzati per indagare sull'esistenza di valori estremi (piccoli o grandi) nel campione e comprendere meglio la distribuzione del campione. I dati con una distribuzione normale hanno un errore standard (rapporto fra media e deviazione standard) più piccolo di 1.25 mentre quelli con una distribuzione lognormale o in cui è presente un drift, ne hanno uno più grande di 1.25. Il test non parametrico di Kolmogorov-Smirnov o quello parametrico del χ2 (Kendall e Stuart, 1966) possono essere utilizzati per determinare se i dati hanno una distribuzione normale o lognormale; il ttest per determinare se distribuzioni bi-modali hanno le medie che differiscono significativamente fra loro. Il variogramma è calcolato per coppie di dati lungo una specifica direzione, con una data tolleranza, o globalmente per tutte le coppie. Nell'analisi strutturale si inizia a costruire il variogramma anisotropico. Le decisioni da assumere riguardano: Lag e numero di lag. Il lag è l’intervallo, nell’unità prescelta, entro i multipli del quale le differenze quadratiche sono assimilate per esprimere una misura della relazione media esistente nei dati. Le decisioni in questa fase riguardano la larghezza e il numero di lag. La selezione di una misura di lag è generalmente dettata dalla spaziatura del campione. L'istogramma assoluto delle N distanze prodotte dal campione può essere uno strumento per valutare il lag. Osservando tale istogramma si può conoscere quante coppie concorreranno a caratterizzare la media delle differenze quadratiche in ciascun multiplo di lag. La costruzione dell'istogramma prevede la definizione di un'ampiezza di classe. Tale ampiezza, scelta in modo che raccolga, negli intervalli iniziali, un numero statisticamente significativo di distanze (maggiore di 10), diventa una buona stima iniziale del lag. Il numero di lag è determinato dal numero di intervalli consecutivi dell'istogramma che hanno un numero significativo di distanze. Il lag diventa così il passo costante sull'asse delle ascisse del grafico sperimentale. Continuità spaziale. Una generica coppia di valori z(xi), z(xj) produce una distanza dij riferita alla posizione fra le coppie xi e xj (con xi∈ ℜ2, xj∈ ℜ2) una differenza al quadrato riferita ai valori da essa espressi: per ciascuna distanza dij va ricercato il lag che la contiene e rappresenta la differenza quadratica sull'asse delle ordinate. Lo stimatore del variogramma è il seguente: γ * ( h) = 1 2n( h) n(h) ∑ [z( x i =1 20 i + h) − z ( x i )]2 (5-11) laddove n(h) è il numero di coppie che sono contenute in ciascun lag. Il variogramma sperimentale deve riprodurre continuità spaziale; un andamento, cioè, crescente rispetto al modulo di h. Per ciascun lag ci si calcola la media delle differenze quadratiche e si osserva il loro comportamento sul grafico sperimentale. Qualora non si riscontri continuità, le possibili cause possono essere: − campione poco numeroso; − territorio con caratteristiche disomogenee; − non stazionarietà della varianza; − lag poco ampio; e quindi, le possibili azioni da intraprendere sono: − classificazione dei dati, in modo da recuperare una omogeneità; − aumento dell'ampiezza del lag. La selezione ottimale di un lag si realizza in questa fase. Può essere necessario modificare la misura del lag con l'obiettivo di ritrovare la continuità. La selezione di un lag "troppo corto" si riflette sul grafico attraverso un gran numero di fluttuazioni locali o rumore; al contrario un lag "troppo grande" manifesta un grafico altamente addolcito; − esame delle differenze quadratiche medie con l'obiettivo di esaminare quali coppie hanno uno scarto di valori elevato tale da provocare discontinuità. Dopo aver indagato sulle cause locali che influenzano tale scarto, si tratta, di decidere se escludere oppure no tale misura. Nel caso in cui sul grafico si intraveda una continuità di tipo lineare, può essere messa in discussione l’assunzione che i dati siano privi di drift. Infatti, se il drift è rappresentato dalla funzione m(x) diversa da zero, allo stimatore (11) deve essere aggiunta la seguente parte 1 n( h) n(h) ∑ ( m( x i + h) − m( x i )) 2 (5-12) i =1 Ad esempio, se m(x) fosse lineare, il grafico sperimentale sarebbe rappresentato da curve di tipo parabolico e, come tale, può essere considerato un caso speciale di variogramma lineare. E' caratteristico di dati in cui non è stata separata la componente locale da quella a grande scala. Generalmente il drift è il risultato di una variabile altamente continua che cresce o decresce di una fissata quantità per unità di distanza. Le azioni da attivare, in questo caso, prevedono una Trend Surface Analysis per eliminare il drift dai dati e la ripetizione dell’analisi strutturale sui residui. 21 Modellizzazione. Attraverso l'ispezione visiva del grafico sperimentale si individua il modello teorico che descrive al meglio la continuità spaziale del campione. Una variazione senza apparente struttura è rappresentata dal modello nugget. La scelta del modello e dei suoi parametri (nugget, range, sill) può avvenire in modo automatico attraverso tecniche, rispettivamente, di jacknifing (Journel e Huijbrechts, 1978) definendo dei criteri numerici di scelta e di best-fitting non lineare. Nel jacknifing si estrae un dato alla volta e se ne stima il valore mediante Kriging ordinario. Due statistiche possono misurare l’adeguatezza del modello rispetto all’assenza di sistematicità della stima (unbiased) e la consistenza fra varianza di stima e varianza globale (Q). In particolare, unbiased misura la somma delle differenze fra valore campionato e quello stimato; Q misura la somma delle differenze al quadrato fra valore campionato e quello stimato fratto la KEV. Un modello è ritenuto adeguato se unbiased è intorno a zero e se Q è prossimo ad uno. L'uso di tale tecnica prevede, comunque, la definizione di un modello teorico di variogramma; quindi il punto estratto è nello stesso tempo un elemento che ha concorso alla stima del variogramma ma che deve misurarne l'adeguatezza. Ciò introduce un fattore non controllato, che molti autori non giustificano (ad es. Gutjahr, 1985). E' questo il motivo per cui è favorito il fitting ad occhio del modello e dei suoi parametri con l'intervento del variografo che può decidere sulla base delle sue conoscenze. In particolare, usando un buon software grafico, il nugget è costruito disegnando e prolungando la linea retta che passa tra i primi due valori sperimentali di γ, fino ad incontrare l'asse delle ordinate: il valore del nugget è il valore di tale intersezione. Nel caso di intersezione negativa il valore del nugget si assume uguale a zero in quanto un valore negativo non ha nessun significato fisico. La decisione finale se impostare un nugget spetta al variografo. Il range di un variogramma sferico può essere inizialmente ottenuto usando la regola 2/3 che consiste nel seguente processo: 1. determinazione sull'asse delle ordinate del punto di sill in cui il variogramma si assesta; 2. disegno di una linea orizzontale nel punto di sill; 3. disegno di una linea inclinata che passa attraverso il secondo e il quarto punto del grafico sperimentale. Questa linea deve proseguire fino ad intersecare in un punto la retta del sill: l'ascissa di tale punto è 2/3 del range. Il range per un variogramma esponenziale e gaussiano è ottenuto attraverso la regola, rispettivamente, di 1/3 e √3 seguendo il processo descritto per il variogramma sferico dai punti 1, 2 e 3. L'ascissa, in questi casi, relativa all'intersezione delle due rette è, rispettivamente, 1/3 e √3 del range. 22 Queste regole pratiche hanno un fondamento teorico descritto da Journel e Hujbregts (1978, p.121) e sono deducibili dal grafico che riporta i tre modelli precedenti. Non è escluso che si possa decidere di ricorrere alla tecnica del jacknifing per la validazione del processo di modelling. Cross-variogramma. Il cross-variogramma rappresenta la struttura spaziale di due variabili Z1(x) e Z2(x), definite all’interno di uno stesso dominio di ℜ2. Il cross-variogramma gode degli stessi attributi spaziali visti per il variogramma che, se riferito ad una singola variabile, prende più precisamente il nome di auto-variogramma. Il cross-variogramma modellizza gli incrementi incrociati di due variabili nei punti x e x+h secondo la formula seguente: [ γ ij (h) = E ( Z i ( x + h) − Z i ( x))(Z j ( x + h) − Z j ( x)) ] (5-13) Lo stimatore del variogramma (auto- o cross-) sui campioni z1(x1j) di Z1 nei punti del piano x1j con i=1,...,2 e j=1,...,n assume la forma generale seguente: γ ij* (h) = 1 2n ( h ) n(h) ∑ (z (x i ik + h) − z i ( x ik ))( z j ( x ik + h) − z j ( x ik )) (5-14) k =1 laddove n(h) rappresenta il numero di cross-incrementi che hanno una distanza di separazione spaziale uguale ad h. Nelle due locazioni poste a distanza h, quindi, deve esistere sia la misura per z1 che quella per z2. Sulle coppie sperimentali (h, γ *12(h)) sono adattati i modelli validi per l'(auto)variogramma (Journel e Hujbregts, 1978). Nel caso di stima di crossvariogramma, gli incrementi possono essere anche negativi e, quindi, pur rimanendo validi i modelli già visti, alcuni parametri ad essi relativi (sill e nugget) possono essere negativi. E', inoltre, immediato verificare che γ12(h)= γ21(h) per ogni valore di h. La consistenza dei modelli di variogramma con il requisito di positività della varianza dei metodi di interpolazione stocastica del kriging avviene se i tre modelli di variogramma che si adattano su quelli sperimentali, soddisfino, per ogni h, la disuguaglianza di Cauchy-Schwarz: γ ij (h) = γ ii (h)γ jj (h) (5-15) 5.3.4 - Tecniche facenti capo alla geostatistica lineare: kriging e cokriging Lo stimatore lineare è rappresentato, nel punto incognito x0, dalla seguente espressione: Z * ( x0 ) = ∑ λ z( x ) 23 i i (5-16) Lo stimatore del kriging deve essere non distorto e a minima varianza. I due requisiti richiesti allo stimatore, si traducono matematicamente nelle seguenti espressioni: E[ Z * ( x 0 ) − Z ( x 0 )] = 0 (5-17) (5-18) min var[Z ( x 0 ) − Z ( x 0 )] = 0 * Sostituendo l'espressione lineare (5-16) nella (5-17) si ottiene che ∑ λ z( x ) = 1 i (5-19) i mentre, sostituendola nella (5-18) si ottiene: [ ] ∑∑ λ λ γ var Z * ( x 0 ) − Z ( x 0 ) = − i +2 j ij ∑λ γ (5-20) j 0j laddove γij = γ (xi-xj) e γ0j = γ (x0-xj). Il calcolo dei pesi diventa un problema di ottimizzazione della (5-20) vincolato dalla (5-19) per la cui soluzione interviene un parametro μ, detto moltiplicatore di Lagrange. La funzione obiettivo vincolata è la seguente: [ ] Var Z * ( x 0 ) − Z ( x 0 ) − 2 μ ( ∑λ i − 1) (5-21) Sostituendo la parte destra della (5-20) in quella sinistra della (5-21), il minimo è trovato derivando n+1 volte parzialmente rispetto ai parametri λj e μ, ponendo uguale a zero tali derivate. Ciò produce un sistema di n+1 equazioni in n+1 incognite che, in forma matriciale diventa: ⎡λ ⎤ A⎢ ⎥ = b ⎣μ ⎦ (5-22) laddove ⎡γ 11 ⎢ ... A=⎢ ⎢γ n1 ⎢ ⎣1 ... γ n1 ... ... ... γ nn ... ... 1⎤ 1⎥⎥ 1⎥ ⎥ 0⎦ bT = [γ 10 ... γ n0 1] T ⎡λ ⎤ ⎢ μ ⎥ = [λ1 ... λn ⎣ ⎦ μ] (5-23) 24 Risolvendo il sistema (5-22) con un appropriato metodo numerico si ottengono i pesi λj e μ che permettono di ottenere, tramite la (5-16), un valore interpolato per Z nel punto x0 e della sua varianza di stima attraverso la seguente espressione: ⎡λ ⎤ σ E2 = b T ⎢ ⎥ (5-24) ⎣μ ⎦ Dalla equazione (5-23), si evince che nel calcolo dei pesi intervengono i variogrammi e che questi, in virtù della ipotesi di continuità spaziale, privilegeranno le misure più vicine ad x0. Alcuni metodi deterministici pesano linearmente i dati di un intorno del punto x0 in modo che nella stima abbiano più influenza i dati più vicini a x0 (Shepard, 1968). Sembrerebbe che l'impostazione geostatistica possa aver complicato il problema per giungere ad una soluzione ragionevolmente ottenibile con approcci ben più semplici. Non è così; il calcolo dei pesi attraverso dei criteri probabilistici produce il vantaggio di ottenere la varianza di stima che gioca un ruolo fondamentale nella tecniche del Kriging. Infatti, se si considerano i quattro dati disposti sugli spigoli di un quadrato e si intenda stimare il valore nel suo baricentro, il kriging ordinario assegna un peso pari a 0.25 ai dati relativi ai quattro vertici: il risultato è analogo a quello ottenibile attraverso un qualsiasi altro metodo deterministico. Se si assume un modello di variogramma con valore di sill unitario e nugget assente, diventa determinante il range, quale fattore di scala del problema: la varianza di stima, cioè l'attendibilità da riporre nella stima, aumenta al crescere di tale fattore e in misura tanto più rilevante quanto meno continuità spaziale esiste. Infatti, fissate le misure del quadrato, la stima dell'evolversi di un fenomeno al suo interno, ha un'attendibilità che aumenta se la scala di continuità diventa molto più grande delle dimensioni del quadrato. Comunque, maggiore è la continuità spaziale e meno influente è il range sulla varianza di stima. Si deve porre attenzione, quindi, a dati che mostrino una non elevata continuità spaziale (es. variogramma di tipo sferico) e che abbiano una limitata distanza di influenza: la ‘fiducia’ da riporre nella stima deve essere molto contenuta in quanto, a parità di range, la varianza di stima sarà più elevata rispetto ad altri tipi di continuità. Si supponga, ora, di avere una variabile Z1, campionata in n1 posizioni del piano z1(x11),…,z1(x1n1) e un’altra Z2, campionato in n2 pozzi z2(x21),…,z2(x2n2), con n2<n1. La stessa impostazione si avrebbe nel caso in cui i campionamenti si riferissero alla stessa variabile campionata in modo differente in due diversi momenti temporali (D’Agostino et al., 1977). 25 Si vuole determinare la stima Z2 in un generico x0 facendo intervenire il campione totale n1+n2. Nel fare questo, si assume che lo stimatore sia del tipo kriging e, pertanto, che le sue proprietà siano quelle di minima varianza in x0, fra tutti gli stimatori lineari non distorti: Z 2* ( x 0 ) = N1 ∑λ 1i Z 1 ( x1i ) + i =1 N2 ∑λ 2 j Z 2 ( x 2i ) (5-25) j =1 La condizione di linearità è già nella formulazione di Z*2(x0); quella di non distorsione deriva dal porre la seguente: [ ] E Z 2* ( x 0 ) − Z 2 ( x 0 ) = 0 (5-26) La condizione di non distorsione, usando la linearità dello stimatore e dell'operatore E produce la seguente relazione: [ ] ∑λ E Z 2* ( x 0 ) − Z 2 ( x 0 ) = N1 1i E [Z 1 ( x1i )] + i =1 N2 ∑ λ E[Z 2j 2 (x2 j ) ]− E[Z 2 ( x 0 )] = 0 (5-27) j =1 In condizioni di stazionarietà spaziale, si ha che E[Z(x)] = m. Ciò produce le seguenti condizioni per i pesi: N1 ∑λ =0 1i i =1 N2 ∑λ (5-28) 2j =1 j =1 La varianza da minimizzare, nel generico x0, può essere sviluppata come segue: { } [ ] [ ] [ 2 2 2 σ ck = E ⎡ Z 2* ( x 0 ) − Z 2 ( x 0 ) ⎤ = E Z 2* ( x 0 ) + E Z 22 ( x 0 ) − 2 E Z 2* ( x 0 ) Z 2 ( x 0 ) ⎥⎦ ⎣⎢ ] (5-29) Tale varianza quantifica l'incertezza prodotta dallo stimatore in x0 e, come tale, rappresenta un indicatore della ‘fiducia’ da riporre nella stima in quel punto. La varianza va minimizzata tenendo presente i due vincoli che la condizione di assenza di distorsione nella stima ha determinato sui pesi. Applicando la tecnica di Lagrange che introduce i moltiplicatori μ1 e μ2 per i due vincoli, si ottiene un sistema di n1+n2+2 equazioni in n1+n2+2 incognite: 26 n1 ∑ λ1i γ 11 ( x1i − x1k ) + i =1 n1 ∑ n2 ∑λ 2 j γ 21 ( x 2 j − x1k ) + μ 1 = γ 12 ( x 0 − x1k ) 2 j γ 22 ( x 2 j − x 2l ) + μ 2 = γ 22 ( x 0 − x l ) j =1 λ1i γ 12 ( x1i − x 2l ) + i =1 n2 ∑λ j =1 (5-30) n1 ∑λ 1i i =1 n2 ∑λ 2i =0 =1 i =1 per k=1,2,..n1 e l=1,2,..,n2 La soluzione del precedente sistema produce i coefficienti sia per il calcolo della stima che per il calcolo della varianza del cokriging: 2 σ ck ( x0 ) = μ 2 + n1 ∑ λ1i γ 21 ( x1i − x 0 ) + i =1 n2 ∑λ 2 j γ 22 ( x 2 j − x0 ) (5-31) j =1 Tale varianza, interpretata come misura dell'incertezza di stima in x0, dipende dai modelli di auto- e cross-variogramma adattati sui dati e non direttamente dalle misure rilevate, ad esempio, dai pozzi spia. In pratica, una fitta distribuzione spaziale nell'intorno di x0, una buona continuità spaziale di tipo auto- e cross-, implicano una maggiore fiducia da riporre nella stima del cokriging prodotta in quel punto. Traducendo la formula (5-24) secondo la simbologia qui introdotta si ottiene la varianza di stima del kriging: σ k2 ( x 0 ) = μ 2 + n2 ∑λ 2i γ 22 ( x 2i − x0 ) (5-32) i =1 La differenza fra le due varianze è nella sommatoria che contiene le informazioni strutturali che derivano dall'incrocio delle misure. Nel caso 27 estremo in cui le variazioni incrociate siano non correlate, allora γ12(h) è di tipo nugget e le varianze del kriging e del cokriging sono uguali. 5.3.5 - Tecniche facenti capo alla geostatistica non lineare: il kriging disgiuntivo Il kriging disgiuntivo (KD) e' una tecnica in grado di produrre, in ciascun punto desiderato, una stima, una varianza di stima (DKEV) e una stima della probabilità di superare determinati valori di soglia. Quest’ultima informazione, in assenza di un modello multigaussiano per i dati, è disponibile poiché la tecnica è di tipo non lineare (Verly ,1984). Il KD è, quindi, una tecnica di tipo spaziale i cui risultati possono essere rappresentati in forma di mappa di isoprobabilità dell'evento Z(x)>S, con S una soglia prestabilita. In un qualsiasi punto, invece, è possibile ottenere una distribuzione di probabilità cumulativa facendo variare la misura delle soglie. Il KD permette di stimare la variabile Z(x) in un qualsiasi punto. La varianza di stima del KD è generalmente più bassa di quella del kriging ordinario anche se ciò ha dei costi in termini di tempi di elaborazione. Come già descritto in precedenza, le tecniche del kriging, in generale, sono basate su stimatori Z*(x) di Z(x) privi di errore sistematico e a minima varianza. In termini probabilistici, quindi, si ricerca lo stimatore ottimale. Questo è rappresentato dall'aspettazione condizionata di Z(x), una volta che siano date le variazioni casuali Z(x1),Z(x2),..,Z(xn), associate ai punti x1,x2,..xn del dominio di definizione. Se fosse nota la distribuzione di probabilità congiunta di Z(x),Z(x1),Z(x2),..,Z(xn) allora si potrebbe determinare l’aspettazione condizionata. E’ evidente che, tranne se non si utilizzino ipotesi multigaussiane, si è nell’impossibilità di determinarla. L'aspettazione condizionata è una funzione g(Z(x1),Z(x2),..,Z(xn)) di n variabili aleatorie: E[ Z ( x) Z ( x1 ),..., Z ( x n )] = g ( Z ( x1 ),..., Z ( x n )) (5-33) che, nel caso multigaussiano, è rappresentata da una forma linearmente dipendente dai dati. Quindi, se si opera con variabili ritenute normali allora è più conveniente usare il kriging della geostatistica lineare in quanto è in grado di fornirci quella ‘ottimalità’ richiesta allo stimatore n g* = Z * = ∑ λ Z (x ) i i =1 28 i (5-34) Da questo punto di vista, sembrerebbe che esista, anche se non esplicitata, una ipotesi di normalità (anzi di multinormalità) per i dati affinché il KO sia in grado di produrre delle stime ottime. In effetti, però, il KO si può applicare senza nessuna restrizione sulla pdf dei dati. Tra l’altro, l’esistenza di diverse tecniche di kriging (univariato e multivariato, lineare non lineare, parametrico e non parametrico) stanno a significare che si tende, in qualche modo, a raggiungere la "ottimalità" che solo la multinormalità è in grado di garantirci con il KO. Una via intermedia per la ipotesi forte di multinormalità è il KD che approssima la funzione aspettazione condizionale g(Z(x1),Z(x2),..,Z(xn)) come una combinazione lineare delle aspettazioni condizionali di Z rispetto alle singole variabili Z(xi). Questa approssimazione può essere costruita assumendo una ipotesi meno forte della multinormalità. Quella, cioè, che sia gaussiana sia la singola Z(xi) che la bivariata riferita ad una qualsiasi coppia Z(xi), Z(xj). Il KD, quindi, approssima la g attraverso n-funzioni fi ciascuna delle quali dipende dalla singola variazione Z(xi). Come tale è in grado di produrre una varianza di stima più piccola rispetto alle tecniche del Kriging lineare, avvicinandosi alla ottimalità. Le funzioni fi possono assumere una qualsiasi forma non lineare. Si può definire, così, lo stimatore del KD come segue: n Z *KD = ∑ f (Z ) i i (5-35) i =1 Per ottenere una stima nel generico punto x0 che sia di tipo KD, è necessario adottare delle ipotesi sul modello Z(x). − prima ipotesi è la stazionarietà del secondo ordine, cioè, il drift è assente, la varianza di Z(x) è definita ed è indipendente dalla specifica posizione x, la funzione di covarianza è dipendente solo dalla distanza di separazione fra coppie di punti. In altri termini, la distribuzione bivariata di Z(xi),Z(xj) è la stessa di quella per Z(xi+h),Z(xj+h); − seconda ipotesi è l'esistenza di una funzione φ che trasformi Z(x), avente una pdf qualsiasi, in una Y(x) di tipo normale standard; − terza ipotesi è che la trasformazione produca, per qualsiasi coppia Y(xi),Y(xj), una normale bivariata. Le sopracitate ipotesi di stazionarietà del secondo ordine e di normalità bivariata, permettono di formulare l'aspettazione condizionata in termini di funzione di covarianza (Rivoirard, 1984). 29 Per soddisfare la seconda ipotesi è necessario che sia definita la funzione di trasformazione dei dati in modo tale da farli appartenere ad una distribuzione normale, anche se originariamente non lo sono. Lo stimatore (5-35) fa riferimento a delle funzioni fi che possono essere rappresentate dai polinomi di Hermite. Questi sono funzioni ortogonali rispetto alla funzione peso exp(-u2/2) nell'intervallo [-∞,∞]. Sono definiti, per un certo ordine k, dalla formula di Rodriques (Abramowitz e Stegun, 1965): H k = (−1) k exp( y 2 / 2)d k (exp(− y 2 / 2)) / dy k (5-36) e possono essere valutati dalla relazione ricorsiva: H k +1 ( y ) = yH k ( y ) − kH k −1 ( y ) (5-37) dove H0(u)= 1 e H1(u)= u. Con i polinomi di Hermite si intende approssimare la funzione aspettazione condizionata e definire, così, lo stimatore del KD. Ma, quali proprietà devono avere le funzioni affinché esse siano ben approssimate dall’espansione hermitiana? Esistono molte funzioni φ che possono essere rappresentate come una serie infinita di polinomi Hk(u) di Hermite nella forma: ∞ φ(y) = ∑ C k H k (y) (5-38) k =0 dove i Ck sono i coefficienti che vanno individuati sfruttando la proprietà di ortogonalità dei polinomi Hk. Una condizione sufficiente per garantire a φ una rappresentazione Hermitiana è che l'integrale seguente sia finito nel senso della media quadratica: ∫ ∞ −∞ φ ( y ) 2 exp(− y 2 / 2)dy (5-39) La relazione di ortogonalità per polinomi di Hermite è la seguente: per k ≠ k ′ per k = k ′ ∫ ∫ ∞ −∞ ∞ −∞ H k ( y ) H k ' ( y ) exp(− y 2 / 2)dy = 0 (5-40) H k ( y ) H k ' ( y ) exp(− y 2 / 2)dy = (k! )(2π )1 / 2 (5-41) 30 Attraverso le precedenti relazioni possono essere definiti i coefficienti Ck: Ck ∫ = ∞ −∞ φ ( y ) H k ( y ) exp(− y 2 )dy (5-42) k!2π 1 / 2 Tale integrale non può essere valutato analiticamente in quanto φ(u) è incognito. Abramowitz e Stegun (1965) propongono, quindi, una tecnica di integrazione numerica che si basa solo su alcuni punti particolari, forniti dagli stessi autori, vi e wi: C k = 1 /( k!2π 1 / 2 ) J ∑ w φ (v ) H i i k (v i ) exp(−v i2 / 2) (5-43) i =1 Se φ(X) è funzione di una variabile X aleatoria normale standard allora Z=φ(X), vista in termini di espansione Hermitiana, ha la seguente media μZ e varianza σ2Z μ Z = C0 σ Z2 = (5-44) ∞ ∑ k! C 2 k k =1 (5-45) Si noti che la serie nella formula (5-45) incomincia dal termine k=1. I coefficienti della trasformazione Hermitiana assumono, quindi, una forma ben individuabile se la distribuzione di partenza Z è di tipo normale o lognormale. In questo caso valgono le relazioni espresse dalla tabella 5-1. Nelle ipotesi fatte per l’uso del KD (in particolare la seconda e la terza) si fa riferimento alla normalità singola e bivariata di due generiche variabili aleatoria, ad esempio U e V. In questo caso, infatti, tenendo conto che l’aspettazione condizionale di U dato V=v è definita dall’eq. (5-46), risulta che la pdf bivariata di U e V è data dalla (5-47). E[U v] = ∞ f ( x, y ) = ∑ (ρ XY ∫ +∞ −∞ uk (u v)du ) k H k ( x) H k ( y )g ( x) g ( y ) / k! (5-46) (5-47) k =0 k(u|v) è la pdf condizionata, ρXY è il coefficiente di correlazione mentre g rappresenta la pdf normale standard. Dalla formula (5-47) e definizione (5-46) è immediato esprimere l’aspettazione condizionale di una funzione, φ(X): E[φ ( X ) Y ] = ∞ ∑ (ρ XY k =0 31 ) k C k H k (Y ) (5-48) Tab. 5-1: Coefficienti di Hermite nel caso di variabili aleatorie normali e lognormali Ck (caso normale) 0 1 2 3 4 5 6 7 8 9 μ σ2 0 0 0 0 0 0 0 0 Ck (caso lognormale) e μ [1 + σ2 2 σ3 e μ [σ + eμ [ σ2 eμ [ σ3 eμ [ σ4 eμ [ σ5 eμ [ 2 + 2 6 + + 24 σ6 720 σ7 eμ [ σ8 eμ [ σ9 7! 8! 9! + + 4 σ .5 12 σ .6 48 σ .5 σ6 + 16 σ7 + 240 48 σ .8 1440 σ .9 10080 σ 10 80640 σ7 48 960 + + σ9 + 384 + σ9 288 + σ9 384 96 + 192 σ8 σ8 + σ8 + + 48 + 8 + σ6 + 8 σ .7 + + σ4 σ .4 + 120 eμ [ + σ 10 3840 + ...] + ...] σ 10 768 + ...] + ...] σ 10 1152 + ...] + ...] σ 10 5760 + ...] + ...] + ...] + ...] Si ricorda, comunque, che la normalità bivariata, per ciascuna coppia di variabili non implica la normalità della congiunta multivariata n+1. Nel caso particolare in cui Y(x) sia una FA stazionaria, cioè ciascuna coppia Y(xi),Y(xj) ha la stessa pdf bivariata che Y(xi+h),Y(xj+h) e, inoltre, Y(X) sia normale bivariato, allora il coefficiente di correlazione dipende solo dalla particolare coppia. In generale, in luogo del coefficiente di correlazione, si usa la funzione di covarianza. 32 Kriging Disgiuntivo: generalità Il KD rappresenta una forma di kriging non lineare che, generalmente, offre un miglioramento, in termini di varianza di stima, rispetto al kriging lineare e che non richiede la conoscenza della distribuzione di probabilità congiunta n+1 necessaria per la valutazione della aspettazione condizionale e il raggiungimento dell’ottimalità della stima (cioè minima varianza di stima) (Matheron 1976). Il KD, infatti, richiede la conoscenza solo della distribuzione congiunta bivariata in luogo di quella n+1. Quando una variabile sia normale (o lognormale) uni- e bivariata, lo stimatore lineare o lognormale del kriging ordinario, nota la media, è identico allo stimatore del KD. Se si aggiunge l’assunzione che la distribuzione multivariata sia normale allora lo stimatore lineare e quello non lineare del kriging sono identici all’aspettazione condizionale. La varianza di stima e la stima permettono, così, di calcolare la probabilità condizionata di superamento di certi valori di soglia. Un’assunzione implicita nel metodo KD è l’esistenza di una trasformazione gaussiana φ(X) che sia unica ed invertibile. Questa trasformazione deve produrre una FA che sia normale standard, partendo da una qualsivoglia distribuzione. Un’altra assunzione è che la FA prodotta dalla trasformazione sia anche una pdf normale bivariata per qualsiasi coppia di punti. Queste assunzioni sono necessarie solo per permettere di scrivere l’aspettazione condizionata in termini di funzione di correlazione (5-48). La trasformazione è applicata per Z(x) per almeno tre ragioni: 1. è conveniente lavorare con una normale per permettere di gestire agevolmente l’aspettazione condizionata; 2. esiste sempre una trasformazione che permette di passare da una distribuzione arbitraria di Z(x) ad una normale Y(x) (Feller, 1968), in questo senso il KD è un metodo generale perché può essere formulato una sola volta, qualsiasi sia la distribuzione di partenza per Z(x); 3. elimina la necessità di definire una assunzione limitante che passi attraverso la specifica di una prefissata distribuzione, come per il caso del kriging lognormale. Ora, sia Z(x) una FA stazionaria del secondo ordine che sia campionata in n punti Z(x1),Z(x2),..,Z(xn), con x1,x2,..xn punti del piano. Applicando una trasformazione a ciascun valore Z(xi) si produce un nuovo valore Y(xi) che appartiene ad una normale standard. Il KD è impostato come somma di funzioni non lineari, laddove ciascuna funzione dipende da uno ed uno solo valore normale trasformato Y(xi): 33 ∑ i =1 ∞ n n Z *KD = f i [Y ( x i )] = ∑∑ f ik H k [Y ( x i )] (5-49) i =1 k = 0 laddove fi [Y(xi)] è la funzione che deve essere determinata ed espressa in termini di una serie di polinomi di Hermite e di costanti fik, che dipendono dal punto i e dal polinomio k. Le condizioni imposte allo stimatore (5-49) sono le solite delle tecniche del kriging, cioè lo stimatore deve produrre la migliore stima non distorta e a minima varianza dell’errore. L’esistenza di una trasformazione da Y(x) a Z(x) implica una equivalenza nella formulazione del problema, per cui si può fare riferimento tanto a fi [Y(xi)] che a fi [Z(xi)]. Journel e Huijbregts (1978, p. 568) danno una suggestiva lettura del problema, in termini di teoria delle funzioni misurabili. La minima varianza si ha quando Z(x0)-Z*KD(x0) è perpendicolare alle funzioni f [Z(xi)], nell’iperpiano definito dalle funzioni misurabili fi [Z(xi)]. Pertanto, usando la proiezione perpendicolare, equivalentemente, imponendo che i vettori Z(x0)-Z*KD(x0) e f [Z(xi)] siano ortogonali, si può scrivere: { } * E[ Z ( x 0 ) − Z KD ( x 0 ) f [ Z ( x i )]] = 0 (5-50) * E[ Z ( x 0 ) f [ Z ( x i )]] = E[ Z KD ( x 0 ) f [ Z ( x i )]] (5-51) o, equivalentemente, In termini di aspettazione condizionata, la (5-51) può essere riscritta come: * E[ Z ( x 0 ) Z ( x j )] = E[ Z KD ( x 0 ) Z ( x j )] (5-52) per j=1,2,…,n Si introduce, ora, la funzione di trasformazione φ(Y[x]), che permette di trasformare un qualsiasi valore normale in uno appartenente alla pdf di Z(x): φ [Y ( x)] = Z ( x) = ∞ ∑C H k k [Y ( x )] (5-53) k =0 laddove Y(x) è di tipo normale bivariato e i Ck sono calcolati mediante le equazioni (5-42) o (5-43). 34 Incorporando la (5-49) e la parte più a sinistra della (5-53) dentro l’eq. (5-52) si ottiene E[φ [Y ( x 0 )] Y ( x j )] = n ∑ E[ f [Y ( x )]Z i i * KD ( x 0 ) Y ( x j )] i =1 (5-54) per j=1,..,n Le incognite si trovano applicando la (5-48) alla (5-54), troncando la serie infinita ai primi K termini: ⎧ ⎪ K ⎪ C k H k [Y ( x j )]⎨( ρ 0 j ) k − ⎪ k =o ⎪ ⎩ ∑ per j=1,..,n n ∑f i =1 ⎫ ( ρ ij ) k ⎪ ⎪ ⎬=0 Ck ⎪ ⎪ ⎭ ik (5-55) Definendo bik = f ik / Ck e notando che la (5-55) deve essere soddisfatta per tutti gli indici k del sistema del KD, si ottiene: K Z *KD ( x 0 ) = ∑C K H k* [Y ( x 0 )] (5-56) k =0 laddove H*k[Y(x0)] è il valore stimato di Hk[Y(x0)] ed è scritto come una somma pesata di polinomi di Hermite valutati sui valori del campione: n ∑b H *k [Y ( x 0 )] = iK H k [Y ( x i )] (5-57) i =1 e i pesi bik sono determinati attraverso la soluzione del sistema del kriging lineare: (ρ0 j ) k = n ∑b ik ( ρ ij ) k (5-58) i =1 j=1,...,n Per k=0, la (5-58) rappresenta l’assenza di sistematicità: n ∑b i0 =1 (5-59) i =1 che significa C0 = μZ. Lo stimatore in x0 ci dice che, in funzione dei K coefficienti dell'espansione di Hermite, si deve stimare il polinomio di ordine k in x0, cioè, 35 n * Z KD ( x0 ) == C0 ∑b i0 + C1H1* [Y ( x0 )] + ... + CK H K* [Y ( x0 )] i =1 da cui: * Z KD ( x0 ) = media + C1H1* [Y ( x0 )] + ... + CK H K* [Y ( x0 )] Si devono, pertanto, determinare, Kxn coefficienti: ⎡b10 ⎢b ⎢ 11 ⎢ ... ⎢ ⎣b1k ... bn 0 ⎤ ... bn1 ⎥⎥ ... ... ⎥ ⎥ ... bnk ⎦ La generica riga k è ottenuta risolvendo il seguente sistema lineare: ⎡ (ρ11 )k ⎢ ⎢ ... ⎢( ρ ) k ⎣ n1 ... (ρ1n )k ⎤ ⎥ ... ... ⎥[b1k ... (ρ nn )k ⎥ ⎦ ... bnk ]T ⎡ (ρ 01 )k ⎤ ⎢ ⎥ = ⎢ ... ⎥ ⎢( ρ ) k ⎥ ⎣ 0n ⎦ La KDEV, varianza di stima del KD, si trova dalla * * var[Z ( x 0 ) − Z KD ( x 0 )] = E[ Z ( x 0 ) 2 ] − E[ Z ( x 0 ) Z KD ( x 0 )] cioè 2 σ KDEV = K ∑ n k! C k2 [1 − k =1 ∑b ik ( ρ 0i ) k ] (5-60) (5-61) i =1 La probabilità condizionata Per determinare la probabilità condizionata usando il KD, si deve riformulare il problema in modo che il KD, stimando l’aspettazione condizionata, possa stimare anche la probabilità condizionata. Sia Θ yc [Y ( xi )] la funzione indicatore basata sul valore di soglia trasformato yc, tale che Θ yc [Y ] = 1 se Y ≥ y c Θ yc [Y ] = 0 se Y < y c 36 (5-62) Questo permette di scrivere la seguente P[Y ( x 0 ) ≥ y c Y ( x i )] = P[Θ yc [Y ( x 0 )] = 1Y ( x i )] (5-63) da cui l’aspettazione diventa E[Θ yc [Y ( x 0 )] Y ( xi )] = P[Θ yc [Y ( x0 )] = 1Y ( xi )] (5-64) poiché Θyc [Y] = 0 per -∞ < Y < yc e Θyc [Y] = 1 per yc < Y < ∞. Pertanto, la probabilità condizionata che Y(x) (o Z(x)) sia più grande di yc (o zc) è data dalla aspettazione condizionata della funzione indicatore Θyc [Y]. Espandendo Θyc [Y] in termini di una serie infinita di polinomi di Hermite rispetto ai punti campione, si ottiene: K Θ yc [Y ( x0 )] = ∑ϑ H [Y ( x )] k k 0 k =0 (5-65) che rappresenta lo stimatore della probabilità condizionata, P*(x0), mentre i ϑk sono i coefficienti dell’espansione. Applicando l’ortogonalità quale metodo per valutare le ϑk si ottiene: o ϑk = ∫ ∞ −∞ Θ yc (u ) H k (u ) g (u )du ϑk = ∫ ∞ yc H k (u ) g (u )du (5-66) (5-67) laddove g(u) è la pdf normale e u è la variabile di integrazione. Dalla definizione di Hk(u) e g(u) si possono calcolare i coefficienti. Per k=0, il coefficiente è ϑ0 = 1 − G ( y c ) (5-68) con G(u) che rappresenta la normale cumulativa di g(u). Per k>0, dalla formula di Rodrigues (Abromowitz e Stegun, 1965), si ottengono gli altri coefficienti: ϑk = g ( yc ) H k −1 ( yc ) k! 37 (5-69) Sostituendo le (5-68) e (5-69) nella (5-65), si ottiene lo stimatore della probabilità condizionata, P*(x0), in termini della funzione indicatore: K Θ yc [Y ( x 0 )] = 1 − G ( y c ) + g ( y c ) ∑ k =1 H k −1 ( y c ) H k [Y ( x 0 )] k! (5-70) La sola incognita nella formula (5-70) è Hk[Y(x0)]. Usando lo stimatore H*k[Y(x0)] della (5-57) e sostituendolo nella (5-70) si ottiene lo stimatore della probabilità condizionata nel punto x0: K P * ( x0 ) = 1 − G( y c ) + g ( y c ) ∑ k =1 H k −1 ( y c ) H k* [Y ( x 0 )] k! (5-71) La pdf di Θyc[y] è ⎧⎪ Θ 'yc [u ] = g (u )⎨1 + ⎪⎩ K ∑ k =1 H k (u ) H k* [Y ( x 0 )] ⎫⎪ ⎬ k! ⎪⎭ (5-72) che permette di descrivere lo stimatore della probabilità condizionata in questa forma alternativa: P * ( x0 ) = ∫ ∞ yc Θ 'yc du = Θ yc [Y ( x 0 )] (5-73) I fattori che influenzano la probabilità condizionata P* sono, tra gli altri, il valore soglia yc, il valore stimato di Hk[Y(x0)], e la funzione di correlazione. Se yc è grande ed è negativo allora G(yc) e g(yc) saranno vicini allo 0 e P* sarà prossima a 1. Quando yc è grande ed è positivo allora G(yc) sarà vicina ad 1 e g(yc) a 0: la conseguenza di questo sarà che P* sarà prossima a 0. Anche il valore stimato di Hk[Y(x0)] e la funzione di correlazione influenzano il risultato anche se ciò non è analiticamente evidenziabile. Se la distanza tra campioni e x0 diventa grande (cioè maggiore del range) allora si hanno due possibilità: 1. se la distanza fra tutti i campioni è più grande del range allora tutte le bik, per k>0, sono 0 e P*(x0)=1-G(yc) 2. se almeno qualcuna delle coppie relative ai campioni è dentro il range allora interviene anche il terzo termine presente nella formula (5-71). 38 La pratica del Kriging Disgiuntivo L'applicazione del KD richiede, preliminarmente, l’analisi esplorativa dei dati con l’intento, tra l’altro, di verificare se i dati siano log-normali o normali. Allo scopo è possibile utilizzare il test non parametrico di KolmogorovSmirnov (Sokal e Rohlf, 1981, Rao et al., 1979). I software esistenti, in grado di eseguire il KD, prevedono due passi. Il primo è propedeutico al secondo e permette il calcolo dei coefficienti Ck che definiscono l'espansione Hermitiana. Nel caso in cui i dati siano normali (o log-normali, nel senso che i log dei dati sono normali) si conoscono i primi due momenti in funzione di Ck dalle formule (5-45) e (5-46). Il secondo passo è simile alle altre tecniche del kriging e prevede l’inserimento di tutte le informazioni su: modello di variogramma, modalità di ricerca degli intorni, e grigliato. Chi ha avuto confidenza con le tecniche del kriging e sui relativi software, alcuni dei quali di pubblico dominio, ad esempio GEOEAS (Englund e Sparks, 1989), non ha difficoltà a praticare il secondo passo del KD. Non è così per la prima fase. Attraverso un esempio numerico si evidenziano gli elementi critici che riguardano la preparazione delle informazioni necessarie per l’interpolazione del KD: trascurare alcuni di questi elementi può produrre dei risultati inattesi. La tecnica del KD si basa su una variazione aleatoria di tipo normale standard, indicata con Y(xi).Essa è legata alla variabile in esame, indicata con Z(xi), attraverso una trasformazione che deve permettere di ottenere Y(xi) assegnata Z(xi) e viceversa. Si considerino, ad esempio, i dati, riportati in tabella 5-2, con zi valore misurato della funzione Z(xi) nei punti del piano xi=(ui,vi): Tab. 5-2: Esempio di dati ui 5 4 8 1 8 5 1 4 vi 1 4 8 1 4 5 5 8 Media Varianza n 39 zi 0.8 2.0 2.0 2.0 2.4 2.5 3.1 4.6 2.425 1.196429 8 Un modo per trovare la trasformazione in questione è il seguente. Si mettano in ordine crescente i valori zi e si valuti il rango (posizione) di ciascuno di essi all’interno dell’insieme degli otto valori. Si stimi la probabilità cumulata in zi come: PR(i ) = F ( z i ) = Pr ob( Z ( x) < z i ) = n + 1 − rango − 0.5 n (5-74) e si valuti il punto della normale standard, corrispondente a PR(i), ed indicato con YZ(i): Tab. 5-3: Valore zi, rango, probabilità cumulata PR(i), valore normale YZ(i) i 1 2 3 4 5 6 7 8 zi 0.8 2.0 2.0 2.0 2.4 2.5 3.1 4.6 rango 8 5 5 5 4 3 2 1 PR(i) 0.0625 0.4375 0.4375 0.4375 0.5625 0.6875 0.8125 0.9375 1-PR(i) 0.9375 0.5625 0.5625 0.5625 0.4375 0.3125 0.1875 0.0625 YZ(i) -1.534 -0.157 -0.157 -0.157 0.1573 0.4888 0.8871 1.5341 Guardando la tabella 5-3, si può osservare, ad esempio, che –1.534 è il valore della normale standard fino al quale si cumula 0.0625 di probabilità. Graficamente, il processo è ben descritto dalla figura 5-1 che rappresenta la cumulata di una Z(x) e di una normale standard: a parità di valore sulle ordinate che rappresentano le probabilità che si cumulano, sono individuabili due distinti valori sulle ascisse (zi e YZ(i)). Il valore YZ(i) si può ottenere in vari modi. Disponendo di un foglio elettronico EXCEL (1997), la funzione INV.NORM restituisce il valore desiderato fornendo in input il valore zi. Lo stesso YZ(i) può essere ottenuto approssimativamente (Verly, 1984). Si consideri il valore più piccolo fra Pr(i) e (1-Pr(i)). Ad esempio, per i=5, il valore più piccolo è t=0.4375. Si calcoli tt = √-2ln(t) e, quindi, ttt = tt - ((0.010328·tt + 0.802853)·tt + 2.515517) / (((0.001308·tt + 0.189269)·tt + 1.432788)·tt + 1) 40 che, per la riga dell’esempio, è ttt=0.157. 1 0.8 0.6 0.4 0.2 0 1 0.8 0.6 0.4 0.2 0 0 10 20 -4 30 -2 0 2 4 Fig. 5-1: Grafici di due cumulate. Quella più a sinistra rappresenta una generica Z(x), quella più a destra rappresenta una normale standard. La YZ(i) cercata sarà ttt se il valore di zi è più grande di 0.5 (come per l’esempio), altrimenti è necessario prendere il corrispondente simmetrico –ttt. Adesso dobbiamo essere in grado di costruire una funzione che trasformi un qualsiasi numero fra 0 e 1 (cioè una probabilità) in un corrispondente valore di Z(x). Questo può essere realizzato attraverso una polinomiale che si vada ad adattare al meglio, nel senso dei minimi quadrati, alle coppie sperimentali (zi, Pr(i)): ecco un elemento critico del KD, prima fase. Si sta cercando di costruire la funzione z=φ(y). Si estraggano le colonne di interesse dalla tabella 5-4 dell’esempio. Tab. 5-4: Coppie sperimentali (zi, Pr(i)) zi 0.8 2.0 2.0 2.0 2.4 2.5 3.1 4.6 Pr(i) 0.0625 0.4375 0.4375 0.4375 0.5625 0.6875 0.8125 0.9375 Il grafico relativo è nella figura 5-2: 41 5 4 zi 3 2 1 0 0 0.2 0.4 0.6 0.8 1 Pr(i) Fig. 5-2: Grafico sperimentale della funzione z=φ(y). Se si ipotizza un polinomio di ordine 3, i coefficienti determinati con il criterio dei minimi quadrati sono riportati nella tabella 5-5. Tab. 5-5: Coefficienti della trasformazione Coefficiente Valore c0 0.194747 c1 10.873055 c2 -22.634060 c3 17.048210 Cioè z = φ*(y) = c0 + c1y + c2y2 + c3y3. La colonna Errore della tabella 5-6 fornisce la differenza fra zi sperimentale e quello stimato: valutando questi errori si può decidere se aumentare l’ordine del polinomio per migliorare la stima stessa. Tab. 5-6: Valori stimati di z sulla base del polinomio di terzo grado zi Pr(i) zi stimato Errore 0.8 0.0625 0.7901 0.0099 2.0 0.4375 2.047 -0.047 2.0 0.4375 2.047 -0.047 2.0 0.4375 2.047 -0.047 2.4 0.5625 2.1835 0.2165 2.5 0.6875 2.5117 -0.012 3.1 0.8125 3.2314 -0.131 42 A questo punto si deve valutare il numero e la stima dei coefficienti Ck di Hermite. Nella formula (5-43) sono previste delle ascisse che permettono di individuare le probabilità cumulate vi e dei fattori peso wi che sono forniti da Abramowitz e Stegun (1965) in due soli casi: 5 o 10. Ecco un altro elemento critico del KD passo 1: la scelta del numero 5 o 10 relativa alla formula dei Ck. In particolare si ha (tabelle 5-7 e 5-8): Tab. 5-7: Ascisse e pesi, in numero pari a 10, da utilizzare nel calcolo dei coefficienti di Hermite Ascisse ai wi 0.2453407 0.4763668 0.7374737 0.3762616 1.2340762 0.2334523 1.7385377 0.1124518 2.2549740 0.0412310 2.7888061 0.0111540 3.3478546 0.0021186 3.9447640 0.0002600 4.6036825 0.0000176 5.3874809 0.0000004 Tab. 5-8: Ascisse e pesi, in numero pari a 5, da utilizzare nel calcolo dei coefficienti di Hermite Ascisse ai wi 0.3429013 0.6478523 1.0366108 0.4109606 1.7566837 0.1584799 2.5327317 0.0332067 3.4361591 0.0027991 43 Nella colonna wi è considerato il prodotto fra il peso (proposto da Abramowitz e Stegun) e exp(-a2i / 2), cfr. equazione (5-43). Riprendendo l’esempio numerico, si deve essere in grado di trasformare le ascisse, che sono valori di una normale standard, in probabilità cumulate vi in modo tale da poter calcolare φ*(vi).Poiché le ascisse si riferiscono alla distribuzione normale esse vanno considerate anche con il segno negativo: il contatore J dell’equazione (5-43) sarà uguale a 20 oppure a 10 a secondo della scelta fatta sul numero delle ascisse di Abramowitz e Stegun. Per ottenere vi si può fare uso di un foglio elettronico EXCEL (1997), e impostare la funzione DISTRIB.NORM per ciascuna delle 10 (o 5) ascisse positive e 10 (o 5) corrispondenti ascisse negative. In alternativa, si può utilizzare la seguente formula approssimata della cumulativa normale standard (Verly, 1984): se ai < 5 1 vi = 1 − (1 + (((0.019527 ai + 0.000344) ai + 0.115194) ai + 0.196854) ai ) − 4 2 se ai ≥ 5 vi = a 1 (1 + i ) . ai 2 Per l’esempio numerico, attraverso il polinomio di ordine tre precedentemente identificato, è possibile ottenere i seguenti valori di φ*(vi), nel caso in cui J=20 (e cioè 10 ascisse positive e 10 negative), come riportato in tabella 5-9. Della formula (5-43) si conoscono, a questo punto, tutti i termini interessati, a patto che si siano decisi quanti K polinomi considerare. Questa è un’ulteriore decisione, e caratterizza il terzo punto critico che conclude la fase 1 del KD. Quindi, riepilogando, le decisioni riguardano: − ordine del polinomio che permette di ottenere il valore di z, a partire da un qualsiasi valore di probabilità cumulata, intesa di tipo normale standard (cioè z=φ*(yi)); − numero delle ascisse e pesi da considerare nella formula (5-43) che permette il calcolo del generico Ck; − numero di polinomi K di Hermite, o equivalentemente, numero di coefficienti Ck da considerare. 44 Tab. 5-9: Valori approssimati della trasformazione φ(vi) nelle coordinate prescelte ai vi φ*(vi) 0.2453407 0.5968594 2.24614 0.7374737 0.7696071 2.927849 1.2340762 0.8912459 3.975649 1.7385377 0.9591647 4.844363 2.2549740 0.9879589 5.284375 2.7888061 0.9971315 5.434142 3.3478546 0.9994189 5.472232 3.9447640 0.9998956 5.480206 4.6036825 0.9999833 5.481675 5.3874809 1.0000000 5.481955 -0.245341 0.4031406 2.016565 -0.737474 0.2303929 1.706876 -1.234076 0.1087541 1.131462 -1.738538 0.0408353 0.60217 -2.254974 0.0120411 0.322419 -2.788806 0.0028685 0.225751 -3.347855 0.0005811 0.201058 -3.944764 0.0001044 0.195882 -4.603682 0.0000167 0.194929 -5.387481 0.0000000 0.194747 La formula (5-37) fornisce un modo ricorsivo per calcolare i valori del polinomio di Hermite nei punti ai (positivi e negativi) previsti. A titolo di esempio, considerando la prima ascissa, si ottengono i seguenti valori dei polinomi dall’ordine zero fino a quello di ordine K=13 prescelto. Si tenga presente che il polinomio di ordine zero è sempre uguale a 1 mentre quello di ordine 1 è sempre uguale all’ascissa ai considerata. La formula ricorsiva (5-37) può essere, a questo punto, applicata (tabella 510). Se tutte le scelte effettuate sono efficaci (ad esempio: ordine polinomio 3, 10 ascisse per il calcolo dei coefficienti, e 13 polinomi di Hermite) allora si deve essere in grado di riprodurre la media (formula (5-44)) e la varianza (formula (5-45)) dei dati. 45 Tab. 5-10: Valore del polinomio di Hermite nel punto di ascissa ai=0.245 k Hk(ai) 0 1.000 1 -0.245 2 -0.940 3 0.721 4 2.642 5 -3.533 6 -12.345 7 24.229 8 80.474 9 -213.574 10 -671.868 11 2300.576 12 6826.128 13 -29281.637 Considerando l’esempio, si ottengono i seguenti coefficienti Ck (tabella 5-11). Tab. 5-11: Coefficienti dell’espansione Hermitiana k Ck 0 2.3492 1 1.0698 2 0.1350 3 0.0011 4 -0.0188 5 -0.0095 6 0.0017 7 0.0013 8 -0.0001 9 -0.0001 10 0.0000 11 0.0000 12 0.0000 13 0.0000 46 I coefficienti maggiori di 10 sono poco significativi: ecco un elemento da tenere presente durante la fase 1 del KD. Si consideri la tabella 5-12, costruita attraverso le formule (5-44) e (5-45). Tab. 5-12: Statistiche del campione e dell’approssimazione Hermitiana Hermite Dati Media 2.349 Media 2.425 Varianza 1.221 Varianza 1.196 Si può, da questa, dedurre quanto buono è il pre-processo del KD: più siamo vicini alla media e varianza dei dati e più le approssimazioni coinvolte saranno giudicate buone. Si tratta ora di applicare il KO per K volte. Per risolvere il sistema del KO è necessario costruirsi le matrici del KO. Nella fattispecie, dall’equazione (5-56) si deduce che, una volta determinati i K coefficienti Ck, si può stimare il polinomio di Hermite nel punto generico x0. L’equazione (5-57) indica che, per ciascun k, è necessario determinare n coefficienti lineari che pesano i valori dei polinomi di Hermite calcolati nei punti yi, ottenuti dalla trasformazione di ciascun zi nel corrispondente normale standard yi. La matrice del KO per il generico k di K è identificato dall’equazione (5-58). 47 5.4 - L’approccio proposto su un caso di studio La valutazione del rischio, inteso come probabilità di superamento di assegnate soglie critiche in un determinato intervallo di tempo, può essere risolto attraverso il kriging disgiuntivo. In questo paragrafo si applica il kriging disgiuntivo ad un caso di studio riguardante il valore della concentrazioni dei nitrati nelle acque sotterranee della pianura Modenese. Lo studio condotto è basato sui valori di concentrazione fissati dalla Legge italiana per l’uso potabile della risorsa idrica (DPR n.236/88, 1988) che sono, rispettivamente, 10 mg/L, come valore guida e 50 mg/L come valore massimo ammissibile. Elaborando campioni di dati misurati in diversi pozzi di monitoraggio e per diverse stagioni è stato possibile tracciare numerose mappe di iso-probabilità, ognuna delle quali rappresentativa di una condizione spaziale nella corrispondente stagione di campionamento. La mappa finale del rischio deve essere una sintesi di tutte queste che, pur nella sua schematicità, deve mantenere una significativa rappresentatività. Quest’ultima, naturalmente, deve essere calibrata al tipo di problema esaminato ed alle possibili decisioni che si intendono adottare. 5.4.1 - Descrizione dell’area Il presente studio prende in considerazione l’area della media e alta pianura modenese. Si tratta di un’area rettangolare che si estende per trenta chilometri in direzione NO-SE e per quaranta chilometri in direzione NE-SO per complessivi milleduecento chilometri quadrati di superficie. A tale zona è stato associato un sistema di riferimento che ha origine nel vertice inferiore di sinistra dell’area rettangolare individuata, ricadente a SO di Sassuolo, caratterizzata dalle coordinate geografiche 1640000E e 4926000N rispetto al reticolato chilometrico italiano. L’area considerata, delimitata a sud dall’Appennino Tosco-Emiliano, è solcata dai fiumi Secchia e Panaro che scorrono, rispettivamente ad ovest e ad est della città di Modena. 48 La pianura modenese è stata oggetto di numerosi studi e ricerche finalizzate, nella maggior parte dei casi, ad individuare soluzioni al problema dell’approvvigionamento idropotabile. (Visentini, 1935; Colombetti et al., 1980; Paltrinieri e Pellegrini, 1990; Barelli et al, 1990; Vicari e Zavatti, 1990). Ricerche approfondite concernenti l’idrogeologia dell’acquifero e la vulnerabilità della falda (AA.VV., 1996) hanno prodotto una cospicua cartografia tematica informatizzata riguardante, tra l’altro, l’idrogeologia, le tessiture dei depositi superficiali, l’infiltrabilità, la vulnerabilità e l’inquinamento reale e potenziale delle acque sotterranee. Dal punto di vista geologico, l’alta e media pianura modenese, compresa tra il complesso appenninico a sud e il bacino sedimentario padano a nord, è caratterizzata fondamentalmente da un sistema di conoidi pedemontane costituito dalle conoidi principali del fiume Secchia e Panaro che si interdigitano lateralmente con quelle secondarie dei torrenti minori (Fossa Spezzano, Torrente Cerca, Torrente Grizzaga, Torrente Tiepido, Torrente Nizzolla, Torrente Guerro). Il complesso appenninico, costituito da successioni argillose del ciclo marino pliocenico-calabriano, è emerso a seguito del ritiro delle acque del golfo Padano alla fine del Pleistocene inferiore. Il passaggio da depositi marini a quelli continentali individua, in prossimità dell’Appennino, una zona di transizione caratterizzata dall’alternanza delle due diverse facies (marina e continentale), poiché l’emersione della catena non è stata progressiva, a causa delle glaciazioni che si sono avute durante il quaternario e degli eventi tettonici che hanno determinato sollevamenti discontinui dell’Appennino. I depositi della piana alluvionale, che si estendono fino al fiume Po, sono costituiti da sedimenti fini, sabbie, che sono relative a fasi di accrescimento laterale, e sedimenti finissimi, limi e argille, indicanti fasi di accrescimento verticale. Nel sistema di conoidi si distinguono le più antiche, delle quali si rinvengono lembi, in prossimità dell’Appennino e al margine della piana alluvionale, fortemente tettonizzati ed erosi, dalle più recenti, in formazione dal Neolitico, che si presentano con la loro morfologia originaria in posizione asimmetrica rispetto ai corsi d’acqua i quali a causa di fenomeni tettonici migrano verso occidente (Gelmini et al., 1990a). 49 Litologicamente le conoidi sono costituite, prevalentemente nella parte apicale, da ghiaie e sabbie che si alternano a corpi pelitici di spessore crescente man mano che ci si avvicina alla parte distale; da quest’ultima si passa gradualmente ai sedimenti fini della piana alluvionale. Le conoidi minori presentano una struttura sedimentaria simile a quella descritta sebbene litologicamente sono costitute da sedimenti prevalentemente più fini: predominano le sabbie e i limi con piccoli corpi ghiaiosi (Gelmini et al., 1990b). In generale, si è riscontrato che lo spessore dei depositi della Pianura Modenese è molto variabile e, in particolare, si è visto che aumenta spostandosi dall’Appennino, dove si è valutato uno spessore di 100 m, verso nord (a nord di Modena si è misurato uno spessore di 350-400 m). Tale variabilità è da attribuirsi alle strutture tettoniche profonde che hanno prodotto una diversa subsidenza della pianura determinando un differente spessore dei sedimenti depositati. Dai lineamenti geologici descritti si evidenzia una forte eterogeneità litologica che rende difficoltoso individuare in dettaglio la geometria dell’acquifero imponendo la scelta di ipotesi semplificative che consentano di schematizzare il sistema idrico sotterraneo della Pianura Modenese. Pertanto la definizione dello schema di funzionamento dell’acquifero si basa sull’assunzione che gli orizzonti permeabili, intercalati con lenti argillose, che lo costituiscono, sono idraulicamente connessi. Tale ipotesi, giustificata dalla continuità orizzontale e verticale di alcuni parametri idrodinamici, quali la piezometria e la conducibilità elettrica (Idroser, 1978), consente di considerare come acquifero principale un acquifero unico assimilabile a un “acquifero monostrato equivalente” (Paltrinieri e Pellegrini, 1990). Al di sotto dell’acquifero principale esistono livelli acquiferi separati da strati impermeabili, arealmente continui; tale situazione, che si riscontra fino all’interfaccia acqua dolce/acqua salata (limite idrodinamico del sistema idrico sotterraneo), porta a considerare l’acquifero nel suo complesso un “acquifero multistrato”. L’acquifero principale, così definito, è caratterizzato nella zona pedemontana da una falda libera estesa in connessione idraulica con i corsi d’acqua che verso valle, in corrispondenza dei sedimenti fini delle conoidi distali e della pianura alluvionale, passa a falda in pressione (Barelli et al., 1990; Paltrinieri e Pellegrini, 1990). 50 L’alimentazione dell’acquifero avviene per infiltrazione di acqua meteorica e di fiume, precisamente il Secchia alimenta fino a Rubiera mentre il Panaro fino a San Cesario; oltre queste località i rapporti infiltrazione-drenaggio variano a seconda del livello piezometrico e delle altezze idrometriche dei corsi d’acqua. Il rilievo appenninico contribuisce all’alimentazione solo per il ruscellamento superficiale infatti, essendo interamente costituito da argille del ciclo pliopleistoceniche, completamente impermeabili, non può alimentare mediante flussi sotterranei. Lo spessore dell’acquifero, mediamente intorno ai 300 metri, è abbastanza variabile; in particolare spostandosi dall’Appennino, dove si valuta di 100 metri, verso nord si approfondisce fino ad a superare i 600 metri a nord di Modena, nei pressi di Nonantola, per poi ridursi nuovamente in corrispondenza della bassa pianura modenese. 5.4.2 - I dati monitorati La falda idrica sotterranea presente nella zona considerata in questo studio è ampiamente monitorata; i valori dei nitrati sono stati campionati nella Provincia di Modena in un area compresa tra l’Appennino ed il fiume Po. Al fine di avere una caratterizzazione del rischio che tenga conto del maggior numero di informazioni disponibili, si sono considerate due stagioni per anno (primavera ed autunno) dal 1990 al 1996, per un totale di quattordici set di dati. 5.4.3 - Analisi dei dati Le tabelle 5-13 e 5-14 forniscono la descrizione statistica dei data set considerati. Le medie autunnali sembrano crescere passando da valori di concentrazione di poco superiori a 32 mg/L a valori di 39 mg/L nell’autunno del 1996. Lo stesso andamento sembra caratterizzare le deviazioni standard che crescono fino ad arrivare a 38.4 mg/L sempre nell’autunno 1996. I valori medi e le deviazioni standard primaverili sembrano, invece, più casuali e oscillanti fra 28.4 mg/L a 38.8 mg/L i primi, e fra 25.2 mg/L e 39.7 mg/L, i secondi. Sia per i valori autunnali che primaverili il massimo delle medie si è avuto nell’anno 1996. La mediana, tranne che nella primavera 1990, è sempre distante dalla media e dalla moda: è questo un chiaro sintomo dell’asimmetria delle distribuzioni dei valori. Il valore più frequente è quasi sempre prossimo a 0 mg/L. 51 Tab. 5-13: Statistiche descrittive delle concentrazioni dei nitrati per le stagioni autunnali Aut-90 Aut-91 Aut-92 Aut-93 Aut-94 Aut-95 Aut-96 32.2 32.2 32.8 35.3 35.0 35.4 39.2 Media 3.4 4.7 2.9 3.5 3.7 3.6 4.0 Errore std 31.9 28.9 28.5 33.3 27.0 25.1 29.0 Mediana 0.0 0.5 0.9 0.1 0.4 0.1 0.1 Moda 31.3 29.3 28.2 31.8 35.7 35.4 38.4 Dev. Std. 966.2 834.7 788.7 1000.5 1263.5 1242.3 1460.4 Var pop. 977.8 856.7 797.2 1013.0 1276.9 1255.3 1476.6 Var camp. 5.8 -0.2 1.9 3.3 1.9 1.5 1.5 Curtosi 1.8 0.8 1.2 1.4 1.4 1.2 1.3 Asimm. 182.9 99.7 145.1 171.1 168.6 155.3 164.8 Intervallo 0.0 0.0 0.2 0.1 0.1 0.0 0.1 Min 182.9 99.7 145.3 171.2 168.7 155.3 164.9 Max 84 39 93 81 95 97 91 N. dati Tab. 5-14: Statistiche descrittive delle concentrazioni dei nitrati per le stagioni primaverili Pri-90 Pri-91 Pri-92 Pri-93 Pri-94 Pri-95 Pri-96 30.2 37.6 28.4 31.8 35.2 36.7 38.8 Media 2.7 4.0 3.0 2.9 3.4 3.6 4.2 Errore std 29.3 33.3 22.6 27.5 30.5 31.0 29.1 Mediana 0.5 0.0 1.0 0.1 0.1 0.1 0.1 Moda 25.2 38.5 29.2 28.3 32.8 35.1 39.7 Dev. Std. 626.9 1467.5 842.7 792.5 1063.5 1221.7 1562.5 Var pop 634.3 634.3 634.3 634.3 634.3 634.3 634.3 Var camp 1.9 3.9 4.1 -0.3 1.7 1.3 1.8 Curtosi 1.0 1.6 1.6 0.8 1.2 1.2 1.3 Asimm. 131.8 206.3 164.8 101.1 155.6 147.9 175.6 Intervallo 0.0 0.0 0.3 0.1 0.1 0.1 0.1 Min 131.8 206.3 165.1 101.2 155.7 148.0 175.7 Max 86 92 93 95 92 97 90 N. dati 52 Un’idea più precisa della forma assunta dai dati si ha osservando gli istogrammi nelle figure 2-4.g.1 e 2-4.g.2. Si possono individuare gli istogrammi relativi oltre ai grafici delle cumulate. Quest’ultimo è di estremo interesse per il KD step 1: infatti, è proprio dalla cumulata che è possibile passare al corrispondente valore normale standard. Gli istogrammi sembrano tutti asimmetrici. Il test di Kolmogorov-Smirnov è lo strumento che permette di valutare statisticamente la normalità della forma delle concentrazioni dei nitrati. In tabella 5-15 è presentato il risultato del test per le 14 stagioni considerate. Tab. 5-15: Statistiche del test di K-S Statistica KS P. critico P. critico (0.05) (0.01) 0.127 0.098 0.114 Pri-90 0.152 0.097 0.112 Aut-90 0.156 0.096 0.112 Pri-91 0.176 0.146 0.169 Aut-91 0.191 0.092 0.107 Pri-92 0.138 0.092 0.107 Aut-92 0.160 0.091 0.106 Pri-93 0.143 0.098 0.115 Aut-93 0.168 0.092 0.107 Pri-94 0.167 0.091 0.106 Aut-94 0.182 0.090 0.105 Pri-95 0.189 0.090 0.105 Aut-95 0.168 0.093 0.109 Pri-96 0.177 0.093 0.108 Aut-96 H0: La distribuzione osservata è di tipo normale Stagione Risultato test H0 rigettata H0 rigettata H0 rigettata H0 rigettata H0 rigettata H0 rigettata H0 rigettata H0 rigettata H0 rigettata H0 rigettata H0 rigettata H0 rigettata H0 rigettata H0 rigettata In tutti i casi, e per le significatività considerate (α=0.05 e α=0.01), non si ha l’evidenza statistica ad accettare l’ipotesi di normalità per i dati. I risultati della variografia sono presentati nelle figure 2-5.g.1 e 2-5.g.2. I punti sperimentali mostrano sempre un andamento crescente che si assesta intorno alla varianza campionaria. Il modello individuato per tutte le 14 stagioni è stato quello esponenziale. 53 Il nugget, per tutte le stagioni, è sempre al di sotto del 50% della variabilità totale. Nella tabella 5-16 è presentata la percentuale di variabilità totale spiegata dal nugget (PERC). Si tenga presente che al nugget si associa una quota parte di variabilità, di incertezza, che sarà scaricata sulla varianza di stima: maggiore è PERC nella tabella 5-16, maggiore sarà la varianza di stima nei punti. Tab. 5-16: Percentuale di variabilità totale spiegata dal nugget Stagione Percentuale 24 Pri-90 17 Aut-90 31 Pri-91 24 Aut-91 19 Pri-92 16 Aut-92 38 Pri-93 50 Aut-93 19 Pri-94 20 Aut-94 23 Pri-95 23 Aut-95 23 Pri-96 16 Aut-96 Un modo per misurare la bontà della scelta dei variogrammi è la crossvalidation. La questione della verifica di un modello di variogramma è sempre molto dibattuta. Nel caso in esame, ad esempio, la statistica unbiased (cfr. par 3.3) è influenzata dalla tecnica di kriging utilizzata per la cross-validation. Si dovrebbe, quindi, utilizzare il KD affinché si possa avere, tra l’altro, una indicazione significativa anche della statistica Q (cfr. par. 3.3), in termini di KDEV. 54 Ma l’applicazione del KD è successiva alla identificazione di alcuni parametri di trasformazione Hermitiana (step1). Questa fase è articolata e richiede, essa stessa, decisioni soggette ad incertezza. Il rischio di cross-validare tramite KD il modello di variogramma è quello di perdere di vista tale validazione durante lo step 1. Sapendo, quindi, che la KEV è maggiore della KDEV e, come tale, influenza in modo peggiorativo la statistica Q, può essere eseguita, comunque, la cross-validazione tramite il KO, in quanto il risultato ottenuto sarà, sicuramente, peggiore di quello ottenibile tramite il KD. Pertanto, se i variogrammi sono validati con il KO, lo saranno ancor più con il KD. Viceversa, se questi non dovessero essere validati con il KO, allora bisognerà affidarsi ad un criterio che solo a posteriori, e sulla base delle eventuali incongruenze mostrate dai risultati, metta in discussione le decisioni (che non sono solo quelle relative al modello di variogramma). La tabella 5-17 riporta i valori della media e della deviazione standard della distribuzione standardizzata delle differenze tra i valori misurati e quelli stimati con il KO. Tab. 5-17: Risultati della cross-validazione con il KO dei variogrammi usati nello studio. Periodo Media Deviazione std. 0.059 1.020 Pri-90 0.049 1.153 Aut-90 0.029 0.923 Pri-91 0.046 1.012 Aut-91 0.053 1.074 Pri-92 0.051 1.031 Aut-92 0.044 1.065 Pri-93 0.055 1.035 Aut-93 0.021 0.769 Pri-94 0.061 1.053 Aut-94 0.057 0.988 Pri-95 0.038 1.046 Aut-95 0.041 1.044 Pri-96 0.045 0.886 Aut-96 55 Nelle tabelle 5-18 e 5-19 sono presentati i risultati del KD, step 1. Si tratta di trovare la giusta combinazione fra numero delle ascisse di Abramowitz-Stegun (10 o 5), ordine del polinomio relativo alla trasformazione z=φ*(yi) e, infine, numero dei coefficienti dell’espansione di Hermite che siano in grado di avvicinare il più possibile la media e la varianza dell’approssimazione di Hermite alla media e alla varianza dei dati. Tab. 5-18: Confronti fra statistiche dei dati e quelle relative alla approssimazione di Hermite Periodo media media var var diff. diff. diff. dati H dati H Medie Var Var (%) 30.2 29.8 626.9 633.6 0.3 -6.7 -1 Pri-90 37.6 37.2 1467.5 1443.2 0.4 24.3 2 Aut-90 28.4 28.4 842.7 828.6 0.1 14.1 2 Pri-91 31.8 31.9 792.5 778.1 -0.1 14.5 2 Aut-91 35.2 37.0 1063.5 946.8 -1.8 116.7 11 Pri-92 36.7 37.4 1221.7 1169.4 -0.7 52.3 4 Aut-92 38.8 37.2 1562.5 1658.3 1.6 -95.9 -6 Pri-93 32.2 31.7 966.2 942.7 0.5 23.5 2 Aut-93 32.2 32.0 834.7 828.9 0.2 5.9 1 Pri-94 32.8 32.8 788.7 784.6 0.0 4.1 1 Aut-94 35.3 34.9 1000.5 919.0 0.4 81.5 8 Pri-95 35.0 34.8 1263.5 1250.4 0.2 13.1 1 Aut-95 35.4 35.8 1242.3 1229.0 -0.4 13.3 1 Pri-96 39.2 37.7 1460.4 1543.5 1.5 -83.1 -6 Aut-96 56 L’approssimazione di Hermite peggiore è nella primavera 1994, con una sottostima dell’11% fra varianza di Hermite e quella dei dati. Solo in tre casi (primavera 1990 e 1996, autunno 1996) l’approssimazione ha sovrastimato la varianza dei dati, al massimo per un 6%. Rispetto alle medie (primo coefficiente di Hermite che si può ritrovare anche nella tabella 5-19) le variazioni sono minime. La sottostima di Hermite è avvenute in 10 stagioni su 14 e per piccole entità (da un minimo di 0.1 mg/L ad un massimo di 1.6 mg/L). Negli altri quattro casi, Hermite ha sovrastimato per un massimo di 1.8 mg/L. La tabella 5-19 presenta i valori dei coefficienti di Hermite. Si può notare che all’aumentare dell’ordine del polinomio di Hermite il contributo dei coefficienti diventa sempre più trascurabile e vicino a zero. In effetti, quindi, agendo sull’ordine dell’approssimazione, a parità di altre condizioni, si raggiunge un valore approssimato della varianza dei dati che è difficilmente migliorabile. k\stagione 0 1 2 3 4 5 6 7 8 9 k\stagione 0 1 2 3 4 5 6 7 8 9 Tab. 5-19: Coefficienti dell’approssimazione di Hermite Pri-90 pri-91 pri-92 pri-93 pri-94 pri-95 29.843 37.206 28.362 31.915 36.982 37.370 24.468 35.882 26.692 26.400 26.924 30.996 3.826 8.508 7.327 5.216 9.650 9.541 -0.161 -0.201 -0.200 -1.841 -1.873 -1.619 0.004 -0.588 -0.214 -0.464 -0.581 -0.322 0.007 -0.129 0.057 0.087 0.088 0.025 -0.049 -0.014 -0.032 0.002 -0.051 -0.066 -0.014 0.006 -0.022 -0.005 -0.005 0.002 0.006 0.003 0.001 0.009 0.011 0.001 0.003 -0.0001 -0.0002 0.0001 Aut-90 aut-91 31.685 32.041 29.317 27.600 5.983 4.348 0.192 -1.657 -0.202 -0.675 -0.153 0.047 -0.067 0.043 -0.001 0.003 0.009 0.0008 0.001 -0.0004 aut-92 32.754 26.714 5.759 -0.414 -0.123 0.009 -0.039 -0.008 0.005 0.001 57 aut-93 34.915 28.808 4.373 -2.403 -0.607 0.179 0.056 -0.010 -0.003 aut-94 34.769 33.340 7.919 -0.493 -0.590 -0.056 -0.024 -0.009 0.006 0.001 aut-95 35.785 32.531 8.734 -0.889 -0.532 0.047 -0.035 -0.021 0.005 0.002 pri-96 37.230 39.262 6.175 -0.976 -0.875 -0.190 0.072 0.025 -0.006 -0.003 aut-96 37.712 37.996 5.675 -1.092 -0.805 -0.157 0.065 0.021 -0.006 -0.002 Infatti, dalla formula (5-45), si evince che il numero di coefficienti presenti in tabella 5-19 condiziona l’approssimazione della varianza dei dati. Al fine di avvicinarsi a tale varianza è possibile variare gli altri parametri. Nella tabella 5-20 sono presentati, per le stagioni considerate, il numero di ascisse, l’ordine del polinomio di best fit per φ, e il numero dei coefficienti di Hermite i cui valori sono in tabella 5-19. Tab. 5-20: Numero delle ascisse di Abramowitz-Stegun (10 o 5), numero dei coefficienti dell’espansione di Hermite, ordine del polinomio relativo alla trasformazione z=φ*( yi). Periodo n. ascisse n. coeff. H Ordine polinomio 10 10 10 Pri-90 10 8 6 Aut-90 10 10 10 Pri-91 5 10 5 Aut-91 5 10 5 Pri-92 10 10 10 Aut-92 5 10 4 Pri-93 5 10 6 Aut-93 10 10 9 Pri-94 10 10 10 Aut-94 10 9 3 Pri-95 5 10 10 Aut-95 5 10 10 Pri-96 5 10 4 Aut-96 Questi risultati possono essere ritenuti, complessivamente, soddisfacenti pertanto si può passare all’applicazione della tecnica del KD e alla costruzione delle mappe. Il KD è stato applicato sulle due soglie di 10 mg/L e 50 mg/L. Per ogni run, quindi, sono state tracciate tre mappe che rappresentano: la stima, la probabilità di superare 10 mg/L e quella di superare 50 mg/L. Nelle figure 5-3 e 5-4 (in allegato) sono raffigurate le ventotto mappe delle probabilità di superamento con i relativi dettagli topografici. La stima del KD riproduce il valore campionato nei pozzi e in essi è presente la minima KDEV. Dalle mappe di probabilità si hanno indicazioni sul rischio esistente nella zona. 58 Dall'analisi delle mappe delle stime emerge che la zona a sud della città Modena, dove la falda non è confinata, è interessata da un progressivo allargamento delle aree ad alta concentrazione di nitrato. Al contrario, nella parte a nord di Modena, dove la falda è confinata, si nota una ciclicità stagionale delle dimensioni delle aree caratterizzate da concentrazioni molto basse. In particolare, nella stagione autunnale queste aree si riducono, mentre in primavera si estendono. Il deterioramento della qualità, nella parte freatica della falda, può essere causato da una progressiva pressione antropica (agricoltura ed allevamento). L’impostazione del KD non prevede l’ipotesi di normalità sui dati ma sulla trasformazione. Prendendo, a titolo di esempio, la stagione autunno 1990, adottando l’ipotesi di normalità sui dati, e interpretando la stima del KO e la KEV come media e varianza di una distribuzione normale, si può calcolare la probabilità normale di superare la soglia di 10 mg/L e confrontarla con quella ottenuta dal KD. In tabella 5-21 si descrivono statisticamente i risultati. Tab. 5-21: Confronti fra le probabilità di superamento delle soglie 10 mg/L e 50 mg/L determinate con il KO nell’ipotesi di normalità dei dati ed il KD. Prob10-KD Prob50-KD Prob10-Normale Prob-50 Normale 0.364000 0.000000 0.416000 0.018 Min 1.000000 0.874000 1.000000 0.992 Max 0.723835 0.197853 0.740713 0.258193 Media Considerando le probabilità, punto per punto, e confrontandole fra loro si ottiene che nell’83.31% dei casi la probabilità di superare la soglia 10 mg/L, calcolata con il KD, è inferiore a quella normale. Nel caso 50 mg/L, tale percentuale sale al 99.68%. L’istogramma per i dati della stagione autunno 1990 è asimmetrico a sinistra, con moda 0 mg/L e media 32.2 mg/L. Il KD ripropone questa forma in ciascuna posizione: è questo il motivo per cui le probabilità del KD sono, nella quasi totalità dei casi, più basse di quelle normali. Per comodità di rappresentazione, nelle mappe delle figure 5-3 e 5-4 (in allegato) sono state tracciate quattro curve di iso-probabilità di superamento delle concentrazioni soglia. Le probabilità di superamento della concentrazione di 10 mg/L sono, generalmente, molto alte. Nella primavera del 1990, la zona a probabilità inferiore al 50% è abbastanza estesa ed è posizionata a nord di Modena; analogamente è molto ampia la zona la cui probabilità è superiore al 75% e 59 comprende, praticamente, tutta l’area in cui la falda idrica sotterranea è freatica. La mappa rappresentativa dell’autunno del 1990 mostra che, mentre la zona con probabilità inferiore al 50% si frantuma e si rimpicciolisce, quella superiore al 75% rimane abbastanza grande e costante; è opportuno evidenziare che esistono zone periferiche dove non è possibile definire la distribuzione di probabilità di superare 10 mg/L, in quanto le informazioni non sono sufficienti. La distribuzione della probabilità relativa alla primavera del 1991 sembra simile a quella della primavera del 1990 con un decremento della zona con probabilità inferiore al 50%. La mappa della probabilità dell’autunno del 1991 ha un’area centrale a bassa probabilità che si incunea verso sud facendo diminuire la zona a probabilità intermedia (50%<p<75%). Nella primavera del 1992, per la prima volta, è presente una piccola area che ha una probabilità inferiore al 25%. La mappa successiva, autunno del 1992, è influenzata da quanto accaduto precedentemente, ma evidenzia valori di probabilità maggiori. La primavera del 1993 ha una struttura simile a quella della primavera precedente, confermando una certa alternanza dei valori di probabilità. Questo comportamento si interrompe osservando la mappa delle probabilità dell’autunno del 1993, in cui si nota una struttura a macchie distribuite soprattutto nella parte valliva. Nella zona meridionale, invece, la estensione della zona a probabilità 100% è ampia. In questa stagione sono aumentate anche le zone dove non è possibile stimare la probabilità. Una certa tendenza al miglioramento si osserva nella mappa costruita per la primavera del 1994, dove esiste una vasta fascia, posizionata a cavallo della città di Modena, che si estende da est verso ovest, avente probabilità di superamento della soglia inferiore a 25%. L’area con probabilità superiore a 75% rimane ampia e localizzata a sud. La tendenza evidenziata prima della stagione autunnale dell’anno 1993, si ripresenta nella mappa di probabilità di superamento della soglia di concentrazione dei nitrati di 10 mg/L; in particolare in questa carta scompaiono le zone a probabilità inferiore a 25%, che ricompaiono sia pur slegate tra di loro nella mappa della primavera del 1995 e scompaiono nella carta costruita utilizzando i dati campionati nell’autunno del 1995, nella primavera del 1996 e nell’autunno del 1996. Le ultime quattro stagioni mostrano in successione un notevole incremento della probabilità di superamento della soglia di 10 mg/L, come concentrazione di nitrato in soluzione, che si concretizza nella assenza di aree sottese dalla 60 curva di probabilità 25% e successivamente nella riduzione dell’area a probabilità compresa tra 25% e 50% fino a farla quasi scomparire del tutto. Con la stessa procedura si analizzano le mappe di probabilità di superamento dei valori di concentrazione dei nitrati pari a 50 mg/L. E’ opportuno evidenziare che in generale queste hanno una configurazione simile a quelle già viste precedentemente con valori bassi delle probabilità. Le mappe delle primavere e degli autunni del 1990 e del 1991 mostrano una generale tendenza all’aumento della probabilità: Sassuolo e Spilamberto rappresentano le aree più critiche. La mappa dell’autunno del 1991, in particolare, ha due zone rilevanti con valore di probabilità di superamento della soglia superiore a 75%. Questa zona si posiziona a sud della città di Modena in corrispondenza dell’abitato di Castelnuovo Rangone. Nella stagione successiva, primavera del 1992, scompare la criticità di questa zona e ne compare un’altra in corrispondenza di Spilamberto. Le mappe relative all’autunno del 1992 e alla primavera del 1993 non hanno significative porzioni di superficie aventi probabilità superiori al 75%. Dall’autunno del 1993 si osserva un lento ma graduale incremento della probabilità di superamento della concentrazione del nitrato in soluzione pari a 50 mg/L. Ovviamente le zone che risentono di questo incremento sono quelle posizionate nella parte meridionale della mappa di riferimento, avendo come punti più sensibili, quelli raccolti in una fascia parallela all’appennino e localizzata lungo una virtuale linea congiungente gli abitati di Sassuolo e Spilamberto. Sulla base dei risultati fino ad ora descritti sono state individuate due procedure che descrivono il rischio in funzione delle esigenze del decisore e, allo stesso tempo, rappresentano uno strumento tecnico sintetico e di facile comprensione: (a) determinazione dei valori massimo, minimo e medio delle probabilità di superamento della soglia assegnata tra i diversi valori calcolati per ogni stagione ed in ogni nodo della griglia di stima. La rappresentazione, in forma di mappe, di queste tre determinazioni può essere di ausilio nell’affrontare problematiche di diverso tipo; (b) definizione di classi di rischio caratterizzate, oltre che dall'alta o bassa probabilità di superamento delle soglie, anche dal loro trend temporale; La procedura (a) ha il vantaggio di sintetizzare tutte le informazioni di carattere spazio-temporale in alcune mappe ma ha lo svantaggio di non considerare l’evoluzione temporale della probabilità considerata bensì valori rappresentativi, rispettivamente del rischio massimo, medio e minimo 61 associabile ad un nodo della griglia per il periodo considerato. Naturalmente, questo tipo di approccio può essere valido solo in alcuni casi particolari; quando, cioè è necessario fare delle valutazioni, in genere, di carattere qualitativo e su aree molto poco estese. Comunque, le mappe ottenibili in questo modo devono essere supportate anche da altre informazioni, come, ad esempio, la persistenza di valori alti del rischio nel periodo considerato. Il decisore, utilizzando questa procedura, può fissare un livello di accettabilità del rischio, in termini di probabilità media o massima di superamento della soglia nella zona considerata e nel periodo considerato, in funzione del valore della risorsa idrica in termini di destinazione d’uso e avviare interventi solo laddove il rischio è ritenuto elevato e persistente. Ad esempio, se la falda è destinata all’uso potabile, il gestore della risorsa può scegliere le mappe che sintetizzano i valori massimi di probabilità di superamento della soglia fissata dalle normative vigenti. In altri casi di destinazione d’uso (agricolo o industriale), il decisore può scegliere di basare le sue valutazioni su vincoli meno restrittivi (probabilità medie e minime). Le figure 5-5 e 5-6 mostrano le mappe dei valori massimi, medi e minimi relativi al set di valori del rischio determinati nell’area in studio nelle quattordici stagioni analizzate. Si osserva che la mappa dei massimi, relativa alla soglia di 10 mg/L, ha riporta valori del rischio spesso superiori al 75% e compresi tra il 95% ed il 100% in buona parte dell’area considerata. Analogamente, osservando la mappa dei valori massimi di rischio di superamento della soglia di 50 mg/L, si verificare che questo è molto più modesto, superando il 50% solo in parti limitate dell’area. La mappa dei valori medi del rischio di superamento delle soglie di 10 mg/L mostra che esiste un alto livello di rischio (>75%) in circa la metà dell’area considerata, Livelli di rischio inferiori al 50% sono localizzati in corrispondenza dell’abitato di Modena, dove la falda non è sfruttabile in modo intensivo proprio a causa dell’elevata urbanizzazione della zona. La seconda mappa, relativa alla soglia di 50 mg/L, evidenzia un livello modesto di rischio di inquinamento (>35%) delle acque sotterranee lungo una ampia fascia pedemontana disposta tra gli abitati di Sassuolo e Spilamberto. Nelle mappe dei valori minimi di probabilità ottenuti nel periodo di riferimento si osserva che la probabilità di superamento del valore di 50 mg/L è, praticamente, sempre inferiore al 35%. Al contrario, la mappa relativa alla sogli di 10 mg/L mostra ampie zone caratterizzate da valori di minimo rischio bassi; valori più alti (75%) sono presenti in aree limitate localizzate nei pressi delle località di Spilamberto e Castelnuovo Rangone, dove sono ubicati numerosi insediamenti agro industriali. 62 0.0 2.5 km 0.00 0.25 0.50 0.75 5.0 Fig. 5-5a: Mappa delle probabilità massime di superamento della soglia 10 mg/L nel periodo 1990-1996. APPENNINO T. ia ch Se c MODENA pi o ar .P an F F. do Ti e 63 0.0 2.5 km 0.00 0.25 0.50 0.75 5.0 Fig. 5-5b: Mappa delle probabilità medie di superamento della soglia 10 mg/L nel periodo 1990-1996. APPENNINO T. ia ch Se c MODENA pi o ar .P an F F. do Ti e 64 0.0 2.5 km 0.00 0.25 0.50 0.75 5.0 Fig. 5-5c: Mappa delle probabilità minime di superamento della soglia 10 mg/L nel periodo 1990-1996. APPENNINO T. ia ch Se c MODENA pi o ar .P an F F. do Ti e 65 0.0 2.5 km 0.00 0.25 0.50 0.75 5.0 Fig. 5-6a: Mappa delle probabilità massime di superamento della soglia 50 mg/L nel periodo 1990-1996. APPENNINO T. ia ch Se c MODENA pi o ar .P an F F. do Ti e 66 0.0 2.5 km 0.00 0.25 0.50 0.75 5.0 Fig. 5-6b: Mappa delle probabilità medie di superamento della soglia 50 mg/L nel periodo 1990-1996. APPENNINO T. ia ch Se c MODENA pi o ar .P an F F. do Ti e 67 0.0 2.5 km 0.00 0.25 0.50 0.75 5.0 Fig. 5-6b: Mappa delle probabilità medie di superamento della soglia 50 mg/L nel periodo 1990-1996. APPENNINO T. ia ch Se c MODENA pi o ar .P an F F. do Ti e 68 Come già accennato, questa metodologia fornisce indicazioni che permettono di operare valutazioni di carattere qualitativo, spesso richiede un supporto ulteriore di informazione ma, soprattutto, può essere utile per analisi di carattere locale piuttosto che globale. Può quindi essere necessario, per porzioni limitate dell’acquifero considerato, che costituiscono elementi strategici nell’ambito dell’approvvigionamento potabile o per le quali si possono creare situazioni di maggiore allarme dettagliare l’analisi con grafici e tabelle relativi al numero delle volte che il maggior rischio, o, magari, il minor rischio, determinato nel periodo considerato ha raggiunto valori elevati. Nella procedura (b) la valutazione del trend temporale dei valori del rischio in un generico nodo della griglia di stima è stata realizzata utilizzando un test non parametrico. I test non parametrici sono svincolati dalle assunzioni di normalità della pdf della popolazione da cui sono stati estratti i dati. Essi si basano sul concetto di rango (posizione) dei dati, rispetto ad un ordinamento crescente (o decrescente) dei valori. La scelta di un tipo di impostazione piuttosto che un’altra dipende dalla natura dei dati da elaborare tuttavia l’uso di una impostazione di tipo parametrico risulta sempre conveniente, in quanto questa ha proprietà teoriche preferibili rispetto ad un approccio di tipo non parametrico. Tuttavia, nel caso in esame, l’elaborazione di un insieme di probabilità (pi) con un riferimento temporale (ti) al fine di evidenziarne una tendenza (crescente o decrescente), suggerisce l’uso di un test non parametrico basato sul coefficiente (rS) di Spearman. Calcolo del coefficiente (rs) di Spearman (Sneyers, 1975). Le osservazioni (pi, i=1,2,…,n) riferite alla generica cella, per i periodi temporali di riferimento (14 stagioni), sono posti in ordine crescente e sostituiti dai rispettivi ranghi (yi, i=1,2,..,n). La statistica del test è il coefficiente di correlazione (rS) tra le due serie i e yi, cioè tra le posizioni i nella serie iniziale, e quelle yi nella serie ordinata: rs = 1 − 6 n( n 2 ∑ ( y − i) − 1) i 2 Sotto l’ipotesi nulla (H0: rS=0), la distribuzione di questa statistica è asintoticamente normale con E(rS) = 0 e var(rS) = 1/(n-1). E’ chiaro che l’assenza di tendenza deve essere confrontata con una ipotesi alternativa che 69 genera un test a due code, cioè si rigetta l’ipotesi nulla per valori elevati di |rS|. In questa situazione, dopo aver calcolato rS, conviene calcolare la probabilità α1, tale che α1 = P(|u| > |u(rS)|), in cui laddove u (rs ) = rs n − 1 e l’ipotesi nulla è accettata o rigettata al livello α0, a seconda che α1 > α0 o α1 < α0. In caso di valori significativi di |rS|, si può concludere sull’evidenza di una tendenza crescente o decrescente, a seconda che rS > 0 o rS < 0. In definitiva, l’insieme delle mappe del rischio, nei differenti istanti ti, fornisce il campione storico, spazialmente aggregato in forma di mappa, del rischio di degrado relativo all’inquinante considerato ed allo standard di qualità stabilito. Fissato un punto della mappa, si può ricavare la serie temporale da sottoporre ad un test delle ipotesi. Per un dato livello di significatività (α = 0.05), se l’ipotesi nulla H0 è rigettata in un generico punto, il test prova una tendenza temporale positiva o negativa del rischio di degrado. Al contrario, se H0 è accettata, il test non rileva alcuna tendenza temporale. Il test non parametrico di Spearman, applicato su tutte le serie storiche e per ogni punto della mappa produce una mappa indice che contiene valori 0, se H0 è accettata, oppure +1 (rispettivamente –1) se H0 è rigettata e si evidenzia una tendenza positiva (rispettivamente negativa). Le informazioni relative ai trend temporali di rischio sono state sintetizzate in due mappe relative, anche questa volta, alle due soglie individuate. Confrontando le due mappe (figure 5-7 e 5-8) si nota chiaramente che: − in gran parte dell’area il rischio non mostra evidenti trend temporali né crescenti, né decrescenti; questo significa che durante i sette anni di osservazione il rischio di impoverimento qualitativo della falda è rimasto alquanto costante; − la mappa relativa alla soglia di 10 mg/L presenta zone a trend negativo (livello di rischio in diminuzione) più ampie rispetto a quella relativa alla concentrazione massima ammissibile; questo consente di affermare che pur rimanendo il rischio, laddove è costante, su valori elevati, la situazione è in leggero miglioramento, almeno nell’ambito delle fasce fluviali; − le zone a trend crescente sono piuttosto ridotte nella mappa relativa al valore guida, mentre sono estremamente più ampie nella mappa relativa alla soglia 50 mg/L. Da quanto descritto si può dedurre che il livello di rischio di impoverimento qualitativo della falda tende ad aumentare quando la soglia di concentrazione è alta mentre tende a rimanere costante, seppure su livelli alti, o a diminuire, in prossimità delle fasce fluviali, nel caso di soglie più modeste. In altre parole il rischio che la qualità dell’acqua, della falda considerata, possa peggiorare fino 70 a rendere la risorsa inutilizzabile per l’uso potabile sta aumentando. La parte dell’acquifero che sembra più soggetto a questo aumento è quella localizzata tra Spilamberto e Sassuolo. E’ interessante notare come, proprio questa zona sia classificata a vulnerabilità da medio-alta ad estremamente elevata in uno studio a cura di Giuliano ed altri (1995). Lo scopo finale di questa metodologia è, tuttavia, quello di definire il rischio di degrado qualitativo effettivo quale risultato della combinazione di un indice di tendenza (trend) con un indice di rischio attuale. La tabella 5-22, applicata in ciascun punto dell’area considerata, consente di assegnare un livello di rischio di degrado qualitativo effettivo. Tab. 5-22: Categorie di rischio di degrado qualitativo effettivo Indice di tendenza Indice di rischio di degrado qualitativo tendenza nessuna tendenza attuale positiva tendenza negativa bassa molto bassa molto bassa 0.0 – 0.2 media molto bassa molto bassa 0.2 – 0.4 alta media bassa 0.4 – 0.6 molto alta molto alta media 0.6 – 0.8 molto alta molto alta alta 0.8 – 1.0 La figura 5-9 (in allegato) mostra le mappe del rischio di degrado qualitativo effettivo riferito alle due soglie scelte. Confrontando queste due mappe emergono le seguenti considerazioni: la figura 5-9a mostra un’area molto vasta in cui il rischio di degrado qualitativo effettivo è stata classificato molto alto. Il rischio di degrado qualitativo effettivo, associato alla soglia di 10 mg/L è classificato da medio a basso nelle aree in prossimità dei fiumi, probabilmente a causa dell’effetto della ricarica di questi ultimi, e nella parte settentrionale dell’area considerata dove l’acquifero può essere considerato confinato. La figura 5-9b, riferita alla soglia di MCA, mostra che la maggior parte dell’area è classificata a rischio di degrado qualitativo molto basso e basso. Una zona in cui il rischio di degrado qualitativo effettivo è molto alto è localizzata tra le città di Spilamberto e Sassuolo nella parte meridionale dell’area dello studio dove le attività antropiche sono molto intense. Queste semplici considerazioni possono portare il gestore della risorsa a porre misure di salvaguardia opportune proprio in aree dove questi trend incrociano campi pozzi ad uso potabile. 71 0.0 DECRESCENTE 2.5 km -1.00 0.00 5.0 +1.00 Fig. 5-7: Mappa dei trend temporali delle probabilità di superamento della soglia 10 mg/L nel periodo 1990-1996. APPENNINO T. ia ch Se c MODENA pi 72 Ti e o ar .P an F F. do CRESCENTE 0.0 DECRESCENTE 2.5 km -1.00 0.00 5.0 +1.00 Fig. 5-8: Mappa dei trend temporali delle probabilità di superamento della soglia 50 mg/L nel periodo 1990-1996. APPENNINO T. ia ch Se c MODENA pi 73 Ti e o ar .P an F F. do CRESCENTE 5.4 – Conclusioni Nell'ambito dell’approccio geostatistico all’analisi di dati territoriali di inquinamento, è possibile determinare la probabilità di accadimento di un evento critico come, ad esempio, il superamento di soglie prefissate di concentrazione, ad un dato istante. Esistono diverse tecniche geostatistiche che permettono di realizzare questa valutazione che può essere considerata un vero e proprio risk assessment. Il kriging disgiuntivo è solo una delle possibili metodologie da utilizzare per fare valutazioni del rischio. Possibili alternative sono le simulazioni (parametriche e non parametriche) o l’indicator kriging. Per molte delle alternative citate, spesso non esistono pareri concordanti sulla loro validità o, più banalmente, non sono stati ancora implementati strumenti informatici in grado di supportare elaborazioni complesse come quelle richieste. Obiettivo di questo studio è quello di proporre un quadro metodologico e sperimentare una tecnica per la valutazione del rischio di degrado qualitativo, per la falda idrica sotterranea, basato sulle concentrazioni del nitrato e sui corrispondenti valori soglia fissata dalla Legge italiana per l’uso potabile della risorsa. L’applicazione è stata realizzata usando software di pubblico dominio, in particolare Geopack (Yates e Yates, 1989) e codici sorgenti in FORTRAN (Yates et al. 1986b) e GSILB (Deutsch, Journel, 1992), creando le necessarie integrazioni con il software Surfer (Keckler, 1994) per la rappresentazione grafica. Non è stato, comunque, agevole integrare fra loro questi oggetti, alcuni dei quali risalenti all'epoca della programmazione procedurale. Le mappe ottenute forniscono un quadro di riferimento affidabile sulla probabilità di superamento di soglie di concentrazione utili per classificare il livello di rischio di degrado qualitativo delle acque sotterranee e rappresentano un utile strumento per la pianificazione del territorio in funzione dell'uso della risorsa idrica. Le distribuzioni di probabilità delle concentrazioni dei nitrati si presentano in forma asimmetrica e con moda intorno allo zero. Il KD rispetta questa forma ed induce la consapevolezza di fornire una stima del rischio più congruente con la realtà. 74 BIBLIOGRAFIA AA.VV. (1996). Vulnerabilità naturale e rischio di inquinamento delle acque sotterranee nella Pianura Padana. Rapporti dell’Istituto di Ricerca Sulle Acque 145. A cura di G. Giuliano. Roma. Abramowitz M., Stegun A. (1965). Handbook of mathematical function. Dover, New York, 1965. Barancourt C., J.D. Creutin, J. Rivoirard (1992): A method for delineating and estimating rainfall fields. Water Resources Research, v. 28, n. 4 (1992) 11331144 Bardossy A., Bogardi I., Kelly W.E. (1988). Imprecise (fuzzy) information in geostatistics. Mathematical Geology, v.20, p. 287-311 Bardossy A., Bogardi I., Kelly W.E. (1990). Kriging with imprecise (fuzzy) variograms. I:Theory. Mathematical Geology, v.22, p. 63-79. Barelli G., Marino L. e Pagotto A. (1990). Caratterizzazione idraulica degli acquiferi. Studi sulla vulnerabilità degli acquiferi, vol.2. Quaderni di Tecniche di Protezione Ambientale - Protezione delle Acque Sotterranee. Pitagora Ed. 15-26. Burn D.H., D.B. Boorman (1993). Estimation of hydrological parameters al ungauged catchment. Journal of hydrology, 143, 429- 454 Cannarozzo M., F. D'Asaro, V. Ferro (1990). Analisi regionale dei massimi annuali delle piogge di breve durata per il territorio siciliano. Idrotecnica, vol. 6, pp. 251-266. Chu J., Journel A. (1994). Conditional fBm simulation with dual kriging, Geostatistics for the next century, Roussos Dimitrakopoulos editor, Kluwer Academic Publishers, 1994, 407-421 Colombetti A., Gelmini R. e Zavatti A. (1980). La conoide del fiume Secchia: modalità di alimentazione e rapporti col fiume (Province di Modena e Reggio Emilia). Quaderni dell’Istituto di Ricerca Sulle Acque 51 (1). 75 D'Agostino V. (1996). Utilità dell'analisi strutturale nella regionalizzazione delle piogge intense. Un caso di studio. A I I e A I I A. Scritti dedicati a G. Tournon. Novara 6-7 giugno 1996, p. 125-134. D’Agostino, V., Passarella, G., Vurro, M. (1997). Assessment of the Optimal Sampling Arrangement Based on Cokriging Estimation Variance Reduction Approach. Proc. of the XXVII IAHR Congress, San Francisco, 10-15 agosto 1997, 246-252. Delfiner P. (1973). Analyse objective du gèopotentiel et du vent gèostrophique par krigeage universel, Notes Internes de l’ètablissement d’ètudes et de recherches mètèorologiques, avril 1973, Paris. Deutsch C.V., Journel A.G. (1992). GSLIB Geostatistical Software Library and User's Guide. Oxford Univ. Press, New York. DPR n.236/88 (1988). Attuazione della Direttiva CEE n.80/778 Concernente la qualità della acque destinate al consumo umano, ai sensi dell'art.15 della Legge 16 Aprile 1987. G.U. n. 183 suppl. del 30 giugno, Roma. Englund E., A. Sparks. GEOEAS User's Guide, edito dall'Environmental Monitoring Systems Laboratory U.S. EPA LAS VEGAS, NEVADA 89193 3478, 1989. EXCEL ’97 (1997). Microsoft Office, Manuale d’uso. Feller W (1968). An introduction to probability theory and its applications. Vol. 1, 3 ed., J. Wiley, New York. Fisher R.A., L.H.C. Tippet. (1928). Limiting forms of the frequency distribution of the largest or smallest member of a sample. Proc. Phil. Soc. 24, 180-190. Franchini M., G. Galeati (1994). La regionalizzazione delle piogge intense mediante il modello TCEV. Un'applicazione alla regione Romagna Marche. Idrotecnica, vol. 5, pp. 237-253. 76 Freulon X. (1994). Conditional simulation of a Gaussian Random Vector with Non linear and/or Noisy observations. Geostatistical Simulation, M. Armstrong e P.A. Dowd Editors, Quantitative geology and geostatistics, Kluwer Academic Publishers, 56-71, 1994 Gelmini R., Paltrinieri N. e Pellegrini M. (1990a). Il quadro geologico di riferimento. Studi sulla Vulnerabilità degli Acquiferi, Vol.2. Quaderni di Tecniche di Protezione Ambientale - Protezione delle Acque Sotterranee. Pitagora Ed. Bologna, 2-4. Gelmini R., Paltrinieri N. e Pellegrini M. (1990b). Vulnerabilità all’inquinamento delle acque sotterranee. Studi sulla Vulnerabilità degli Acquiferi, Vol.2. Quaderni di Tecniche di Protezione Ambientale - Protezione delle Acque Sotterranee. Pitagora Ed. Bologna, 73-80. Giuliano G., Pellegrini M. e Zavatti A. (1995). Esempi di carte di vulnerabilità a scala regionale: la Pianura Padana, le province di Parma, Reggio Emilia e Modena. Studi sulla Vulnerabilità degli Acquiferi, Vol.2. Quaderni di Tecniche di Protezione Ambientale - Protezione delle Acque Sotterranee. Pitagora Ed. Bologna, carta allegata. Gòmez-Hernàandez J.J., Cassiraga E.F. (1994). Theory and practice of sequential simulation, Geostatistical Simulation. M. Armstrong e P.A. Dowd Editors, Quantitative geology and geostatistics, Kluwer Academic Publishers, 111-124, 1994 Goovaerts P. (1994a). Comparative performance of Indicator Algorithms for Modelling conditional probability distribution functions, Mathematical Geology, v. 26, 3, 389-411 Goovaerts P. (1994b). Comparison of CoIK, IK, mIK performances for modelling conditional probabilities of categorical variables. Geostatistics for the next century, Roussos Dimitrakopoulos editor, Kluwer Academic Publishers, 1994, 18-29 Gumbel E.J. (1958). Statistics of extremes. Columbia Univ. P., N. York. Gutjahr A., (1985). Spatial variability: geostatistical methods. Proceedings of a Workshop of the ISSS and SSSA, Las Vegas, p. 9-34 77 Hegstad B.K, Omre H., Tjelmeland H., Tyler K (1994): Stochastic Simulation and conditioning by annealing in reservoir description, Geostatistical Simulation, M. Armstrong e P.A. Dowd Editors, Quantitative geology and geostatistics, Kluwer Academic Publishers, 43-56, 1994 Hosking J.R.M. e Wallis J.R. (1993). Some statistics useful in regional frequency analysis. Water Resources Research, vol. 29, n. 2, pp. 271-281. Isaaks E.H. e Srivastava R.M. (1989). An Introduction to Applied Geostatistics. Oxford University Press, New York, USA. Idroser (1978). Progetto di piano per la salvaguardia e l’utilizzo ottimale delle risorse idriche in Emilia Romagna. Vol. VII, sez.1a. Convenzione Reg. Emilia Romagna - ENI. Jenkinson A.F. (1969). Statistics of extremes. Tech. Note 98. Estimation of maximum floods. WMO. Geneva. 183-228. Journel A.G. (1974). Simulations conditionelles des gisements miniers Théorie et Pratique. Thése présentée à l'Université de Nancy-1, 1974 Journel A.G., Huijbrechts C. (1978) Mining Geostatistics. Academic Press, London. Keckler D. (1994). Surfer for Windows, User's guide, Golden Software Inc, Golden CO, 1.1-23.4. Kendall M.G., Stuart A., (1966). The advanced theory of statistics. Hafner New York. Kitadinis, P.K. (1986). Parameter Uncertainty in Estimation of Spatial Functions: Bayesian Analysis. Water Resources Res., 22, 499-507. Krajewski S.A. e Gibbs B.L. (1993). A variography primer, Gibbs Associates, Boulder CO, 1-90, 23ff. Matheron G. (1970). The theory of regionalised variables and its applications. Les Cahiers du Centre de Morphol. Mathemat. de Fointainebleau, N. 5, 211 p. Ecole des Mines de Paris. 78 Matheron G. (1973). The intrinsic random function and their applications. Advanced Applied Probability, 5. Matheron G. (1976). A simple substitute for conditional expectation: the disjunctive kriging. Proceedings NATO ASI. ‘Geostat 75’, D. Reidel, Hingham, Mass. Myers D.E. (1982) Matrix formulation of cokriging. Mathematical Geology. vol. 14, n. 3, pp. 249-257 Nathan R.J. e McMahon T.H. (1990). Identification of Homogeneous Regions For The purpose of regionalisation. Journal of Hydrology, n. 121, pp. 217238. Paltrinieri N. e Pellegrini M. (1990). Comportamento idrodinamico dell’acquifero. Studi sulla Vulnerabilità degli Acquiferi, Vol.2. Quaderni di Tecniche di Protezione Ambientale - Protezione delle Acque Sotterranee. Pitagora Ed. Bologna, 9-14. Puente C.E. (1994). A fractal-multifractal approach to geostatistics, Geostatistics for the next century. Roussos Dimitrakopoulos editor, Kluwer Academic Publishers, 1994, 476-487. Rao A.R., Hsieh C. H. (1991). Estimation of variables at ungaged locations by empirical orthogonal functions, Journal of hydrology, 123 (1991) 51-67. Rao P.V., Rao P.S.C., Davidson J.M., Hammond L.C. (1979). Use of goodness-of-fit tests for characterizing the spatial variability of soil properties. Soil Sci. Soc. Am., 43. Rivoirard J.(1994). Introduction to disjunctive kriging and non-linear geostatistics. Clarendon Press Oxford, 1994, 180 p. Rossi F., Fiorentino M., Versace P. (1984). Two component extreme values distribution for flood frequency analysis. Water Resources Research, vol. 20, pp. 755-781. Shepard D., (1968). A two dimensional interpolation function for irregularly spaced data. Proc. 23 Nat. Conference ACM, p. 517-523. 79 Sneyers R., (1975). Sur l’analyse statistique des sèries d’observations, Organisation Météorologique Mondiale, Note technique n. 143, p. 192. Sokal R., R. Rohlf (1981). Statistical tables. W.H. Freeman, New York. Stevens R., J. Van Isacker. (1975). Maximum likelihood estimates for parameters of the mth extreme value distributions. Fourth Conf. On Prob. And Stat. In Atm. Science, 194-196. Varnes D.J. (1984). Commision on Landslides and other mass-movementsIAEG. Landslide hazard zonation: a review of priciples and practices. The Unesco Press, Paris. Verly G.W. (1984). Estimation of spatial point and block distributions: the multigaussian model. Dissertation submitted to the Dept. Of Applied earth Sciences. 1984, p. 416 Vicari L. e Zavatti A. (1990). Idrochimica. Studi sulla Vulnerabilità degli Acquiferi, Vol.2. Quaderni di Tecniche di Protezione Ambientale - Protezione delle Acque Sotterranee. Pitagora Ed. Bologna, 27-72. Visentini M. (1935). Ricerche sulle acque sotterranee nell’alta Pianura Modenese fra Secchia e Panaro. Min. LL.PP. Serv. Idrograf. del Po. Roma. Volpi G., Gambolati G. (1978). On the use of main trend for the kriging technique in hydrology. Advanced Resources Research, 1, 354-349 Watson G.S. (1971). Trend surface analysis. Mathematical Geology, v.3, n.3, p. 215-226 Yates S.R., Warrick A.W., Myers D.E. (1986a). Disjunctive Kriging. 1. Overview of Estimation and Conditional Probability. Water Resources Research, 22(5), 615-621 Yates S.R., Warrick A.W., Myers D.E. (1986b). A Disjunctive kriging program for two dimensions. Computers & Geosciences, Vol. 12, n. 3, 281313 80 Yates S.R, Yates M.V. (1989). Geostatistics for waste management: a user’s manual for the GEOPACK (version 1.0). Internal report. Dept. Of soil and environment Science, University of California. Riverside. p. 55 Zanframundo P., V. D'Agostino, G. Amoruso (1994). Analisi temporale e caratterizzazione spaziale delle piogge intense di diversa durata per le stazioni del Servizio Idrografico di Bari. Atti Convegno Internazionale Atmospheric Physics and Dynamics in the Analysis and Prognosis of Precipitation Fields, Roma, 15-18 Nov. 1994, p. 189-192 81