5 - VALUTAZIONE DEL RISCHIO DI INQUINAMENTO DELLE

5 - VALUTAZIONE DEL RISCHIO DI INQUINAMENTO DELLE
ACQUE SOTTERRANEE MEDIANTE L’USO DEL KRIGING
DISGIUNTIVO*
Passarella G., Vurro M., Caputo M.C., IRSA-CNR, Bari
D’AgostinoV., Tecnopolis – CSATA, Bari
Giuliano G, IRSA-CNR, Roma
RIASSUNTO
Il rischio R a cui è soggetto un sistema naturale rappresenta la quantificazione
della perdita o del danno attesi, in conseguenza del verificarsi di un particolare
fenomeno, naturale o indotto dall’uomo.
La vulnerabilità di un sistema e la pericolosità dell’evento verificatosi sono
due variabili indipendenti, ed essenziali, per la valutazione del rischio.
Nel caso di sistemi idrici sotterranei la vulnerabilità è determinata in base alla
elaborazione delle conoscenze relative alle caratteristiche fisiche
(idrogeologia) dei sistemi stessi e numerosi sono gli studi, nel campo delle
risorse idriche sotterranee, relativi alla valutazione della vulnerabilità degli
acquiferi ed alla relativa rappresentazione cartografica in classi.
La quantificazione della pericolosità di eventi naturali e/o indotti su un sistema
naturale, può, al contrario, rappresentare un impegno arduo, dipendendo,
questa valutazione da diversi fattori, non sempre facilmente schematizzabili.
Ne consegue che la determinazione di questo fondamentale parametro per la
valutazione del rischio può, in certi casi, essere difficile e addirittura
impossibile.
La possibilità di quantificare il rischio, in termini probabilistici, in modo più
diretto, consentirebbe di evitare la determinazione delle sue componenti.
Obiettivo di questo studio è, quindi, la proposizione di una metodologia per
valutare il rischio, nell’ambito della problematica della gestione delle acque
sotterranee. L’evento potenzialmente dannoso, in questo caso, è lo
spandimento agricolo di sostanze fertilizzanti sul terreno, il sistema
vulnerabile è, ovviamente, la falda idrica sotterranea mentre il rischio che si
vuole valutare è quello del superamento di soglie assegnate di concentrazione
di certi inquinanti nella falda.
*
IRSA (2000): “Aspetti applicativi delle tecniche geostatistiche alle acque
sotterranee”, Quad. Ist. Ric. Acque, 114, Roma
1
SUMMARY
The risk R to whom a natural system is subject represents the quantification of
the expected damage produced by particular natural or anthropogenic event.
The vulnerability of a system and the hazard of the event are two independent
variables that are very important for the risk assessment.
Considering groundwater systems, the vulnerability is determined by
elaborating the information about the physical characteristics of the systems
(hydrogeology) and a large number of studies have been carried out for the
evaluation of the groundwater systems vulnerability and its cartographic
representation. On the contrary, the evaluation of the hazard related to natural
or anthropogenic events can be rather difficult. In fact the hazard is strictly
dependent on different factors not always easily valuable. It follows that the
evaluation of this important parameter for the risk assessment, is sometimes be
very difficult or impossible.
The possibility of assessing the risk, directly, in probabilistic terms, could
allow to avoid the evaluation of its components. This study aims to propose a
methodology for the risk assessment in the frame of groundwater system
management. The potentially harmful event considered is the fertilizers and
manure application on the ground surface, responsible of the occurrence of
nitrate concentrations in groundwater that is the vulnerable system; the risk
that has to be assessed is the possibility that a given nitrate concentration
threshold be exceeded.
2
5.1 - Introduzione
Il rischio è il prodotto tra la vulnerabilità di un sistema e la pericolosità
associata ad un evento dannoso. La vulnerabilità è definita come la capacità
che un sistema naturale ha di resistere ad un evento o di subirne danno; la
pericolosità, invece, è la probabilità che un dato evento accada.
Gli elementi che concorrono alla definizione della vulnerabilità sono la
sensibilità, la resilienza, la rinnovabilità ed i punti deboli.
Un sistema è più o meno sensibile ad un evento esterno in relazione alla
propria attitudine a subirne nocumento. La resilienza è quella caratteristica che
permette ad un sistema di ritornare in modo naturale, più o meno velocemente,
allo stato in cui si trovava prima di subire un danno. La rinnovabilità si
differenzia dalla resilienza in quanto misura la capacità di potere ripristinare
uno stato di fatto iniziale per via quasi esclusivamente artificiale. Infine, la
presenza di punti deboli in un sistema naturale può produrre effetti nocivi
incontrollati in ambiti anche molto vasti.
La pericolosità è definita come la probabilità che un determinato evento possa
verificarsi in una parte del sistema naturale considerato. Quando si studia la
pericolosità associata ad un evento si deve valutare l’estensione temporale e
spaziale degli eventi passati, determinare la gravità degli effetti da essi prodotti
e stimare la loro frequenza temporale.
È relativamente consolidato il modo di operare per pervenire a valutazioni
relative alla probabilità di accadimento di determinati eventi critici in aree per
le quali si dispone di campioni di dati, e si interpreta la variabile campionata
come aleatoria. In campo idrologico, si pensi alle valutazioni che riguardano le
probabilità di accadimento di eventi meteorologici estremi, ad esempio di
piogge caratterizzate da una certa durata e intensità, e la valutazione degli
effetti in una sezione di chiusura di un bacino. L’obiettivo è quello di
raggiungere un giusto compromesso fra costi di un sovradimensionamento di
un opera di contenimento ed il rischio ambientale o infrastrutturale derivante
da un sottodimensionamento. I dati da utilizzare, in questo caso, sono quelli
rappresentativi degli eventi estremi. Senza entrare nel dettaglio su quanti (un
evento critico o k eventi critici per anno) e quali dati debbano essere
selezionati, si può affermare che la soluzione del problema passa attraverso la
scelta del tipo di modello di distribuzione teorica o pdf (probability density
function) degli estremi climatici e la stima dei suoi parametri. Fra i modelli si
possono citare quelli di Gumbel (1958), di Fisher-Tippet (1928) del I, II e III
tipo, e quelli più recenti come il TCEV (Two Component Extreme Value)
(Rossi et al., 1984). I metodi di calcolo dei parametri delle pdf sono
3
consolidati. Alcuni di essi si rifanno agli schemi iterativi per gli stimatori ML
(Maximum Likelihhod) tra i quali quelli proposti da Jenkinson (1969) e
Stevens e Van Isaker (1975).
Analogamente, e in via del tutto generale, si potrebbe mutuare il precedente
approccio in ambito di gestione delle acque sotterranee. Nei pozzi di
monitoraggio in cui si effettuano i prelievi e le corrispondenti misure di
concentrazione sarebbe sempre possibile descrivere statisticamente i dati, e
passare dall’istogramma ad una pdf (normale o asimmetrica). Attraverso la pdf
sarebbe immediato stimare la probabilità associata ad intervalli aperti (o
chiusi) di valori per l’inquinante. La probabilità del verificarsi dell'evento,
riferita al luogo ove insiste una stazione di rilevamento, sarebbe risolta nel
momento in cui si ipotizzasse un modello di pdf per i dati (non solo i valori
massimi) e si stimassero i suoi parametri.
Nell’ambito delle acque sotterranee, il problema così posto è di scarso
interesse mentre assume rilevanza la valutazione della probabilità in un
generico punto dell’acquifero, anche non strumentato, quale premessa per
costruire le mappe di rischio.
Per fare ciò, in altri contesti (vedi ancora l’idrologia delle acque superficiali) si
utilizzano delle opportune tecniche, dette di regionalizzazione (Cannarozzo et
al., 1990, Nathan R.J. e McMahon T.H., 1990, Zanframundo et al., 1994,
D’Agostino 1996). Ipotizzando che in una data regione sia presente un insieme
di siti strumentati appartenenti alla stessa distribuzione di probabilità, l’analisi
regionale consente di assegnare un sito strumentato ad una regione, di
applicare alcuni test per verificare se le regioni siano significativamente
omogenee, e di scegliere la pdf da adattare ai dati assegnati a ciascuna regione.
Nelle analisi delle frequenze regionali si possono utilizzare le statistiche basate
sugli L-momenti (Hosking e Wallis, 1993) per:
− identificare siti singolari in una regione;
− valutare se una proposta regione sia omogenea;
− valutare se una distribuzione candidata fornisce un adeguato adattamento
ai dati.
Riassumendo, quindi, le tecniche di regionalizzazione permettono di:
− ampliare il campo di validità di una pdf da punti strumentati ad una
regione;
− migliorare la stima dei parametri della pdf in quanto tutti i dati delle
stazioni, che insistono su di una regione, sono raggruppati e considerati
come un unico campione;
− estrapolare i parametri idrologici da un sito, in cui sono stati raccolti i dati,
ad un altro nel quale i valori sono richiesti ma non sono disponibili. Tra
4
l’altro, Nathan e Mc Mahon (1990), Burn e Borman (1993) hanno
proposto le equazioni di regressione sulle aree omogenee mentre Rao e
Hsieh (1991) l’uso di EOF (Empirical Orthogonal Functions).
L’analisi regionale, così intesa, è utile per costruire mappe di rischio ai fini
della gestione delle acque sotterranee? L’indagine bibliografica orienterebbe
verso una risposta negativa, nel senso che non esistono lavori scientifici che
abbiano sperimentato l’utilizzabilità di siffatti metodi di regionalizzazione per
la costruzione di mappe di rischio. Ciò ha una giustificazione.
Le pdf costruite mediante il precedente approccio sono in stretto legame con
l’ampiezza delle regioni: maggiore è l’omogeneità e l’estensione dell’area
regionale maggiore è la significatività della pdf i cui parametri, in questo caso,
sarebbero stimati sulla base di un campione più numeroso.
Nella caratterizzazione territoriale del rischio avremmo una probabilità di
superamento di prefissate soglie che sarebbe associata a tutta la regione. Ma,
se queste fossero estese, la mappa di rischio fornirebbe una vista con un
dettaglio molto ampio. La rappresentazione grafica sarebbe del tipo valore (la
probabilità) associato ad un poligono chiuso (la regione). La rappresentazione
ad iso-livelli di probabilità, a questo punto, diventa un artificio grafico e può
avvenire solo attraverso l’interpolazione dei parametri della pdf (Franchini e
Galeati, 1994).
L’individuazione della metodologia non può prescindere dall’obiettivo che si
intende perseguire. Le analisi di caratterizzazione del rischio richiedono una
pdf in tutti i punti del territorio discretizzato, sia in quelli su cui insiste un
pozzo di monitoraggio, sia in quelli che ne sono sprovvisti.
L'attuale sviluppo tecnologico offre i margini per la sperimentazione di
soluzioni innovative che, fino a poco tempo fa, potevano sembrare
difficilmente ipotizzabili. Da un lato si può contare sulle tecnologie GIS
(Geographic Information System) che permettono di gestire i dati geometrici e
alfanumerici, provenienti in qualsiasi formato e scala, all'interno di un unico
modello continuo del territorio dove tutte le informazioni sono
immediatamente accessibili, omogenee e congruenti. D’altro canto, le
sperimentazioni di metodologie CPU bounded oggi sono praticabili con
minimi investimenti.
Sulla base di queste premesse, quello di cui si ha bisogno è un modello
probabilistico da legare ad un dominio n-dimensionale. Tale modello esiste e
prende il nome di funzione aleatoria (FA).
Gandin (Delfiner, 1973) e Matheron (1970) hanno inizialmente reso popolare
la teoria delle funzioni aleatorie, rispettivamente nella meteorologia e nel
controllo delle risorse naturali. Sotto l’assunzione che le variabili in esame
5
siano FA stazionarie o intrinseche, si possono utilizzare i metodi definiti come
optimal interpolation da Gandin, e kriging da Matheron, al fine di ottenere
valutazioni areali medie o mappature di una variabile.
L’allargamento delle applicazioni in altri ambiti e le specificità di alcuni
problemi hanno contribuito allo sviluppo di ulteriori tecniche, tali da
caratterizzare il kriging come un insieme di tecniche, ad affermare una
disciplina, nota come geostatistica, ed una scuola francese, il Centre de
Gèostatistique di Fointanebleau.
Nelle prossime sezioni si imposta il modello e si individua la metodologia che
si adotterà per il caso di studio.
6
5.2 - Valutazione spaziale del rischio in ambito geostatistico
La geostatistica privilegia una impostazione generale per il modello
rappresentativo della variabile in oggetto (Isaaks e Srivastava, 1989). Non si
forzano, quindi, i dati al modello. Con l’adozione del criterio dei minimi
quadrati, a cui si rifanno gli stessi modelli regressivi citati nella precedente
sezione, e con la scelta di una forma funzionale si trascura tutto ciò che
intrinsecamente è contenuto nei dati. La geostatistica mette a disposizione gli
strumenti per l'indagine, l'analisi e la modellizzazione delle variazioni spaziali
della variabile. Tale approccio trova giovamento, pertanto, dalle conoscenze a
priori sulla situazione fisica e territoriale del contesto di riferimento, o
quant'altro utilizzabile nella interpretazione dei fenomeni sottogiacenti.
Gli strumenti e i metodi geostatistici sono, ormai diffusamente, utilizzati per:
− quantificare le relazioni spaziali di una variabile nota solo in alcuni punti;
− ricostruire l’andamento spaziale una variabile, simulare le sue variazioni o
stimare le probabilità che i suoi valori superino determinate soglie in un
punto o nei nodi di un reticolo ordinato.
Il reticolo può essere rappresentato graficamente in 3D, in proiezione
prospettica o ortografica, oppure in forma di curve di iso-livello.
Gli elementi essenziali per la quantificazione delle relazioni spaziali, detta
analisi strutturale o variografia, sono:
− una conoscenza del fenomeno e del territorio in esame;
− una base di dati campionaria della variabile.
L’analisi geostatistica dei dati avviene attraverso due fasi:
1. esplorativa, mediante la quale si visualizza la distribuzione spaziale del
campione di misure per ottenere informazioni sulla minima distanza di
campionamento, sulla media e sulla varianza campionaria; sulla normalità
della distribuzione della popolazione;
2. strutturale, mediante la quale si individua la struttura, detta variogramma,
della variabile campionata. Il comportamento del variogramma deve
rispondere ad un requisito di continuità spaziale intesa come piccole
variazioni della grandezza considerata per piccole distanze di
campionamento. L'obiettivo dell'analisi strutturale è l'individuazione di tale
continuità, sulla base dei dati disponibili, e la determinazione del modello
che meglio la rappresenta. I modelli sono a tre parametri legati, in qualche
modo, alla varianza del campione (sill), alla massima distanza d'influenza
fra coppie di punti (range) e ad un fattore di scala (nugget).
Il variogramma non risolve il problema di conoscere i valori incogniti nei
punti non strumentati che possono anche essere disposti in modo regolare
7
(grid). Gridding è l'operazione di riempimento, con valori stimati o simulati, di
un reticolo che sia idealmente sovrapposto al territorio in esame. Il reticolo è
caratterizzato da nr punti equamente spaziati o aree orizzontalmente contigue e
da nc punti equamente spaziati o aree verticalmente contigue. Mediante le
tecniche di interpolazione stocastica del kriging è possibile stimare i valori del
reticolo e, mediante tecniche di simulazione è possibile ottenerne dei valori
simulati.
Le tecniche del Kriging sono contraddistinte dalle proprietà di non distorsione
e di minima varianza per lo stimatore Z*(x) della variabile casuale Z(x), nella
generica posizione x. Le proprietà si riferiscono, rispettivamente, a ciò che,
mediamente, ci si aspetta che accada alle differenze fra Z*(x) e Z(x) e alla loro
varianza nei punti non strumentati. Le attese sono quelle di non produrre
sottostime e neanche sovrastime, così come di avere la più piccola varianza
sulle differenze fra Z*(x) e Z(x). Le tecniche di kriging permettono di
quantificare la qualità delle stime attraverso la varianza di stima del kriging
(KEV): essa diventa un indicatore per confrontare fra loro le prestazioni di tali
tecniche. Inoltre, un altro vantaggio è la possibilità di tenere conto sia
dell’eventuale ridondanza o clusterizzazione dei dati, e sia delle possibili
anisotropie. Alcune tecniche più avanzate permettono di introdurre nel
processo di stima le informazioni soft o qualitative (Bardossy et al. 1988,
Bardossy et al. 1990).
La simulazione geostatistica genera un insieme ordinato di valori che rispetti
prefissate caratteristiche strutturali e statistiche, note a priori, quali media e
varianza globali, range, nugget effect, e tipo di variogramma. Il reticolo
simulato riproporrà la media e la varianza imposta al simulatore. A differenza
delle tecniche di interpolazione del kriging, la simulazione non ha l'obiettivo
della minima varianza nella produzione del reticolo e, pertanto, non è possibile
ottenere una varianza di stima. La simulazione geostatistica può prevedere una
fase di condizionamento legato alle misure: fra le infinite simulazioni
generabili si sceglie quella che passa per i punti noti nella zona in esame.
Lo stimatore adottato da alcune tecniche di kriging pesa linearmente i dati del
campione z(x1),..z(xn) (geostatistica lineare).
In particolare, il kriging semplice e ordinario è applicato nei casi in cui non
esista drift nei dati e la varianza rimane costante in tutta l'area di interesse. Il
sistema del kriging ordinario può essere decomposto in un equivalente sistema
derivato da un modello di regressione (Matheron, 1970). Da qui la generalità
dell’approccio.
Esistono delle situazioni in cui i dati presentano drift. Le proprietà statistiche
della pioggia, ad esempio, possono variare significativamente dentro l’area di
8
studio, sotto l’influenza orografica nelle zone montagnose o gli effetti del mare
sulle zone costiere. Uno dei possibili modi per trattare i dati affetti da drift (o
trend) è il kriging universale. Il drift è analizzato e rimosso dai dati mediante
una trend surface analysis (Watson, 1971). I residui sono sottoposti ad analisi
strutturale: il drift è reintrodotto nei dati nel passo di interpolazione insieme al
modello di variogramma dei residui. Un’altra risposta appropriata a questo
problema è dato dalle ipotesi intrinseche di ordine k (Matheron, 1973). In
media, cioè, la variazione spaziale si suppone essere di tipo polinomiale di
ordine k. Per il processo di stima (areale o di mapping), e per l’identificazione
della funzione covarianza si cerca di filtrare la componente polinomiale
(Kitanidis, 1986), onde evitare stime distorte e rispettare la filosofia delle
tecniche del kriging. Emerge, per dati di pioggia, che i risultati migliori si
hanno considerando costante, almeno localmente, il valore medio del
fenomeno (cioè k=0).Una ragione fornita per questo risultato (Barancourt et
al., 1992) è la difficoltà a rappresentare il meccanismo orografico attraverso i
polinomi. Volpi e Gambolati (1978), per lo studio della piezometria, hanno
proposto un modello basato su un fenomeno fisico, inteso come external drift,
applicando il kriging ordinario sui residui. Nell’uso delle tecniche lineari (o
non lineari) del kriging, si fa riferimento al cosiddetto kriging locale: solo gli
intorni del punto da interpolare intervengono nella stima. In alcuni casi, quali
il campionamento abbastanza fitto, può essere conveniente assumere che ci sia
stazionarietà solo dentro la finestra di ricerca, nonostante il trend sui dati. Si
parla in questo caso di quasi-stazionarietà (Journel e Huijbregts, 1978).
Il cokriging è una tecnica multivariata che utilizza, nella stima, altre variabili
che sono in relazione con quella principale e per le quali sia più agevole, o
meno costoso, il campionamento (Myers, 1982). La stima della variabile può
trovare giovamento dalle variabili ausiliarie.
Sulle tecniche della geostatistica lineare si possono fare le seguenti ulteriori
considerazioni. L’uso del kriging ordinario, pur non essendo vincolato alla
forma dei dati, fornisce la stima migliore solo quando l’insieme delle variabili
è multigaussiano. Nei casi in cui le distribuzioni di frequenza sono (1)
significativamente asimmetriche e (2) presentano un salto a zero, nel senso
che ci sono molti valori nulli rispetto a quelli significativamente diversi da
zero, allora può essere conveniente utilizzare le tecniche della geostatistica non
lineare.
Il kriging disgiuntivo è una tecnica non lineare (Rivoirard, 1994). Ha il
vantaggio di produrre delle stime che sono, generalmente, a varianza minore
rispetto a quelle del kriging ordinario. Inoltre, l'uso di pesi non lineari sui dati,
permette di valutare la probabilità, spazialmente condizionata, che determinati
9
valori di soglia siano superati. Nel kriging disgiuntivo, la variabile di partenza,
interpretata come una FA stazionaria del secondo ordine, è trasformata
(anamorfismo) in una distribuzione normale (sono anche possibili gli usi di pdf
bivariate gamma o binomiali negative). Il kriging disgiuntivo prende in
considerazione questa trasformazione attraverso i polinomi di Hermite (Yates
et al. 1986a).
La geostatistica non parametrica è il regno della geostatistica non lineare: in
luogo della combinazione lineare dei dati si usa quella delle funzioni, la
funzione indicatore. E’ necessario, pertanto, codificare l’indicatore, costruire i
variogrammi indicatore e applicare le tecniche di simulazione/kriging sugli
indicatori. Questo approccio ha dei vantaggi, quali:
− nessuna dipendenza da modelli
− intervento di valori estremi (outliers) nell’analisi strutturale
− modellizzazione del variogramma in funzione dell’ampiezza dei dati
Nelle tecniche non parametriche, quindi,
− si dividono i dati in classi, corrispondenti a prefissati tagli o soglie sui dati;
− si codificano i dati in un valore indicatore 0 o 1;
− si stima l’istogramma locale in una qualsiasi posizione attraverso
l’indicator kriging, usando i variogrammi costruiti per ciascun taglio;
− si derivano le stime o si realizzano le simulazioni usando gli istogrammi
locali.
L’indicator kriging (IK) è il kriging ordinario degli indicatori (Goovaerts P.,
1994a). I risultati dell’IK, nei punti di un grigliato, sono valori compresi fra 0 e
1. Essi possono essere interpretati come probabilità di accadimento di eventi.
L'impossibilita' di conoscere perfettamente la realtà, nei punti non strumentati,
apre il campo all'idea, molto semplice, di simularla dopo averla, in qualche
modo, modellizzata. Il campione è interpretato come una realizzazione della
FA Z(x): una simulazione produce un'altra realizzazione di Z(x). Queste due
realizzazioni, identificate come z0(x) e zS(x), sono puntualmente diverse ma
globalmente (statisticamente) simili, provenendo dalla stessa funzione
aleatoria Z(x), e avendo in comune i primi due momenti.
Se l’interesse è verso la dispersione della variabile all'interno dell’area
geografica allora sia z0(x) che zS(x) sono equivalenti. La simulazione ha, in più,
il vantaggio di essere presente in tutti i punti desiderati. Una FA possiede una
infinità di realizzazioni possibili {zS(x)}. Tra queste si possono scegliere le
simulazioni {zSC(x)} che sono uguali ai valori presenti nei punti campione xi:
questa tecnica si chiama condizionamento. La simulazione condizionata
produce un reticolo che conserva le caratteristiche di dispersione della
variabile e, in più, passa per i punti sperimentali (Journel, 1974).
10
Si può essere tentati di pensare che la simulazione non differisca da un
processo di stima prodotto dalle tecniche del kriging. La differenza, però,
esiste. Una stima fornisce, in ciascun punto x, lo stimatore che sia il più
possibile vicino al valore reale (incognito): lo stimatore non è, dunque,
costruito per riprodurre la variabilità nel dominio. Gli stimatori, addirittura,
sottostimano la varianza globale. La simulazione, invece, riproduce sia la
media che la varianza globale, di contro, in ciascun punto x, zs(x) non può
essere il ‘migliore’ stimatore, nel senso BUE (Best Unbiased Estimator) delle
tecniche del kriging. Se si procede con la simulazione, è possibile generare più
mappe, ciascuna delle quali può onorare i dati misurati (mappe condizionate)
e, approssimativamente, riprodurre uno stesso variogramma e una stessa
distribuzione.
Esistono diversi modi per simulare geostatisticamente le variabili.
Nella simulazione gaussiana sequenziale (Gòmez-Hernàandez J.J. e Cassiraga,
1994) è necessario:
1. trasformare i dati in forma normale;
2. costruire il modello del variogramma sui dati;
3. selezionare casualmente un nodo del reticolo;
4. stimare il valore nel nodo selezionato, usando il kriging ordinario e
ottenendo, così, una KEV;
5. generare un numero casuale di tipo gaussiano con media e varianza,
rispettivamente, stima e KEV: questo numero sarà assegnato al nodo di
griglia.
L’algoritmo procede ripartendo dal punto 3 e fino ad esaurire tutti i nodi del
reticolo. Nella stima (punto 4) sono considerati i nodi già processati nei passi
precedenti, in modo da garantire la struttura descritta dal modello di
variogramma. Infine, la siffatta griglia simulata è ritrasformata nella
distribuzione di partenza.
Nella simulazione indicatore sequenziale (Freulon, 1994) è necessario:
1. dividere i dati in classi definendo dei valori di taglio o di soglia;
2. codificare ciascun dato in un valore indicatore, 0 o 1, a seconda che il
valore sia più piccolo (rispettivamente più grande) del taglio;
3. costruire il modello del variogramma sugli indicatori, e per tutti i tagli;
4. scelto il primo taglio, selezionare in modo casuale il primo nodo;
5. stimare il valore k nel nodo selezionato, usando l’indicator kriging e
ottenendo, così, un valore compreso fra 0 e 1;
6. generare un numero u uniformemente distribuito fra 0 e 1;
7. confrontare u con il valore k; se u è minore di k allora si assegna al nodo il
codice 1 altrimenti 0.
11
L’algoritmo prosegue dal punto 4 e fino a che tutta la griglia non sia stata
simulata. Nel kriging, di cui al punto 5, si usano tutti i nodi già simulati.
Esaurita la griglia, si passa a costruirne un’altra passando ad un altro taglio e al
relativo variogramma. Tale processo è, comunque, molto lento, anche se
esistono degli accorgimenti che permettono di renderlo più veloce (Goovaerts,
1994b).
Altre tecniche di simulazione fanno riferimento alle proprietà di autosimilarità
dei frattali (Puente, 1994). Ad esempio, il modello di moto browniano
frazionale (il cosiddetto fBm) ha un equivalente geostatistico: il modello
power. Oppure, la derivata approssimata del fBm, cioè il fGn (fractional
Gaussian noise). Per usare i frattali si deve:
− stimare la codimensione frattale, o valore H
− usare il valore H per generare tracce artificiali della proprietà statistica
(usando, per esempio, la tecnica delle addizioni aleatorie successive o
SRA).
Il valore di H compreso fra 0.6 e 0.9 è quello che indica una correlazione
infinita che incrocia tutte le scale di osservazione dei fenomeni: è il valore
stimato più ricorrente.
Il moto di Levy frazionale (il cosiddetto fLm) è la più potente generalizzazione
del fBm (Chu e Journel, 1994). Si assume che gli incrementi abbiano una
distribuzione stabile di Levy, con code che decadono più lentamente della
distribuzione gaussiana. È capace di modellare cambiamenti bruschi in
sequenze non stazionarie (per esempio, log porosità). I tipici valori di H
ottenuti usando la tecnica fLm sono compresi fra 0.1 e 0.5.
Infine, i dati geostatistici possono essere simulati usando gli algoritmi genetici
e di annealing (Hegstad et al., 1994), usati come schemi di ottimizzazione
combinatoriale (i cosiddetti COS). In entrambi gli algoritmi, i vincoli spaziali
sono espressi come una funzione obiettivo da minimizzare. I COS sono
flessibili nel senso che sono capaci di gestire qualsiasi tipo di vincolo, che
possa essere accettabilmente espresso nella funzione obiettivo. Poiché i vincoli
possono essere diversi, la tecnica sarà più o meno veloce secondo la
complessità della funzione obiettivo.
In generale, per gli algoritmi genetici e di annealing è necessario:
− generare una distribuzione casuale di valori che rispetti uno specificato
istogramma;
− perturbare il sistema, scambiando i valori nel caso dell’annealing o
mutandoli/incrociandoli negli algoritmi genetici con l’obiettivo di
avvicinarsi alla struttura di correlazione spaziale più simile a quella target.
12
Se si arriva a ciò, il sistema è detto avere una bassa energia e la
perturbazione è accettata.
Tra gli altri, i vantaggi dell’uso dei COS sono:
− non fanno nessuna assunzione gaussiana;
− possono onorare i variogrammi sperimentali e non solo quelli teorici;
− possono gestire le anisotropie strutturali (variogrammi differenti per
differenti direzioni).
13
5.3 - Il modello geostatistico
Lo strumento usato in geostatistica per rappresentare numericamente le
relazioni o le similarità tra i dati è detto variogramma. Fu introdotto da
Matheron (1970) che ha il merito di avere, in qualche modo, generalizzato il
concetto probabilistico di funzione di covarianza. Nel caso in esame si
suppone che esista una variabile aleatoria Z(x) in ciascun punto x del dominio
D di interesse; pertanto per due punti x ed y di D è possibile definire la
covarianza ρ(x,y) come segue:
ρ(x,y) = Ε[ Ζ ( x ) ⋅ Ζ ( y )] − Ε[ Ζ ( x )] ⋅ Ε[ Ζ ( y )]
(5-2)
Nella formula (5-2), E rappresenta l'operatore che fornisce il valore medio o
aspettazione della variabile casuale.
Dividendo ρ(x,y) per la varianza di Z, in x e in y, si ottiene il coefficiente di
correlazione lineare. Al variare di x ed y si descrive una funzione, detta di
covarianza, che è definita su ℜ2 ed è, perciò, di difficile uso pratico. Inoltre, la
stima della covarianza per ciascuna coppia di variabili aleatorie Z(x) e Z(y)
necessita di due campioni di misure: uno per Z(x) e l'altro per Z(y). Questi non
sono disponibili e, quindi, è necessario adottare delle ipotesi, dette di
stazionarietà.
Se y = x + h e se la funzione di covarianza diventa indipendente dal punto di
appoggio x, cioè ρ (x,x+h) = ρ (h), allora il dominio di definizione della
funzione di covarianza si riduce e si semplifica. Il vettore h, espresso in
termini di coordinate polari, ha due componenti: modulo e direzione. Qualora
si assuma che la variazione spaziale sia di natura isotropica, ρ (h) diventa una
funzione definita su ℜ.
L'ipotesi di stazionarietà sulla funzione di covarianza è detta del secondo
ordine e permette di fare le inferenze statistiche su ρ(h), dall'unico campione
spaziale z(x1),..z(xn).
Attraverso l'uso del variogramma si ipotizza un tipo di stazionarietà meno
forte della precedente, detta intrinseca del primo ordine. Il variogramma è
definito come la varianza degli incrementi:
γ(h) =
1
var [Z(x + h) - Z(x)]
2
(5-3)
Gli incrementi sono detti, anche, differenze di ordine uno. Attraverso l'ipotesi
intrinseca si sposta la stazionarietà dalla Z(x) ai suoi incrementi. In assenza di
14
tendenza a grande scala (o drift), γ(h) diventa l'aspettazione delle differenze al
quadrato di Z(x), cioè:
γ(h) =
1
var [E(Z(x + h) - Z(x))2 ]
2
(5-4)
E' in questa forma che il variogramma è più usato ed utilizzato nella inferenza
statistica dai dati. Quando esiste una varianza finita σ2, allora γ(h) e ρ(h) sono
in relazione attraverso l'espressione seguente:
γ(h) = σ 2 ( 1 − ρ(h))
(5-5)
e, quindi, quando la correlazione spaziale diventa zero, γ (h) diventa uguale
alla varianza di Z(x).
Le ipotesi di stazionarietà riguardano il modello e non i dati. Solitamente non
esiste nessuna contro indicazione alle decisioni iniziali che riguardano la
stazionarietà. E' possibile che durante le analisi sui dati si possano riscontrare
delle situazioni in contrasto con le ipotesi: esse vanno opportunamente gestite
e non escludono la revisione delle decisioni iniziali già adottate.
Il variogramma, a differenza della funzione di covarianza, può rimanere
definito anche se la varianza spaziale cresce indefinitamente all'interno della
scala di osservazione del fenomeno. L’uso della covarianza è, comunque,
vantaggioso perché si possono prendere in considerazione le medie dei
cambiamenti nei casi di relazioni non ergodiche. La misura della covarianza
può essere normalizzata dividendola per la varianza dei dati, fornendo, così, il
correlogramma, misura tradizionalmente usata dagli analisti delle serie
temporali.
Esistono altre misure spaziali. Il madogramma, ad esempio, considera la
differenza assoluta media, al posto delle differenze quadratiche medie di γ (h);
ne deriva, così, una misura più robusta della struttura di correlazione. Si
possono anche usare le differenze quadratiche mediane o le differenze assolute
mediane, invece della media.
5.3.1 - Proprietà del variogramma
In un’analisi strutturale, si ha bisogno che la media e la varianza cambino
sistematicamente dentro l'area in esame. Nell’equazione (5-4) si osserva che
la differenza quadratica fra i dati nei punti x e y fornisce una misura del livello
di similarità della variazione.
15
Se la distribuzione spaziale del campione è regolare, si possono avere più
differenze quadratiche campionarie associate alle distanze fra le coppie z(xi) e
z(xj). E' possibile, così, costruirsi il grafico che è detto (semi-) variogramma
sperimentale. Le distanze fra le coppie di punti campione sono rappresentate
sull'asse delle ascisse ed etichettate con la lettera h; le medie delle differenze
elevate al quadrato relative a tutte le coppie ad uguale distanze sono
rappresentate sull'asse delle ordinate ed etichettate con la lettera greca γ*(h). Il
grafico non cambia forma se i valori delle ordinate sono divise per due, come
risulta dalla eq. (5-4).
Nel caso in cui la distribuzione del campione sia irregolare, si devono
considerare delle classi di distanze, ampie multipli di un lag, per mediare le
differenze in questione.
Il passo finale nell'analisi strutturale è il riconoscimento del modello γ(h) dal
suo grafico sperimentale.
È, quindi, necessario selezionare un appropriato modello, e determinarne i suoi
parametri.
Gli elementi che costituiscono gli attributi spaziali del variogramma sono i
seguenti:
− Nugget: è il valore di γ(0). Esprime la misura della variabilità media per
piccole distanze Se due punti sono molto vicini, è ragionevole aspettarsi
che i loro valori siano pressoché simili e che il nugget, quale misura della
differenza quadratica media, sia vicino allo zero. Talvolta il nugget può
essere presente se le misure campionarie sono affette da errori. Il
campione proveniente dalle reti di monitoraggio ha una distanza minima di
campionamento che concorre a caratterizzare il primo punto del grafico
sperimentale del variogramma. Se esistono effetti locali non evidenziabili
alla scala di osservazione del campione, il nugget può essere assunto
differente da zero in misura tanto maggiore quanto più grande è la distanza
minima dall'origine. E' spesso indicato come c0.
− Range: è la distanza, nell'unità di misura del campione, dopo la quale due
punti diventano spazialmente non correlati o, parimenti, è la massima
distanza entro la quale le differenze quadratiche medie crescono prima di
assestarsi intorno ad un valore, detto sill. L'assunzione implicita, su cui si
basa la variografia, è l'esistenza di una continuità spaziale legata alla scala
di osservazione del fenomeno che si estrinseca sull'andamento delle
differenze quadratiche medie: esse crescono dal nugget fino al sill in
funzione della distanza fra i punti. Il range è talvolta descritto come la
misura dell'area di influenza del campione. I range possono essere diversi
fra loro nel caso in cui ci sia un comportamento anisotropico della
16
−
−
−
variabilità spaziale di una grandezza. Il range è spesso indicato con la
lettera minuscola a.
Sill: è la massima variabilità delle differenze quadratiche medie espressa
dal campione dei dati. Così come per i range, anche i sill possono variare
con la direzione. Il sill del variogramma, se esiste, è generalmente poco
più grande del valore della varianza. Il valore del sill è indicato, spesso,
con la lettera c.
Continuità: è il comportamento del variogramma a piccole distanze ed è
utilizzata per orientarsi circa le scelte sul modello di variogramma da
adattare sul grafico sperimentale. La continuità è un indicatore
dell'uniformità o della regolarità spaziale del fenomeno. Essa può essere
esaminata convenientemente se è disponibile un numero significativo di
campioni a piccole distanze. Solitamente sono presenti quattro tipi di
continuità nei variogrammi:
1. parabolica. E' indicativa di alta continuità, nel senso che se le distanze
fra coppie di punti aumentano, si misura una bassa differenza
quadratica media fra loro. Questo tipo di continuità può essere un
indicatore della presenza di una tendenza a grande scala presente nei
dati, cioè, i valori crescono o decrescono in modo sistematico
all'interno dell'area di studio;
2. lineare. E' indicativa di una continuità, nel senso che c'è una relazione
diretta fra i cambiamenti nelle differenze quadratiche medie tra i
campioni e il crescere delle distanze; anche questo caso può essere un
indicatore della presenza di tendenza spaziale sui dati;
3. discontinua. E' indicativa di una irregolarità alle piccole distanze, nel
senso che ci sono delle elevate differenze tra i campioni per piccole
distanze;
4. casuale. E' indicativa di una alta irregolarità, non esiste, perciò, una
distanza, anche minima, entro cui misurare una relazione fra i dati. La
fisica sottogiacente ai fenomeni naturali non giustifica questo tipo di
continuità che è sinonimo di non strutturabilità del fenomeno.
Pendenza: è il cambiamento subito da γ nell'intervallo di distanze che
vanno da zero fino al range. Indica il livello di continuità del fenomeno:
bassa pendenza rappresenta cambiamenti graduali dei valori fino al range;
alta pendenza rappresenta rapidi cambiamenti già per piccole distanze.
17
5.3.2 - Modelli di variogramma
Per modello si intende una funzione matematica continua che rappresenta
adeguatamente il grafico del variogramma sperimentale. I tipi più comuni di
modelli di variogramma sono i seguenti:
Variogramma sferico: è rappresentato da una curva crescente fino al range
(limite di influenza). Dopo il range le differenze quadratiche medie non
cambiano e la curva diventa costante. Lo sferico è un variogramma
caratteristico di dati con aree di influenza ben sviluppate e buona continuità.
La formula che regola il modello sferico è la seguente:
∀h ≤ a
∀h > a
γ (h) = c 0 + c(1.5 h a − 0.5(h a ) 3 )
γ ( h) = c 0 + c
(5-6)
Variogramma nugget: è caratteristico di fenomeni che le cui differenze
quadratiche medie non variano al crescere delle distanze. Punti, quindi, vicini
fra loro hanno un comportamento similare a quelli che sono distanti. Il grafico
sperimentale del variogramma è ben approssimato da una retta orizzontale che
passa attraverso il punto di nugget che coincide, quindi, con il sill. La
variazione, quindi, avviene a una scala più piccola di quella cui si sta riferendo
il variogramma nugget oppure essa è non strutturabile.
La formula che regola il modello nugget è la seguente:
∀h
γ ( h) = c o
(5-7)
Variogramma esponenziale: è rappresentato da una curva che cresce al
crescere delle distanze senza raggiungere il valore di sill. E' caratteristico di
dati che hanno una limitata area entro cui si manifestano le relazioni di
influenza oppure che mostrano una elevata distanza di continuità. La formula
che regola il modello esponenziale è la seguente:
γ (h) = c 0 + c(1 − e − h a )
(5-8)
Variogramma lineare: è rappresentato da una curva che evidenzia una crescita
lineare delle differenze quadratiche medie al crescere delle distanze. Per
definizione, quindi, non ha né sill né range mentre può avere un effetto
nugget.
La formula è la seguente, con ω coefficiente angolare della retta:
γ ( h ) = c 0 + ωh
18
(5-9)
Variogramma gaussiano: è rappresentato da una curva che inizialmente cresce
lentamente con la distanza. Da una certa distanza in poi, il tasso di crescita è
accelerato, assestandosi sul valore di sill ad un ben definito valore di range. Il
variogramma gaussiano è caratteristico di dati con una elevata presenza di
tendenza che si manifesta a piccola scala e, nello stesso tempo, un alto livello
di continuità regionale. La formula che regola il modello gaussiano è la
seguente:
γ (h) = c 0 + c(1 − e −( h a ) )
2
(5-10)
Il comportamento spaziale di certi fenomeni può non essere identico per tutte
le direzioni. Per determinare l'anisotropia direzionale attraverso l'uso del
variogramma, il campione di dati è raggruppato per classi di direzioni e di
distanze. La classe di direzione è determinata da una direzione principale e da
un angolo di tolleranza che è il numero di gradi da considerare in entrambi i
lati della specificata direzione principale. Le tolleranze non devono produrre
delle sovrapposizioni. Calcolando i variogrammi sperimentali per le classi di
direzioni prescelte, si deve indagare sulla forma e sui parametri dei modelli da
adattare sui grafici sperimentali per verificare se esistono delle similarità
(isotropia) oppure no (anisotropia). Il numero delle classi di direzioni dipende
dalla numerosità del campione e, nel caso peggiore, può non abilitare
l'indagine sull'anisotropia. E' ricorrente adottare due classi che abbiano una
tolleranza di 45° (es.: 0°- 45° e 90°- 45°) rispetto alle quali si possono
evidenziare due tipi di anisotropie: geometrica e zonale. La prima si verifica
nel caso in cui il range nella prima classe è differente da quello della seconda;
la zonale, invece, si riferisce a sill differenti per le due classi di direzione.
5.3.3 - Costruzione di un variogramma
Per qualsiasi variabile che sia stata campionata è possibile calcolare il
variogramma in una, due o tre dimensioni del dominio spaziale (Krajewski e
Gibbs, 1993). In molti studi, infatti, può essere utile introdurre una terza
dimensione nella costruzione del variogramma, ad esempio l'altezza sul livello
del mare, la profondità, il tempo, e così via. Benché il variogramma
tridimensionale possegga tutte le proprietà teoriche definite precedentemente è
uno strumento poco pratico. Anche se il dominio di interesse è del tipo XYZ,
per molti scopi ci si costruisce un variogramma bidimensionale, scegliendolo
opportunamente fra il piano XY o XZ o YZ.
19
I dati di interesse vanno descritti statisticamente (minimo, massimo, media,
deviazione standard, skewness e kurtosis). L'istogramma, i grafici di frequenza
cumulati e quelli di dispersione sono utilizzati per indagare sull'esistenza di
valori estremi (piccoli o grandi) nel campione e comprendere meglio la
distribuzione del campione. I dati con una distribuzione normale hanno un
errore standard (rapporto fra media e deviazione standard) più piccolo di 1.25
mentre quelli con una distribuzione lognormale o in cui è presente un drift, ne
hanno uno più grande di 1.25. Il test non parametrico di Kolmogorov-Smirnov
o quello parametrico del χ2 (Kendall e Stuart, 1966) possono essere utilizzati
per determinare se i dati hanno una distribuzione normale o lognormale; il ttest per determinare se distribuzioni bi-modali hanno le medie che differiscono
significativamente fra loro.
Il variogramma è calcolato per coppie di dati lungo una specifica direzione,
con una data tolleranza, o globalmente per tutte le coppie. Nell'analisi
strutturale si inizia a costruire il variogramma anisotropico. Le decisioni da
assumere riguardano:
Lag e numero di lag. Il lag è l’intervallo, nell’unità prescelta, entro i multipli
del quale le differenze quadratiche sono assimilate per esprimere una misura
della relazione media esistente nei dati. Le decisioni in questa fase riguardano
la larghezza e il numero di lag. La selezione di una misura di lag è
generalmente dettata dalla spaziatura del campione. L'istogramma assoluto
delle N distanze prodotte dal campione può essere uno strumento per valutare
il lag. Osservando tale istogramma si può conoscere quante coppie
concorreranno a caratterizzare la media delle differenze quadratiche in ciascun
multiplo di lag. La costruzione dell'istogramma prevede la definizione di
un'ampiezza di classe. Tale ampiezza, scelta in modo che raccolga, negli
intervalli iniziali, un numero statisticamente significativo di distanze
(maggiore di 10), diventa una buona stima iniziale del lag. Il numero di lag è
determinato dal numero di intervalli consecutivi dell'istogramma che hanno un
numero significativo di distanze. Il lag diventa così il passo costante sull'asse
delle ascisse del grafico sperimentale.
Continuità spaziale. Una generica coppia di valori z(xi), z(xj) produce una
distanza dij riferita alla posizione fra le coppie xi e xj (con xi∈ ℜ2, xj∈ ℜ2) una
differenza al quadrato riferita ai valori da essa espressi: per ciascuna distanza
dij va ricercato il lag che la contiene e rappresenta la differenza quadratica
sull'asse delle ordinate. Lo stimatore del variogramma è il seguente:
γ * ( h) =
1
2n( h)
n(h)
∑ [z( x
i =1
20
i
+ h) − z ( x i )]2
(5-11)
laddove n(h) è il numero di coppie che sono contenute in ciascun lag. Il
variogramma sperimentale deve riprodurre continuità spaziale; un andamento,
cioè, crescente rispetto al modulo di h. Per ciascun lag ci si calcola la media
delle differenze quadratiche e si osserva il loro comportamento sul grafico
sperimentale. Qualora non si riscontri continuità, le possibili cause possono
essere:
− campione poco numeroso;
− territorio con caratteristiche disomogenee;
− non stazionarietà della varianza;
− lag poco ampio;
e quindi, le possibili azioni da intraprendere sono:
− classificazione dei dati, in modo da recuperare una omogeneità;
− aumento dell'ampiezza del lag. La selezione ottimale di un lag si realizza
in questa fase. Può essere necessario modificare la misura del lag con
l'obiettivo di ritrovare la continuità. La selezione di un lag "troppo corto"
si riflette sul grafico attraverso un gran numero di fluttuazioni locali o
rumore; al contrario un lag "troppo grande" manifesta un grafico altamente
addolcito;
− esame delle differenze quadratiche medie con l'obiettivo di esaminare
quali coppie hanno uno scarto di valori elevato tale da provocare
discontinuità. Dopo aver indagato sulle cause locali che influenzano tale
scarto, si tratta, di decidere se escludere oppure no tale misura.
Nel caso in cui sul grafico si intraveda una continuità di tipo lineare, può
essere messa in discussione l’assunzione che i dati siano privi di drift. Infatti,
se il drift è rappresentato dalla funzione m(x) diversa da zero, allo stimatore
(11) deve essere aggiunta la seguente parte
1
n( h)
n(h)
∑ ( m( x
i
+ h) − m( x i )) 2
(5-12)
i =1
Ad esempio, se m(x) fosse lineare, il grafico sperimentale sarebbe
rappresentato da curve di tipo parabolico e, come tale, può essere considerato
un caso speciale di variogramma lineare. E' caratteristico di dati in cui non è
stata separata la componente locale da quella a grande scala. Generalmente il
drift è il risultato di una variabile altamente continua che cresce o decresce di
una fissata quantità per unità di distanza. Le azioni da attivare, in questo caso,
prevedono una Trend Surface Analysis per eliminare il drift dai dati e la
ripetizione dell’analisi strutturale sui residui.
21
Modellizzazione. Attraverso l'ispezione visiva del grafico sperimentale si
individua il modello teorico che descrive al meglio la continuità spaziale del
campione. Una variazione senza apparente struttura è rappresentata dal
modello nugget. La scelta del modello e dei suoi parametri (nugget, range, sill)
può avvenire in modo automatico attraverso tecniche, rispettivamente, di
jacknifing (Journel e Huijbrechts, 1978) definendo dei criteri numerici di scelta
e di best-fitting non lineare. Nel jacknifing si estrae un dato alla volta e se ne
stima il valore mediante Kriging ordinario. Due statistiche possono misurare
l’adeguatezza del modello rispetto all’assenza di sistematicità della stima
(unbiased) e la consistenza fra varianza di stima e varianza globale (Q). In
particolare, unbiased misura la somma delle differenze fra valore campionato e
quello stimato; Q misura la somma delle differenze al quadrato fra valore
campionato e quello stimato fratto la KEV. Un modello è ritenuto adeguato se
unbiased è intorno a zero e se Q è prossimo ad uno. L'uso di tale tecnica
prevede, comunque, la definizione di un modello teorico di variogramma;
quindi il punto estratto è nello stesso tempo un elemento che ha concorso alla
stima del variogramma ma che deve misurarne l'adeguatezza. Ciò introduce un
fattore non controllato, che molti autori non giustificano (ad es. Gutjahr,
1985). E' questo il motivo per cui è favorito il fitting ad occhio del modello e
dei suoi parametri con l'intervento del variografo che può decidere sulla base
delle sue conoscenze. In particolare, usando un buon software grafico, il
nugget è costruito disegnando e prolungando la linea retta che passa tra i primi
due valori sperimentali di γ, fino ad incontrare l'asse delle ordinate: il valore
del nugget è il valore di tale intersezione. Nel caso di intersezione negativa il
valore del nugget si assume uguale a zero in quanto un valore negativo non ha
nessun significato fisico. La decisione finale se impostare un nugget spetta al
variografo. Il range di un variogramma sferico può essere inizialmente
ottenuto usando la regola 2/3 che consiste nel seguente processo:
1. determinazione sull'asse delle ordinate del punto di sill in cui il
variogramma si assesta;
2. disegno di una linea orizzontale nel punto di sill;
3. disegno di una linea inclinata che passa attraverso il secondo e il quarto
punto del grafico sperimentale. Questa linea deve proseguire fino ad
intersecare in un punto la retta del sill: l'ascissa di tale punto è 2/3 del
range.
Il range per un variogramma esponenziale e gaussiano è ottenuto attraverso la
regola, rispettivamente, di 1/3 e √3 seguendo il processo descritto per il
variogramma sferico dai punti 1, 2 e 3. L'ascissa, in questi casi, relativa
all'intersezione delle due rette è, rispettivamente, 1/3 e √3 del range.
22
Queste regole pratiche hanno un fondamento teorico descritto da Journel e
Hujbregts (1978, p.121) e sono deducibili dal grafico che riporta i tre modelli
precedenti.
Non è escluso che si possa decidere di ricorrere alla tecnica del jacknifing per
la validazione del processo di modelling.
Cross-variogramma. Il cross-variogramma rappresenta la struttura spaziale di
due variabili Z1(x) e Z2(x), definite all’interno di uno stesso dominio di ℜ2. Il
cross-variogramma gode degli stessi attributi spaziali visti per il variogramma
che, se riferito ad una singola variabile, prende più precisamente il nome di
auto-variogramma. Il cross-variogramma modellizza gli incrementi incrociati
di due variabili nei punti x e x+h secondo la formula seguente:
[
γ ij (h) = E ( Z i ( x + h) − Z i ( x))(Z j ( x + h) − Z j ( x))
]
(5-13)
Lo stimatore del variogramma (auto- o cross-) sui campioni z1(x1j) di Z1 nei
punti del piano x1j con i=1,...,2 e j=1,...,n assume la forma generale seguente:
γ ij* (h) =
1
2n ( h )
n(h)
∑ (z (x
i
ik
+ h) − z i ( x ik ))( z j ( x ik + h) − z j ( x ik ))
(5-14)
k =1
laddove n(h) rappresenta il numero di cross-incrementi che hanno una distanza
di separazione spaziale uguale ad h. Nelle due locazioni poste a distanza h,
quindi, deve esistere sia la misura per z1 che quella per z2.
Sulle coppie sperimentali (h, γ *12(h)) sono adattati i modelli validi per
l'(auto)variogramma (Journel e Hujbregts, 1978). Nel caso di stima di crossvariogramma, gli incrementi possono essere anche negativi e, quindi, pur
rimanendo validi i modelli già visti, alcuni parametri ad essi relativi (sill e
nugget) possono essere negativi. E', inoltre, immediato verificare che γ12(h)=
γ21(h) per ogni valore di h. La consistenza dei modelli di variogramma con il
requisito di positività della varianza dei metodi di interpolazione stocastica del
kriging avviene se i tre modelli di variogramma che si adattano su quelli
sperimentali, soddisfino, per ogni h, la disuguaglianza di Cauchy-Schwarz:
γ ij (h) = γ ii (h)γ jj (h)
(5-15)
5.3.4 - Tecniche facenti capo alla geostatistica lineare: kriging e cokriging
Lo stimatore lineare è rappresentato, nel punto incognito x0, dalla seguente
espressione:
Z * ( x0 ) =
∑ λ z( x )
23
i
i
(5-16)
Lo stimatore del kriging deve essere non distorto e a minima varianza. I due
requisiti richiesti allo stimatore, si traducono matematicamente nelle seguenti
espressioni:
E[ Z * ( x 0 ) − Z ( x 0 )] = 0
(5-17)
(5-18)
min var[Z ( x 0 ) − Z ( x 0 )] = 0
*
Sostituendo l'espressione lineare (5-16) nella (5-17) si ottiene che
∑ λ z( x ) = 1
i
(5-19)
i
mentre, sostituendola nella (5-18) si ottiene:
[
] ∑∑ λ λ γ
var Z * ( x 0 ) − Z ( x 0 ) = −
i
+2
j ij
∑λ γ
(5-20)
j 0j
laddove γij = γ (xi-xj) e γ0j = γ (x0-xj). Il calcolo dei pesi diventa un problema di
ottimizzazione della (5-20) vincolato dalla (5-19) per la cui soluzione
interviene un parametro μ, detto moltiplicatore di Lagrange. La funzione
obiettivo vincolata è la seguente:
[
]
Var Z * ( x 0 ) − Z ( x 0 ) − 2 μ (
∑λ
i
− 1)
(5-21)
Sostituendo la parte destra della (5-20) in quella sinistra della (5-21), il
minimo è trovato derivando n+1 volte parzialmente rispetto ai parametri λj e μ,
ponendo uguale a zero tali derivate. Ciò produce un sistema di n+1 equazioni
in n+1 incognite che, in forma matriciale diventa:
⎡λ ⎤
A⎢ ⎥ = b
⎣μ ⎦
(5-22)
laddove
⎡γ 11
⎢ ...
A=⎢
⎢γ n1
⎢
⎣1
... γ n1
... ...
... γ nn
...
...
1⎤
1⎥⎥
1⎥
⎥
0⎦
bT = [γ 10 ... γ n0 1]
T
⎡λ ⎤
⎢ μ ⎥ = [λ1 ... λn
⎣ ⎦
μ]
(5-23)
24
Risolvendo il sistema (5-22) con un appropriato metodo numerico si ottengono
i pesi λj e μ che permettono di ottenere, tramite la (5-16), un valore interpolato
per Z nel punto x0 e della sua varianza di stima attraverso la seguente
espressione:
⎡λ ⎤
σ E2 = b T ⎢ ⎥
(5-24)
⎣μ ⎦
Dalla equazione (5-23), si evince che nel calcolo dei pesi intervengono i
variogrammi e che questi, in virtù della ipotesi di continuità spaziale,
privilegeranno le misure più vicine ad x0. Alcuni metodi deterministici pesano
linearmente i dati di un intorno del punto x0 in modo che nella stima abbiano
più influenza i dati più vicini a x0 (Shepard, 1968). Sembrerebbe che
l'impostazione geostatistica possa aver complicato il problema per giungere ad
una soluzione ragionevolmente ottenibile con approcci ben più semplici. Non è
così; il calcolo dei pesi attraverso dei criteri probabilistici produce il vantaggio
di ottenere la varianza di stima che gioca un ruolo fondamentale nella tecniche
del Kriging. Infatti, se si considerano i quattro dati disposti sugli spigoli di un
quadrato e si intenda stimare il valore nel suo baricentro, il kriging ordinario
assegna un peso pari a 0.25 ai dati relativi ai quattro vertici: il risultato è
analogo a quello ottenibile attraverso un qualsiasi altro metodo deterministico.
Se si assume un modello di variogramma con valore di sill unitario e nugget
assente, diventa determinante il range, quale fattore di scala del problema: la
varianza di stima, cioè l'attendibilità da riporre nella stima, aumenta al crescere
di tale fattore e in misura tanto più rilevante quanto meno continuità spaziale
esiste. Infatti, fissate le misure del quadrato, la stima dell'evolversi di un
fenomeno al suo interno, ha un'attendibilità che aumenta se la scala di
continuità diventa molto più grande delle dimensioni del quadrato. Comunque,
maggiore è la continuità spaziale e meno influente è il range sulla varianza di
stima. Si deve porre attenzione, quindi, a dati che mostrino una non elevata
continuità spaziale (es. variogramma di tipo sferico) e che abbiano una limitata
distanza di influenza: la ‘fiducia’ da riporre nella stima deve essere molto
contenuta in quanto, a parità di range, la varianza di stima sarà più elevata
rispetto ad altri tipi di continuità.
Si supponga, ora, di avere una variabile Z1, campionata in n1 posizioni del
piano z1(x11),…,z1(x1n1) e un’altra Z2, campionato in n2 pozzi z2(x21),…,z2(x2n2),
con n2<n1. La stessa impostazione si avrebbe nel caso in cui i campionamenti
si riferissero alla stessa variabile campionata in modo differente in due diversi
momenti temporali (D’Agostino et al., 1977).
25
Si vuole determinare la stima Z2 in un generico x0 facendo intervenire il
campione totale n1+n2. Nel fare questo, si assume che lo stimatore sia del tipo
kriging e, pertanto, che le sue proprietà siano quelle di minima varianza in x0,
fra tutti gli stimatori lineari non distorti:
Z 2* ( x 0 ) =
N1
∑λ
1i Z 1 ( x1i ) +
i =1
N2
∑λ
2 j Z 2 ( x 2i )
(5-25)
j =1
La condizione di linearità è già nella formulazione di Z*2(x0); quella di non
distorsione deriva dal porre la seguente:
[
]
E Z 2* ( x 0 ) − Z 2 ( x 0 ) = 0
(5-26)
La condizione di non distorsione, usando la linearità dello stimatore e
dell'operatore E produce la seguente relazione:
[
] ∑λ
E Z 2* ( x 0 ) − Z 2 ( x 0 ) =
N1
1i E [Z 1 ( x1i )] +
i =1
N2
∑ λ E[Z
2j
2 (x2 j )
]− E[Z 2 ( x 0 )] = 0
(5-27)
j =1
In condizioni di stazionarietà spaziale, si ha che E[Z(x)] = m. Ciò produce le
seguenti condizioni per i pesi:
N1
∑λ
=0
1i
i =1
N2
∑λ
(5-28)
2j
=1
j =1
La varianza da minimizzare, nel generico x0, può essere sviluppata come
segue:
{
}
[
] [
]
[
2
2
2
σ ck
= E ⎡ Z 2* ( x 0 ) − Z 2 ( x 0 ) ⎤ = E Z 2* ( x 0 ) + E Z 22 ( x 0 ) − 2 E Z 2* ( x 0 ) Z 2 ( x 0 )
⎥⎦
⎣⎢
]
(5-29)
Tale varianza quantifica l'incertezza prodotta dallo stimatore in x0 e, come
tale, rappresenta un indicatore della ‘fiducia’ da riporre nella stima in quel
punto.
La varianza va minimizzata tenendo presente i due vincoli che la condizione di
assenza di distorsione nella stima ha determinato sui pesi. Applicando la
tecnica di Lagrange che introduce i moltiplicatori μ1 e μ2 per i due vincoli, si
ottiene un sistema di n1+n2+2 equazioni in n1+n2+2 incognite:
26
n1
∑
λ1i γ 11 ( x1i − x1k ) +
i =1
n1
∑
n2
∑λ
2 j γ 21 ( x 2 j
− x1k ) + μ 1 = γ 12 ( x 0 − x1k )
2 j γ 22 ( x 2 j
− x 2l ) + μ 2 = γ 22 ( x 0 − x l )
j =1
λ1i γ 12 ( x1i − x 2l ) +
i =1
n2
∑λ
j =1
(5-30)
n1
∑λ
1i
i =1
n2
∑λ
2i
=0
=1
i =1
per k=1,2,..n1 e l=1,2,..,n2
La soluzione del precedente sistema produce i coefficienti sia per il calcolo
della stima che per il calcolo della varianza del cokriging:
2
σ ck
( x0 ) = μ 2 +
n1
∑
λ1i γ 21 ( x1i − x 0 ) +
i =1
n2
∑λ
2 j γ 22 ( x 2 j
− x0 )
(5-31)
j =1
Tale varianza, interpretata come misura dell'incertezza di stima in x0, dipende
dai modelli di auto- e cross-variogramma adattati sui dati e non direttamente
dalle misure rilevate, ad esempio, dai pozzi spia. In pratica, una fitta
distribuzione spaziale nell'intorno di x0, una buona continuità spaziale di tipo
auto- e cross-, implicano una maggiore fiducia da riporre nella stima del
cokriging prodotta in quel punto.
Traducendo la formula (5-24) secondo la simbologia qui introdotta si ottiene la
varianza di stima del kriging:
σ k2 ( x 0 ) = μ 2 +
n2
∑λ
2i γ 22 ( x 2i
− x0 )
(5-32)
i =1
La differenza fra le due varianze è nella sommatoria che contiene le
informazioni strutturali che derivano dall'incrocio delle misure. Nel caso
27
estremo in cui le variazioni incrociate siano non correlate, allora γ12(h) è di
tipo nugget e le varianze del kriging e del cokriging sono uguali.
5.3.5 - Tecniche facenti capo alla geostatistica non lineare: il kriging
disgiuntivo
Il kriging disgiuntivo (KD) e' una tecnica in grado di produrre, in ciascun
punto desiderato, una stima, una varianza di stima (DKEV) e una stima della
probabilità di superare determinati valori di soglia. Quest’ultima informazione,
in assenza di un modello multigaussiano per i dati, è disponibile poiché la
tecnica è di tipo non lineare (Verly ,1984).
Il KD è, quindi, una tecnica di tipo spaziale i cui risultati possono essere
rappresentati in forma di mappa di isoprobabilità dell'evento Z(x)>S, con S una
soglia prestabilita. In un qualsiasi punto, invece, è possibile ottenere una
distribuzione di probabilità cumulativa facendo variare la misura delle soglie.
Il KD permette di stimare la variabile Z(x) in un qualsiasi punto.
La varianza di stima del KD è generalmente più bassa di quella del kriging
ordinario anche se ciò ha dei costi in termini di tempi di elaborazione.
Come già descritto in precedenza, le tecniche del kriging, in generale, sono
basate su stimatori Z*(x) di Z(x) privi di errore sistematico e a minima
varianza. In termini probabilistici, quindi, si ricerca lo stimatore ottimale.
Questo è rappresentato dall'aspettazione condizionata di Z(x), una volta che
siano date le variazioni casuali Z(x1),Z(x2),..,Z(xn), associate ai punti x1,x2,..xn
del dominio di definizione. Se fosse nota la distribuzione di probabilità
congiunta di Z(x),Z(x1),Z(x2),..,Z(xn) allora si potrebbe determinare
l’aspettazione condizionata. E’ evidente che, tranne se non si utilizzino ipotesi
multigaussiane, si è nell’impossibilità di determinarla.
L'aspettazione condizionata è una funzione g(Z(x1),Z(x2),..,Z(xn)) di n variabili
aleatorie:
E[ Z ( x) Z ( x1 ),..., Z ( x n )] = g ( Z ( x1 ),..., Z ( x n ))
(5-33)
che, nel caso multigaussiano, è rappresentata da una forma linearmente
dipendente dai dati.
Quindi, se si opera con variabili ritenute normali allora è più conveniente usare
il kriging della geostatistica lineare in quanto è in grado di fornirci quella
‘ottimalità’ richiesta allo stimatore
n
g* = Z * =
∑ λ Z (x )
i
i =1
28
i
(5-34)
Da questo punto di vista, sembrerebbe che esista, anche se non esplicitata, una
ipotesi di normalità (anzi di multinormalità) per i dati affinché il KO sia in
grado di produrre delle stime ottime. In effetti, però, il KO si può applicare
senza nessuna restrizione sulla pdf dei dati. Tra l’altro, l’esistenza di diverse
tecniche di kriging (univariato e multivariato, lineare non lineare, parametrico
e non parametrico) stanno a significare che si tende, in qualche modo, a
raggiungere la "ottimalità" che solo la multinormalità è in grado di garantirci
con il KO.
Una via intermedia per la ipotesi forte di multinormalità è il KD che
approssima la funzione aspettazione condizionale g(Z(x1),Z(x2),..,Z(xn)) come
una combinazione lineare delle aspettazioni condizionali di Z rispetto alle
singole variabili Z(xi). Questa approssimazione può essere costruita assumendo
una ipotesi meno forte della multinormalità. Quella, cioè, che sia gaussiana sia
la singola Z(xi) che la bivariata riferita ad una qualsiasi coppia Z(xi), Z(xj). Il
KD, quindi, approssima la g attraverso n-funzioni fi ciascuna delle quali
dipende dalla singola variazione Z(xi). Come tale è in grado di produrre una
varianza di stima più piccola rispetto alle tecniche del Kriging lineare,
avvicinandosi alla ottimalità. Le funzioni fi possono assumere una qualsiasi
forma non lineare.
Si può definire, così, lo stimatore del KD come segue:
n
Z *KD
=
∑ f (Z )
i
i
(5-35)
i =1
Per ottenere una stima nel generico punto x0 che sia di tipo KD, è necessario
adottare delle ipotesi sul modello Z(x).
− prima ipotesi è la stazionarietà del secondo ordine, cioè, il drift è assente,
la varianza di Z(x) è definita ed è indipendente dalla specifica posizione x,
la funzione di covarianza è dipendente solo dalla distanza di separazione
fra coppie di punti. In altri termini, la distribuzione bivariata di Z(xi),Z(xj) è
la stessa di quella per Z(xi+h),Z(xj+h);
− seconda ipotesi è l'esistenza di una funzione φ che trasformi Z(x), avente
una pdf qualsiasi, in una Y(x) di tipo normale standard;
− terza ipotesi è che la trasformazione produca, per qualsiasi coppia
Y(xi),Y(xj), una normale bivariata.
Le sopracitate ipotesi di stazionarietà del secondo ordine e di normalità
bivariata, permettono di formulare l'aspettazione condizionata in termini di
funzione di covarianza (Rivoirard, 1984).
29
Per soddisfare la seconda ipotesi è necessario che sia definita la funzione di
trasformazione dei dati in modo tale da farli appartenere ad una distribuzione
normale, anche se originariamente non lo sono.
Lo stimatore (5-35) fa riferimento a delle funzioni fi che possono essere
rappresentate dai polinomi di Hermite.
Questi sono funzioni ortogonali rispetto alla funzione peso exp(-u2/2)
nell'intervallo [-∞,∞]. Sono definiti, per un certo ordine k, dalla formula di
Rodriques (Abramowitz e Stegun, 1965):
H k = (−1) k exp( y 2 / 2)d k (exp(− y 2 / 2)) / dy k
(5-36)
e possono essere valutati dalla relazione ricorsiva:
H k +1 ( y ) = yH k ( y ) − kH k −1 ( y )
(5-37)
dove H0(u)= 1 e H1(u)= u.
Con i polinomi di Hermite si intende approssimare la funzione aspettazione
condizionata e definire, così, lo stimatore del KD. Ma, quali proprietà devono
avere le funzioni affinché esse siano ben approssimate dall’espansione
hermitiana?
Esistono molte funzioni φ che possono essere rappresentate come una serie
infinita di polinomi Hk(u) di Hermite nella forma:
∞
φ(y) = ∑ C k H k (y)
(5-38)
k =0
dove i Ck sono i coefficienti che vanno individuati sfruttando la proprietà di
ortogonalità dei polinomi Hk. Una condizione sufficiente per garantire a φ una
rappresentazione Hermitiana è che l'integrale seguente sia finito nel senso
della media quadratica:
∫
∞
−∞
φ ( y ) 2 exp(− y 2 / 2)dy
(5-39)
La relazione di ortogonalità per polinomi di Hermite è la seguente:
per k ≠ k ′
per k = k ′
∫
∫
∞
−∞
∞
−∞
H k ( y ) H k ' ( y ) exp(− y 2 / 2)dy = 0
(5-40)
H k ( y ) H k ' ( y ) exp(− y 2 / 2)dy = (k! )(2π )1 / 2
(5-41)
30
Attraverso le precedenti relazioni possono essere definiti i coefficienti Ck:
Ck
∫
=
∞
−∞
φ ( y ) H k ( y ) exp(− y 2 )dy
(5-42)
k!2π 1 / 2
Tale integrale non può essere valutato analiticamente in quanto φ(u) è
incognito. Abramowitz e Stegun (1965) propongono, quindi, una tecnica di
integrazione numerica che si basa solo su alcuni punti particolari, forniti dagli
stessi autori, vi e wi:
C k = 1 /( k!2π 1 / 2 )
J
∑ w φ (v ) H
i
i
k
(v i ) exp(−v i2 / 2)
(5-43)
i =1
Se φ(X) è funzione di una variabile X aleatoria normale standard allora
Z=φ(X), vista in termini di espansione Hermitiana, ha la seguente media μZ e
varianza σ2Z
μ Z = C0
σ Z2 =
(5-44)
∞
∑ k! C
2
k
k =1
(5-45)
Si noti che la serie nella formula (5-45) incomincia dal termine k=1.
I coefficienti della trasformazione Hermitiana assumono, quindi, una forma
ben individuabile se la distribuzione di partenza Z è di tipo normale o
lognormale. In questo caso valgono le relazioni espresse dalla tabella 5-1.
Nelle ipotesi fatte per l’uso del KD (in particolare la seconda e la terza) si fa
riferimento alla normalità singola e bivariata di due generiche variabili
aleatoria, ad esempio U e V. In questo caso, infatti, tenendo conto che
l’aspettazione condizionale di U dato V=v è definita dall’eq. (5-46), risulta che
la pdf bivariata di U e V è data dalla (5-47).
E[U v] =
∞
f ( x, y ) =
∑ (ρ
XY
∫
+∞
−∞
uk (u v)du
) k H k ( x) H k ( y )g ( x) g ( y ) / k!
(5-46)
(5-47)
k =0
k(u|v) è la pdf condizionata, ρXY è il coefficiente di correlazione mentre g
rappresenta la pdf normale standard. Dalla formula (5-47) e definizione (5-46)
è immediato esprimere l’aspettazione condizionale di una funzione, φ(X):
E[φ ( X ) Y ] =
∞
∑ (ρ
XY
k =0
31
) k C k H k (Y )
(5-48)
Tab. 5-1: Coefficienti di Hermite nel caso di variabili aleatorie normali e lognormali
Ck (caso normale)
0
1
2
3
4
5
6
7
8
9
μ
σ2
0
0
0
0
0
0
0
0
Ck (caso lognormale)
e μ [1 +
σ2
2
σ3
e μ [σ +
eμ [
σ2
eμ [
σ3
eμ [
σ4
eμ [
σ5
eμ [
2
+
2
6
+
+
24
σ6
720
σ7
eμ [
σ8
eμ [
σ9
7!
8!
9!
+
+
4
σ .5
12
σ .6
48
σ .5
σ6
+
16
σ7
+
240
48
σ .8
1440
σ .9
10080
σ 10
80640
σ7
48
960
+
+
σ9
+
384
+
σ9
288
+
σ9
384
96
+
192
σ8
σ8
+
σ8
+
+
48
+
8
+
σ6
+
8
σ .7
+
+
σ4
σ .4
+
120
eμ [
+
σ 10
3840
+ ...]
+ ...]
σ 10
768
+ ...]
+ ...]
σ 10
1152
+ ...]
+ ...]
σ 10
5760
+ ...]
+ ...]
+ ...]
+ ...]
Si ricorda, comunque, che la normalità bivariata, per ciascuna coppia di
variabili non implica la normalità della congiunta multivariata n+1. Nel caso
particolare in cui Y(x) sia una FA stazionaria, cioè ciascuna coppia Y(xi),Y(xj)
ha la stessa pdf bivariata che Y(xi+h),Y(xj+h) e, inoltre, Y(X) sia normale
bivariato, allora il coefficiente di correlazione dipende solo dalla particolare
coppia. In generale, in luogo del coefficiente di correlazione, si usa la funzione
di covarianza.
32
Kriging Disgiuntivo: generalità
Il KD rappresenta una forma di kriging non lineare che, generalmente, offre un
miglioramento, in termini di varianza di stima, rispetto al kriging lineare e che
non richiede la conoscenza della distribuzione di probabilità congiunta n+1
necessaria per la valutazione della aspettazione condizionale e il
raggiungimento dell’ottimalità della stima (cioè minima varianza di stima)
(Matheron 1976). Il KD, infatti, richiede la conoscenza solo della distribuzione
congiunta bivariata in luogo di quella n+1.
Quando una variabile sia normale (o lognormale) uni- e bivariata, lo stimatore
lineare o lognormale del kriging ordinario, nota la media, è identico allo
stimatore del KD. Se si aggiunge l’assunzione che la distribuzione multivariata
sia normale allora lo stimatore lineare e quello non lineare del kriging sono
identici all’aspettazione condizionale. La varianza di stima e la stima
permettono, così, di calcolare la probabilità condizionata di superamento di
certi valori di soglia.
Un’assunzione implicita nel metodo KD è l’esistenza di una trasformazione
gaussiana φ(X) che sia unica ed invertibile. Questa trasformazione deve
produrre una FA che sia normale standard, partendo da una qualsivoglia
distribuzione.
Un’altra assunzione è che la FA prodotta dalla trasformazione sia anche una
pdf normale bivariata per qualsiasi coppia di punti. Queste assunzioni sono
necessarie solo per permettere di scrivere l’aspettazione condizionata in
termini di funzione di correlazione (5-48).
La trasformazione è applicata per Z(x) per almeno tre ragioni:
1. è conveniente lavorare con una normale per permettere di gestire
agevolmente l’aspettazione condizionata;
2. esiste sempre una trasformazione che permette di passare da una
distribuzione arbitraria di Z(x) ad una normale Y(x) (Feller, 1968), in
questo senso il KD è un metodo generale perché può essere formulato una
sola volta, qualsiasi sia la distribuzione di partenza per Z(x);
3. elimina la necessità di definire una assunzione limitante che passi
attraverso la specifica di una prefissata distribuzione, come per il caso del
kriging lognormale.
Ora, sia Z(x) una FA stazionaria del secondo ordine che sia campionata in n
punti Z(x1),Z(x2),..,Z(xn), con x1,x2,..xn punti del piano. Applicando una
trasformazione a ciascun valore Z(xi) si produce un nuovo valore Y(xi) che
appartiene ad una normale standard. Il KD è impostato come somma di
funzioni non lineari, laddove ciascuna funzione dipende da uno ed uno solo
valore normale trasformato Y(xi):
33
∑
i =1
∞
n
n
Z *KD =
f i [Y ( x i )] =
∑∑ f
ik H k [Y ( x i )]
(5-49)
i =1 k = 0
laddove fi [Y(xi)] è la funzione che deve essere determinata ed espressa in
termini di una serie di polinomi di Hermite e di costanti fik, che dipendono dal
punto i e dal polinomio k.
Le condizioni imposte allo stimatore (5-49) sono le solite delle tecniche del
kriging, cioè lo stimatore deve produrre la migliore stima non distorta e a
minima varianza dell’errore.
L’esistenza di una trasformazione da Y(x) a Z(x) implica una equivalenza nella
formulazione del problema, per cui si può fare riferimento tanto a fi [Y(xi)] che
a fi [Z(xi)].
Journel e Huijbregts (1978, p. 568) danno una suggestiva lettura del problema,
in termini di teoria delle funzioni misurabili. La minima varianza si ha quando
Z(x0)-Z*KD(x0) è perpendicolare alle funzioni f [Z(xi)], nell’iperpiano definito
dalle funzioni misurabili fi [Z(xi)]. Pertanto, usando la proiezione
perpendicolare, equivalentemente, imponendo che i vettori Z(x0)-Z*KD(x0) e
f [Z(xi)] siano ortogonali, si può scrivere:
{
}
*
E[ Z ( x 0 ) − Z KD
( x 0 ) f [ Z ( x i )]] = 0
(5-50)
*
E[ Z ( x 0 ) f [ Z ( x i )]] = E[ Z KD
( x 0 ) f [ Z ( x i )]]
(5-51)
o, equivalentemente,
In termini di aspettazione condizionata, la (5-51) può essere riscritta come:
*
E[ Z ( x 0 ) Z ( x j )] = E[ Z KD
( x 0 ) Z ( x j )]
(5-52)
per j=1,2,…,n
Si introduce, ora, la funzione di trasformazione φ(Y[x]), che permette di
trasformare un qualsiasi valore normale in uno appartenente alla pdf di Z(x):
φ [Y ( x)] = Z ( x) =
∞
∑C H
k
k [Y ( x )]
(5-53)
k =0
laddove Y(x) è di tipo normale bivariato e i Ck sono calcolati mediante le
equazioni (5-42) o (5-43).
34
Incorporando la (5-49) e la parte più a sinistra della (5-53) dentro l’eq. (5-52)
si ottiene
E[φ [Y ( x 0 )] Y ( x j )] =
n
∑ E[ f [Y ( x )]Z
i
i
*
KD ( x 0 ) Y ( x j )]
i =1
(5-54)
per j=1,..,n
Le incognite si trovano applicando la (5-48) alla (5-54), troncando la serie
infinita ai primi K termini:
⎧
⎪
K
⎪
C k H k [Y ( x j )]⎨( ρ 0 j ) k −
⎪
k =o
⎪
⎩
∑
per j=1,..,n
n
∑f
i =1
⎫
( ρ ij ) k ⎪
⎪
⎬=0
Ck
⎪
⎪
⎭
ik
(5-55)
Definendo bik = f ik / Ck e notando che la (5-55) deve essere soddisfatta per tutti
gli indici k del sistema del KD, si ottiene:
K
Z *KD ( x 0 ) =
∑C
K
H k* [Y ( x 0 )]
(5-56)
k =0
laddove H*k[Y(x0)] è il valore stimato di Hk[Y(x0)] ed è scritto come una somma
pesata di polinomi di Hermite valutati sui valori del campione:
n
∑b
H *k [Y ( x 0 )] =
iK H k [Y ( x i )]
(5-57)
i =1
e i pesi bik sono determinati attraverso la soluzione del sistema del kriging
lineare:
(ρ0 j ) k =
n
∑b
ik
( ρ ij ) k
(5-58)
i =1
j=1,...,n
Per k=0, la (5-58) rappresenta l’assenza di sistematicità:
n
∑b
i0
=1
(5-59)
i =1
che significa C0 = μZ.
Lo stimatore in x0 ci dice che, in funzione dei K coefficienti dell'espansione di
Hermite, si deve stimare il polinomio di ordine k in x0, cioè,
35
n
*
Z KD
( x0 ) == C0
∑b
i0
+ C1H1* [Y ( x0 )] + ... + CK H K* [Y ( x0 )]
i =1
da cui:
*
Z KD
( x0 ) = media + C1H1* [Y ( x0 )] + ... + CK H K* [Y ( x0 )]
Si devono, pertanto, determinare, Kxn coefficienti:
⎡b10
⎢b
⎢ 11
⎢ ...
⎢
⎣b1k
... bn 0 ⎤
... bn1 ⎥⎥
... ... ⎥
⎥
... bnk ⎦
La generica riga k è ottenuta risolvendo il seguente sistema lineare:
⎡ (ρ11 )k
⎢
⎢ ...
⎢( ρ ) k
⎣ n1
...
(ρ1n )k ⎤
⎥
...
... ⎥[b1k
... (ρ nn )k ⎥
⎦
... bnk ]T
⎡ (ρ 01 )k ⎤
⎢
⎥
= ⎢ ... ⎥
⎢( ρ ) k ⎥
⎣ 0n ⎦
La KDEV, varianza di stima del KD, si trova dalla
*
*
var[Z ( x 0 ) − Z KD
( x 0 )] = E[ Z ( x 0 ) 2 ] − E[ Z ( x 0 ) Z KD
( x 0 )]
cioè
2
σ KDEV
=
K
∑
n
k! C k2 [1 −
k =1
∑b
ik
( ρ 0i ) k ]
(5-60)
(5-61)
i =1
La probabilità condizionata
Per determinare la probabilità condizionata usando il KD, si deve riformulare
il problema in modo che il KD, stimando l’aspettazione condizionata, possa
stimare anche la probabilità condizionata.
Sia Θ yc [Y ( xi )] la funzione indicatore basata sul valore di soglia trasformato
yc, tale che
Θ yc [Y ] = 1
se Y ≥ y c
Θ yc [Y ] = 0
se Y < y c
36
(5-62)
Questo permette di scrivere la seguente
P[Y ( x 0 ) ≥ y c Y ( x i )] = P[Θ yc [Y ( x 0 )] = 1Y ( x i )]
(5-63)
da cui l’aspettazione diventa
E[Θ yc [Y ( x 0 )] Y ( xi )] = P[Θ yc [Y ( x0 )] = 1Y ( xi )]
(5-64)
poiché Θyc [Y] = 0 per -∞ < Y < yc e Θyc [Y] = 1 per yc < Y < ∞. Pertanto, la
probabilità condizionata che Y(x) (o Z(x)) sia più grande di yc (o zc) è data dalla
aspettazione condizionata della funzione indicatore Θyc [Y]. Espandendo Θyc
[Y] in termini di una serie infinita di polinomi di Hermite rispetto ai punti
campione, si ottiene:
K
Θ yc [Y ( x0 )] =
∑ϑ H [Y ( x )]
k
k
0
k =0
(5-65)
che rappresenta lo stimatore della probabilità condizionata, P*(x0), mentre i ϑk
sono i coefficienti dell’espansione. Applicando l’ortogonalità quale metodo
per valutare le ϑk si ottiene:
o
ϑk =
∫
∞
−∞
Θ yc (u ) H k (u ) g (u )du
ϑk =
∫
∞
yc
H k (u ) g (u )du
(5-66)
(5-67)
laddove g(u) è la pdf normale e u è la variabile di integrazione. Dalla
definizione di Hk(u) e g(u) si possono calcolare i coefficienti.
Per k=0, il coefficiente è
ϑ0 = 1 − G ( y c )
(5-68)
con G(u) che rappresenta la normale cumulativa di g(u). Per k>0, dalla
formula di Rodrigues (Abromowitz e Stegun, 1965), si ottengono gli altri
coefficienti:
ϑk =
g ( yc ) H k −1 ( yc )
k!
37
(5-69)
Sostituendo le (5-68) e (5-69) nella (5-65), si ottiene lo stimatore della
probabilità condizionata, P*(x0), in termini della funzione indicatore:
K
Θ yc [Y ( x 0 )] = 1 − G ( y c ) + g ( y c )
∑
k =1
H k −1 ( y c ) H k [Y ( x 0 )]
k!
(5-70)
La sola incognita nella formula (5-70) è Hk[Y(x0)]. Usando lo stimatore
H*k[Y(x0)] della (5-57) e sostituendolo nella (5-70) si ottiene lo stimatore della
probabilità condizionata nel punto x0:
K
P * ( x0 ) = 1 − G( y c ) + g ( y c )
∑
k =1
H k −1 ( y c ) H k* [Y ( x 0 )]
k!
(5-71)
La pdf di Θyc[y] è
⎧⎪
Θ 'yc [u ] = g (u )⎨1 +
⎪⎩
K
∑
k =1
H k (u ) H k* [Y ( x 0 )] ⎫⎪
⎬
k!
⎪⎭
(5-72)
che permette di descrivere lo stimatore della probabilità condizionata in questa
forma alternativa:
P * ( x0 ) =
∫
∞
yc
Θ 'yc du = Θ yc [Y ( x 0 )]
(5-73)
I fattori che influenzano la probabilità condizionata P* sono, tra gli altri, il
valore soglia yc, il valore stimato di Hk[Y(x0)], e la funzione di correlazione. Se
yc è grande ed è negativo allora G(yc) e g(yc) saranno vicini allo 0 e P* sarà
prossima a 1. Quando yc è grande ed è positivo allora G(yc) sarà vicina ad 1 e
g(yc) a 0: la conseguenza di questo sarà che P* sarà prossima a 0.
Anche il valore stimato di Hk[Y(x0)] e la funzione di correlazione influenzano il
risultato anche se ciò non è analiticamente evidenziabile. Se la distanza tra
campioni e x0 diventa grande (cioè maggiore del range) allora si hanno due
possibilità:
1. se la distanza fra tutti i campioni è più grande del range allora tutte le bik,
per k>0, sono 0 e P*(x0)=1-G(yc)
2. se almeno qualcuna delle coppie relative ai campioni è dentro il range
allora interviene anche il terzo termine presente nella formula (5-71).
38
La pratica del Kriging Disgiuntivo
L'applicazione del KD richiede, preliminarmente, l’analisi esplorativa dei dati
con l’intento, tra l’altro, di verificare se i dati siano log-normali o normali.
Allo scopo è possibile utilizzare il test non parametrico di KolmogorovSmirnov (Sokal e Rohlf, 1981, Rao et al., 1979).
I software esistenti, in grado di eseguire il KD, prevedono due passi. Il primo è
propedeutico al secondo e permette il calcolo dei coefficienti Ck che
definiscono l'espansione Hermitiana. Nel caso in cui i dati siano normali (o
log-normali, nel senso che i log dei dati sono normali) si conoscono i primi
due momenti in funzione di Ck dalle formule (5-45) e (5-46). Il secondo passo
è simile alle altre tecniche del kriging e prevede l’inserimento di tutte le
informazioni su: modello di variogramma, modalità di ricerca degli intorni, e
grigliato.
Chi ha avuto confidenza con le tecniche del kriging e sui relativi software,
alcuni dei quali di pubblico dominio, ad esempio GEOEAS (Englund e Sparks,
1989), non ha difficoltà a praticare il secondo passo del KD. Non è così per la
prima fase.
Attraverso un esempio numerico si evidenziano gli elementi critici che
riguardano la preparazione delle informazioni necessarie per l’interpolazione
del KD: trascurare alcuni di questi elementi può produrre dei risultati inattesi.
La tecnica del KD si basa su una variazione aleatoria di tipo normale standard,
indicata con Y(xi).Essa è legata alla variabile in esame, indicata con Z(xi),
attraverso una trasformazione che deve permettere di ottenere Y(xi) assegnata
Z(xi) e viceversa. Si considerino, ad esempio, i dati, riportati in tabella 5-2, con
zi valore misurato della funzione Z(xi) nei punti del piano xi=(ui,vi):
Tab. 5-2: Esempio di dati
ui
5
4
8
1
8
5
1
4
vi
1
4
8
1
4
5
5
8
Media
Varianza
n
39
zi
0.8
2.0
2.0
2.0
2.4
2.5
3.1
4.6
2.425
1.196429
8
Un modo per trovare la trasformazione in questione è il seguente. Si mettano
in ordine crescente i valori zi e si valuti il rango (posizione) di ciascuno di essi
all’interno dell’insieme degli otto valori. Si stimi la probabilità cumulata in zi
come:
PR(i ) = F ( z i ) = Pr ob( Z ( x) < z i ) =
n + 1 − rango − 0.5
n
(5-74)
e si valuti il punto della normale standard, corrispondente a PR(i), ed indicato
con YZ(i):
Tab. 5-3: Valore zi, rango, probabilità cumulata PR(i), valore normale YZ(i)
i
1
2
3
4
5
6
7
8
zi
0.8
2.0
2.0
2.0
2.4
2.5
3.1
4.6
rango
8
5
5
5
4
3
2
1
PR(i)
0.0625
0.4375
0.4375
0.4375
0.5625
0.6875
0.8125
0.9375
1-PR(i)
0.9375
0.5625
0.5625
0.5625
0.4375
0.3125
0.1875
0.0625
YZ(i)
-1.534
-0.157
-0.157
-0.157
0.1573
0.4888
0.8871
1.5341
Guardando la tabella 5-3, si può osservare, ad esempio, che –1.534 è il valore
della normale standard fino al quale si cumula 0.0625 di probabilità.
Graficamente, il processo è ben descritto dalla figura 5-1 che rappresenta la
cumulata di una Z(x) e di una normale standard: a parità di valore sulle
ordinate che rappresentano le probabilità che si cumulano, sono individuabili
due distinti valori sulle ascisse (zi e YZ(i)).
Il valore YZ(i) si può ottenere in vari modi. Disponendo di un foglio
elettronico EXCEL (1997), la funzione INV.NORM restituisce il valore
desiderato fornendo in input il valore zi. Lo stesso YZ(i) può essere ottenuto
approssimativamente (Verly, 1984). Si consideri il valore più piccolo fra Pr(i)
e (1-Pr(i)). Ad esempio, per i=5, il valore più piccolo è t=0.4375. Si calcoli tt
= √-2ln(t) e, quindi,
ttt = tt - ((0.010328·tt + 0.802853)·tt + 2.515517) / (((0.001308·tt +
0.189269)·tt + 1.432788)·tt + 1)
40
che, per la riga dell’esempio, è ttt=0.157.
1
0.8
0.6
0.4
0.2
0
1
0.8
0.6
0.4
0.2
0
0
10
20
-4
30
-2
0
2
4
Fig. 5-1: Grafici di due cumulate. Quella più a sinistra rappresenta una
generica Z(x), quella più a destra rappresenta una normale standard.
La YZ(i) cercata sarà ttt se il valore di zi è più grande di 0.5 (come per
l’esempio), altrimenti è necessario prendere il corrispondente simmetrico –ttt.
Adesso dobbiamo essere in grado di costruire una funzione che trasformi un
qualsiasi numero fra 0 e 1 (cioè una probabilità) in un corrispondente valore di
Z(x). Questo può essere realizzato attraverso una polinomiale che si vada ad
adattare al meglio, nel senso dei minimi quadrati, alle coppie sperimentali (zi,
Pr(i)): ecco un elemento critico del KD, prima fase. Si sta cercando di
costruire la funzione z=φ(y). Si estraggano le colonne di interesse dalla tabella
5-4 dell’esempio.
Tab. 5-4: Coppie sperimentali (zi, Pr(i))
zi
0.8
2.0
2.0
2.0
2.4
2.5
3.1
4.6
Pr(i)
0.0625
0.4375
0.4375
0.4375
0.5625
0.6875
0.8125
0.9375
Il grafico relativo è nella figura 5-2:
41
5
4
zi
3
2
1
0
0
0.2
0.4
0.6
0.8
1
Pr(i)
Fig. 5-2: Grafico sperimentale della funzione z=φ(y).
Se si ipotizza un polinomio di ordine 3, i coefficienti determinati con il criterio
dei minimi quadrati sono riportati nella tabella 5-5.
Tab. 5-5: Coefficienti della trasformazione
Coefficiente
Valore
c0
0.194747
c1
10.873055
c2
-22.634060
c3
17.048210
Cioè z = φ*(y) = c0 + c1y + c2y2 + c3y3. La colonna Errore della tabella 5-6
fornisce la differenza fra zi sperimentale e quello stimato: valutando questi
errori si può decidere se aumentare l’ordine del polinomio per migliorare la
stima stessa.
Tab. 5-6: Valori stimati di z sulla base del polinomio di terzo grado
zi
Pr(i)
zi stimato Errore
0.8 0.0625
0.7901 0.0099
2.0 0.4375
2.047
-0.047
2.0 0.4375
2.047
-0.047
2.0 0.4375
2.047
-0.047
2.4 0.5625
2.1835 0.2165
2.5 0.6875
2.5117
-0.012
3.1 0.8125
3.2314
-0.131
42
A questo punto si deve valutare il numero e la stima dei coefficienti Ck di
Hermite. Nella formula (5-43) sono previste delle ascisse che permettono di
individuare le probabilità cumulate vi e dei fattori peso wi che sono forniti da
Abramowitz e Stegun (1965) in due soli casi: 5 o 10. Ecco un altro elemento
critico del KD passo 1: la scelta del numero 5 o 10 relativa alla formula dei Ck.
In particolare si ha (tabelle 5-7 e 5-8):
Tab. 5-7: Ascisse e pesi, in numero pari a 10, da utilizzare nel calcolo dei
coefficienti di Hermite
Ascisse ai
wi
0.2453407
0.4763668
0.7374737
0.3762616
1.2340762
0.2334523
1.7385377
0.1124518
2.2549740
0.0412310
2.7888061
0.0111540
3.3478546
0.0021186
3.9447640
0.0002600
4.6036825
0.0000176
5.3874809
0.0000004
Tab. 5-8: Ascisse e pesi, in numero pari a 5, da utilizzare nel calcolo dei
coefficienti di Hermite
Ascisse ai
wi
0.3429013
0.6478523
1.0366108
0.4109606
1.7566837
0.1584799
2.5327317
0.0332067
3.4361591
0.0027991
43
Nella colonna wi è considerato il prodotto fra il peso (proposto da Abramowitz
e Stegun) e exp(-a2i / 2), cfr. equazione (5-43). Riprendendo l’esempio
numerico, si deve essere in grado di trasformare le ascisse, che sono valori di
una normale standard, in probabilità cumulate vi in modo tale da poter
calcolare φ*(vi).Poiché le ascisse si riferiscono alla distribuzione normale esse
vanno considerate anche con il segno negativo: il contatore J dell’equazione
(5-43) sarà uguale a 20 oppure a 10 a secondo della scelta fatta sul numero
delle ascisse di Abramowitz e Stegun.
Per ottenere vi si può fare uso di un foglio elettronico EXCEL (1997), e
impostare la funzione DISTRIB.NORM per ciascuna delle 10 (o 5) ascisse
positive e 10 (o 5) corrispondenti ascisse negative. In alternativa, si può
utilizzare la seguente formula approssimata della cumulativa normale standard
(Verly, 1984):
se ai < 5
1
vi = 1 − (1 + (((0.019527 ai + 0.000344) ai + 0.115194) ai + 0.196854) ai ) − 4
2
se ai ≥ 5
vi =
a
1
(1 + i ) .
ai
2
Per l’esempio numerico, attraverso il polinomio di ordine tre precedentemente
identificato, è possibile ottenere i seguenti valori di φ*(vi), nel caso in cui J=20
(e cioè 10 ascisse positive e 10 negative), come riportato in tabella 5-9.
Della formula (5-43) si conoscono, a questo punto, tutti i termini interessati, a
patto che si siano decisi quanti K polinomi considerare. Questa è un’ulteriore
decisione, e caratterizza il terzo punto critico che conclude la fase 1 del KD.
Quindi, riepilogando, le decisioni riguardano:
− ordine del polinomio che permette di ottenere il valore di z, a partire da un
qualsiasi valore di probabilità cumulata, intesa di tipo normale standard
(cioè z=φ*(yi));
− numero delle ascisse e pesi da considerare nella formula (5-43) che
permette il calcolo del generico Ck;
− numero di polinomi K di Hermite, o equivalentemente, numero di
coefficienti Ck da considerare.
44
Tab. 5-9: Valori approssimati della trasformazione φ(vi) nelle coordinate
prescelte
ai
vi
φ*(vi)
0.2453407
0.5968594
2.24614
0.7374737
0.7696071
2.927849
1.2340762
0.8912459
3.975649
1.7385377
0.9591647
4.844363
2.2549740
0.9879589
5.284375
2.7888061
0.9971315
5.434142
3.3478546
0.9994189
5.472232
3.9447640
0.9998956
5.480206
4.6036825
0.9999833
5.481675
5.3874809
1.0000000
5.481955
-0.245341
0.4031406
2.016565
-0.737474
0.2303929
1.706876
-1.234076
0.1087541
1.131462
-1.738538
0.0408353
0.60217
-2.254974
0.0120411
0.322419
-2.788806
0.0028685
0.225751
-3.347855
0.0005811
0.201058
-3.944764
0.0001044
0.195882
-4.603682
0.0000167
0.194929
-5.387481
0.0000000
0.194747
La formula (5-37) fornisce un modo ricorsivo per calcolare i valori del
polinomio di Hermite nei punti ai (positivi e negativi) previsti.
A titolo di esempio, considerando la prima ascissa, si ottengono i seguenti
valori dei polinomi dall’ordine zero fino a quello di ordine K=13 prescelto.
Si tenga presente che il polinomio di ordine zero è sempre uguale a 1 mentre
quello di ordine 1 è sempre uguale all’ascissa ai considerata.
La formula ricorsiva (5-37) può essere, a questo punto, applicata (tabella 510).
Se tutte le scelte effettuate sono efficaci (ad esempio: ordine polinomio 3, 10
ascisse per il calcolo dei coefficienti, e 13 polinomi di Hermite) allora si deve
essere in grado di riprodurre la media (formula (5-44)) e la varianza (formula
(5-45)) dei dati.
45
Tab. 5-10: Valore del polinomio di Hermite nel punto di ascissa ai=0.245
k
Hk(ai)
0
1.000
1
-0.245
2
-0.940
3
0.721
4
2.642
5
-3.533
6
-12.345
7
24.229
8
80.474
9
-213.574
10
-671.868
11
2300.576
12
6826.128
13
-29281.637
Considerando l’esempio, si ottengono i seguenti coefficienti Ck (tabella 5-11).
Tab. 5-11: Coefficienti dell’espansione Hermitiana
k
Ck
0
2.3492
1
1.0698
2
0.1350
3
0.0011
4
-0.0188
5
-0.0095
6
0.0017
7
0.0013
8
-0.0001
9
-0.0001
10
0.0000
11
0.0000
12
0.0000
13
0.0000
46
I coefficienti maggiori di 10 sono poco significativi: ecco un elemento da
tenere presente durante la fase 1 del KD. Si consideri la tabella 5-12, costruita
attraverso le formule (5-44) e (5-45).
Tab. 5-12: Statistiche del campione e dell’approssimazione Hermitiana
Hermite
Dati
Media
2.349
Media
2.425
Varianza
1.221
Varianza
1.196
Si può, da questa, dedurre quanto buono è il pre-processo del KD: più siamo
vicini alla media e varianza dei dati e più le approssimazioni coinvolte saranno
giudicate buone.
Si tratta ora di applicare il KO per K volte. Per risolvere il sistema del KO è
necessario costruirsi le matrici del KO. Nella fattispecie, dall’equazione (5-56)
si deduce che, una volta determinati i K coefficienti Ck, si può stimare il
polinomio di Hermite nel punto generico x0. L’equazione (5-57) indica che,
per ciascun k, è necessario determinare n coefficienti lineari che pesano i
valori dei polinomi di Hermite calcolati nei punti yi, ottenuti dalla
trasformazione di ciascun zi nel corrispondente normale standard yi. La matrice
del KO per il generico k di K è identificato dall’equazione (5-58).
47
5.4 - L’approccio proposto su un caso di studio
La valutazione del rischio, inteso come probabilità di superamento di
assegnate soglie critiche in un determinato intervallo di tempo, può essere
risolto attraverso il kriging disgiuntivo.
In questo paragrafo si applica il kriging disgiuntivo ad un caso di studio
riguardante il valore della concentrazioni dei nitrati nelle acque sotterranee
della pianura Modenese. Lo studio condotto è basato sui valori di
concentrazione fissati dalla Legge italiana per l’uso potabile della risorsa
idrica (DPR n.236/88, 1988) che sono, rispettivamente, 10 mg/L, come valore
guida e 50 mg/L come valore massimo ammissibile.
Elaborando campioni di dati misurati in diversi pozzi di monitoraggio e per
diverse stagioni è stato possibile tracciare numerose mappe di iso-probabilità,
ognuna delle quali rappresentativa di una condizione spaziale nella
corrispondente stagione di campionamento. La mappa finale del rischio deve
essere una sintesi di tutte queste che, pur nella sua schematicità, deve
mantenere una significativa rappresentatività. Quest’ultima, naturalmente,
deve essere calibrata al tipo di problema esaminato ed alle possibili decisioni
che si intendono adottare.
5.4.1 - Descrizione dell’area
Il presente studio prende in considerazione l’area della media e alta pianura
modenese. Si tratta di un’area rettangolare che si estende per trenta chilometri
in direzione NO-SE e per quaranta chilometri in direzione NE-SO per
complessivi milleduecento chilometri quadrati di superficie. A tale zona è stato
associato un sistema di riferimento che ha origine nel vertice inferiore di
sinistra dell’area rettangolare individuata, ricadente a SO di Sassuolo,
caratterizzata dalle coordinate geografiche 1640000E e 4926000N rispetto al
reticolato chilometrico italiano. L’area considerata, delimitata a sud
dall’Appennino Tosco-Emiliano, è solcata dai fiumi Secchia e Panaro che
scorrono, rispettivamente ad ovest e ad est della città di Modena.
48
La pianura modenese è stata oggetto di numerosi studi e ricerche finalizzate,
nella maggior parte dei casi, ad individuare soluzioni al problema
dell’approvvigionamento idropotabile. (Visentini, 1935; Colombetti et al.,
1980; Paltrinieri e Pellegrini, 1990; Barelli et al, 1990; Vicari e Zavatti, 1990).
Ricerche approfondite concernenti l’idrogeologia dell’acquifero e la
vulnerabilità della falda (AA.VV., 1996) hanno prodotto una cospicua
cartografia tematica informatizzata riguardante, tra l’altro, l’idrogeologia, le
tessiture dei depositi superficiali, l’infiltrabilità, la vulnerabilità e
l’inquinamento reale e potenziale delle acque sotterranee.
Dal punto di vista geologico, l’alta e media pianura modenese, compresa tra il
complesso appenninico a sud e il bacino sedimentario padano a nord, è
caratterizzata fondamentalmente da un sistema di conoidi pedemontane
costituito dalle conoidi principali del fiume Secchia e Panaro che si
interdigitano lateralmente con quelle secondarie dei torrenti minori (Fossa
Spezzano, Torrente Cerca, Torrente Grizzaga, Torrente Tiepido, Torrente
Nizzolla, Torrente Guerro).
Il complesso appenninico, costituito da successioni argillose del ciclo marino
pliocenico-calabriano, è emerso a seguito del ritiro delle acque del golfo
Padano alla fine del Pleistocene inferiore.
Il passaggio da depositi marini a quelli continentali individua, in prossimità
dell’Appennino, una zona di transizione caratterizzata dall’alternanza delle due
diverse facies (marina e continentale), poiché l’emersione della catena non è
stata progressiva, a causa delle glaciazioni che si sono avute durante il
quaternario e degli eventi tettonici che hanno determinato sollevamenti
discontinui dell’Appennino.
I depositi della piana alluvionale, che si estendono fino al fiume Po, sono
costituiti da sedimenti fini, sabbie, che sono relative a fasi di accrescimento
laterale, e sedimenti finissimi, limi e argille, indicanti fasi di accrescimento
verticale.
Nel sistema di conoidi si distinguono le più antiche, delle quali si rinvengono
lembi, in prossimità dell’Appennino e al margine della piana alluvionale,
fortemente tettonizzati ed erosi, dalle più recenti, in formazione dal Neolitico,
che si presentano con la loro morfologia originaria in posizione asimmetrica
rispetto ai corsi d’acqua i quali a causa di fenomeni tettonici migrano verso
occidente (Gelmini et al., 1990a).
49
Litologicamente le conoidi sono costituite, prevalentemente nella parte
apicale, da ghiaie e sabbie che si alternano a corpi pelitici di spessore crescente
man mano che ci si avvicina alla parte distale; da quest’ultima si passa
gradualmente ai sedimenti fini della piana alluvionale. Le conoidi minori
presentano una struttura sedimentaria simile a quella descritta sebbene
litologicamente sono costitute da sedimenti prevalentemente più fini:
predominano le sabbie e i limi con piccoli corpi ghiaiosi (Gelmini et al.,
1990b).
In generale, si è riscontrato che lo spessore dei depositi della Pianura
Modenese è molto variabile e, in particolare, si è visto che aumenta
spostandosi dall’Appennino, dove si è valutato uno spessore di 100 m, verso
nord (a nord di Modena si è misurato uno spessore di 350-400 m). Tale
variabilità è da attribuirsi alle strutture tettoniche profonde che hanno prodotto
una diversa subsidenza della pianura determinando un differente spessore dei
sedimenti depositati.
Dai lineamenti geologici descritti si evidenzia una forte eterogeneità litologica
che rende difficoltoso individuare in dettaglio la geometria dell’acquifero
imponendo la scelta di ipotesi semplificative che consentano di schematizzare
il sistema idrico sotterraneo della Pianura Modenese.
Pertanto la definizione dello schema di funzionamento dell’acquifero si basa
sull’assunzione che gli orizzonti permeabili, intercalati con lenti argillose, che
lo costituiscono, sono idraulicamente connessi. Tale ipotesi, giustificata dalla
continuità orizzontale e verticale di alcuni parametri idrodinamici, quali la
piezometria e la conducibilità elettrica (Idroser, 1978), consente di considerare
come acquifero principale un acquifero unico assimilabile a un “acquifero
monostrato equivalente” (Paltrinieri e Pellegrini, 1990).
Al di sotto dell’acquifero principale esistono livelli acquiferi separati da strati
impermeabili, arealmente continui; tale situazione, che si riscontra fino
all’interfaccia acqua dolce/acqua salata (limite idrodinamico del sistema idrico
sotterraneo), porta a considerare l’acquifero nel suo complesso un “acquifero
multistrato”.
L’acquifero principale, così definito, è caratterizzato nella zona pedemontana
da una falda libera estesa in connessione idraulica con i corsi d’acqua che
verso valle, in corrispondenza dei sedimenti fini delle conoidi distali e della
pianura alluvionale, passa a falda in pressione (Barelli et al., 1990; Paltrinieri e
Pellegrini, 1990).
50
L’alimentazione dell’acquifero avviene per infiltrazione di acqua meteorica e
di fiume, precisamente il Secchia alimenta fino a Rubiera mentre il Panaro fino
a San Cesario; oltre queste località i rapporti infiltrazione-drenaggio variano a
seconda del livello piezometrico e delle altezze idrometriche dei corsi d’acqua.
Il rilievo appenninico contribuisce all’alimentazione solo per il ruscellamento
superficiale infatti, essendo interamente costituito da argille del ciclo pliopleistoceniche, completamente impermeabili, non può alimentare mediante
flussi sotterranei.
Lo spessore dell’acquifero, mediamente intorno ai 300 metri, è abbastanza
variabile; in particolare spostandosi dall’Appennino, dove si valuta di 100
metri, verso nord si approfondisce fino ad a superare i 600 metri a nord di
Modena, nei pressi di Nonantola, per poi ridursi nuovamente in
corrispondenza della bassa pianura modenese.
5.4.2 - I dati monitorati
La falda idrica sotterranea presente nella zona considerata in questo studio è
ampiamente monitorata; i valori dei nitrati sono stati campionati nella
Provincia di Modena in un area compresa tra l’Appennino ed il fiume Po.
Al fine di avere una caratterizzazione del rischio che tenga conto del maggior
numero di informazioni disponibili, si sono considerate due stagioni per anno
(primavera ed autunno) dal 1990 al 1996, per un totale di quattordici set di
dati.
5.4.3 - Analisi dei dati
Le tabelle 5-13 e 5-14 forniscono la descrizione statistica dei data set
considerati.
Le medie autunnali sembrano crescere passando da valori di concentrazione di
poco superiori a 32 mg/L a valori di 39 mg/L nell’autunno del 1996. Lo stesso
andamento sembra caratterizzare le deviazioni standard che crescono fino ad
arrivare a 38.4 mg/L sempre nell’autunno 1996. I valori medi e le deviazioni
standard primaverili sembrano, invece, più casuali e oscillanti fra 28.4 mg/L a
38.8 mg/L i primi, e fra 25.2 mg/L e 39.7 mg/L, i secondi.
Sia per i valori autunnali che primaverili il massimo delle medie si è avuto
nell’anno 1996. La mediana, tranne che nella primavera 1990, è sempre
distante dalla media e dalla moda: è questo un chiaro sintomo dell’asimmetria
delle distribuzioni dei valori. Il valore più frequente è quasi sempre prossimo a
0 mg/L.
51
Tab. 5-13: Statistiche descrittive delle concentrazioni dei nitrati per le stagioni
autunnali
Aut-90 Aut-91 Aut-92 Aut-93 Aut-94 Aut-95 Aut-96
32.2
32.2
32.8
35.3
35.0
35.4
39.2
Media
3.4
4.7
2.9
3.5
3.7
3.6
4.0
Errore std
31.9
28.9
28.5
33.3
27.0
25.1
29.0
Mediana
0.0
0.5
0.9
0.1
0.4
0.1
0.1
Moda
31.3
29.3
28.2
31.8
35.7
35.4
38.4
Dev. Std.
966.2
834.7
788.7 1000.5 1263.5 1242.3 1460.4
Var pop.
977.8
856.7
797.2 1013.0 1276.9 1255.3 1476.6
Var camp.
5.8
-0.2
1.9
3.3
1.9
1.5
1.5
Curtosi
1.8
0.8
1.2
1.4
1.4
1.2
1.3
Asimm.
182.9
99.7
145.1
171.1
168.6
155.3
164.8
Intervallo
0.0
0.0
0.2
0.1
0.1
0.0
0.1
Min
182.9
99.7
145.3
171.2
168.7
155.3
164.9
Max
84
39
93
81
95
97
91
N. dati
Tab. 5-14: Statistiche descrittive delle concentrazioni dei nitrati per le stagioni
primaverili
Pri-90 Pri-91 Pri-92 Pri-93 Pri-94 Pri-95 Pri-96
30.2
37.6
28.4
31.8
35.2
36.7
38.8
Media
2.7
4.0
3.0
2.9
3.4
3.6
4.2
Errore std
29.3
33.3
22.6
27.5
30.5
31.0
29.1
Mediana
0.5
0.0
1.0
0.1
0.1
0.1
0.1
Moda
25.2
38.5
29.2
28.3
32.8
35.1
39.7
Dev. Std.
626.9 1467.5
842.7
792.5 1063.5 1221.7 1562.5
Var pop
634.3
634.3
634.3
634.3
634.3
634.3
634.3
Var camp
1.9
3.9
4.1
-0.3
1.7
1.3
1.8
Curtosi
1.0
1.6
1.6
0.8
1.2
1.2
1.3
Asimm.
131.8
206.3
164.8
101.1
155.6
147.9
175.6
Intervallo
0.0
0.0
0.3
0.1
0.1
0.1
0.1
Min
131.8
206.3
165.1
101.2
155.7
148.0
175.7
Max
86
92
93
95
92
97
90
N. dati
52
Un’idea più precisa della forma assunta dai dati si ha osservando gli
istogrammi nelle figure 2-4.g.1 e 2-4.g.2. Si possono individuare gli
istogrammi relativi oltre ai grafici delle cumulate. Quest’ultimo è di estremo
interesse per il KD step 1: infatti, è proprio dalla cumulata che è possibile
passare al corrispondente valore normale standard. Gli istogrammi sembrano
tutti asimmetrici.
Il test di Kolmogorov-Smirnov è lo strumento che permette di valutare
statisticamente la normalità della forma delle concentrazioni dei nitrati. In
tabella 5-15 è presentato il risultato del test per le 14 stagioni considerate.
Tab. 5-15: Statistiche del test di K-S
Statistica KS
P. critico
P. critico
(0.05)
(0.01)
0.127
0.098
0.114
Pri-90
0.152
0.097
0.112
Aut-90
0.156
0.096
0.112
Pri-91
0.176
0.146
0.169
Aut-91
0.191
0.092
0.107
Pri-92
0.138
0.092
0.107
Aut-92
0.160
0.091
0.106
Pri-93
0.143
0.098
0.115
Aut-93
0.168
0.092
0.107
Pri-94
0.167
0.091
0.106
Aut-94
0.182
0.090
0.105
Pri-95
0.189
0.090
0.105
Aut-95
0.168
0.093
0.109
Pri-96
0.177
0.093
0.108
Aut-96
H0: La distribuzione osservata è di tipo normale
Stagione
Risultato
test
H0 rigettata
H0 rigettata
H0 rigettata
H0 rigettata
H0 rigettata
H0 rigettata
H0 rigettata
H0 rigettata
H0 rigettata
H0 rigettata
H0 rigettata
H0 rigettata
H0 rigettata
H0 rigettata
In tutti i casi, e per le significatività considerate (α=0.05 e α=0.01), non si ha
l’evidenza statistica ad accettare l’ipotesi di normalità per i dati.
I risultati della variografia sono presentati nelle figure 2-5.g.1 e 2-5.g.2. I punti
sperimentali mostrano sempre un andamento crescente che si assesta intorno
alla varianza campionaria. Il modello individuato per tutte le 14 stagioni è
stato quello esponenziale.
53
Il nugget, per tutte le stagioni, è sempre al di sotto del 50% della variabilità
totale. Nella tabella 5-16 è presentata la percentuale di variabilità totale
spiegata dal nugget (PERC). Si tenga presente che al nugget si associa una
quota parte di variabilità, di incertezza, che sarà scaricata sulla varianza di
stima: maggiore è PERC nella tabella 5-16, maggiore sarà la varianza di stima
nei punti.
Tab. 5-16: Percentuale di variabilità totale spiegata dal nugget
Stagione Percentuale
24
Pri-90
17
Aut-90
31
Pri-91
24
Aut-91
19
Pri-92
16
Aut-92
38
Pri-93
50
Aut-93
19
Pri-94
20
Aut-94
23
Pri-95
23
Aut-95
23
Pri-96
16
Aut-96
Un modo per misurare la bontà della scelta dei variogrammi è la crossvalidation. La questione della verifica di un modello di variogramma è sempre
molto dibattuta. Nel caso in esame, ad esempio, la statistica unbiased (cfr. par
3.3) è influenzata dalla tecnica di kriging utilizzata per la cross-validation. Si
dovrebbe, quindi, utilizzare il KD affinché si possa avere, tra l’altro, una
indicazione significativa anche della statistica Q (cfr. par. 3.3), in termini di
KDEV.
54
Ma l’applicazione del KD è successiva alla identificazione di alcuni parametri
di trasformazione Hermitiana (step1). Questa fase è articolata e richiede, essa
stessa, decisioni soggette ad incertezza. Il rischio di cross-validare tramite KD
il modello di variogramma è quello di perdere di vista tale validazione durante
lo step 1. Sapendo, quindi, che la KEV è maggiore della KDEV e, come tale,
influenza in modo peggiorativo la statistica Q, può essere eseguita, comunque,
la cross-validazione tramite il KO, in quanto il risultato ottenuto sarà,
sicuramente, peggiore di quello ottenibile tramite il KD. Pertanto, se i
variogrammi sono validati con il KO, lo saranno ancor più con il KD.
Viceversa, se questi non dovessero essere validati con il KO, allora bisognerà
affidarsi ad un criterio che solo a posteriori, e sulla base delle eventuali
incongruenze mostrate dai risultati, metta in discussione le decisioni (che non
sono solo quelle relative al modello di variogramma). La tabella 5-17 riporta i
valori della media e della deviazione standard della distribuzione
standardizzata delle differenze tra i valori misurati e quelli stimati con il KO.
Tab. 5-17: Risultati della cross-validazione con il KO dei variogrammi
usati nello studio.
Periodo
Media
Deviazione std.
0.059
1.020
Pri-90
0.049
1.153
Aut-90
0.029
0.923
Pri-91
0.046
1.012
Aut-91
0.053
1.074
Pri-92
0.051
1.031
Aut-92
0.044
1.065
Pri-93
0.055
1.035
Aut-93
0.021
0.769
Pri-94
0.061
1.053
Aut-94
0.057
0.988
Pri-95
0.038
1.046
Aut-95
0.041
1.044
Pri-96
0.045
0.886
Aut-96
55
Nelle tabelle 5-18 e 5-19 sono presentati i risultati del KD, step 1. Si tratta di
trovare la giusta combinazione fra numero delle ascisse di Abramowitz-Stegun
(10 o 5), ordine del polinomio relativo alla trasformazione z=φ*(yi) e, infine,
numero dei coefficienti dell’espansione di Hermite che siano in grado di
avvicinare il più possibile la media e la varianza dell’approssimazione di
Hermite alla media e alla varianza dei dati.
Tab. 5-18: Confronti fra statistiche dei dati e quelle relative alla
approssimazione di Hermite
Periodo media
media
var
var
diff.
diff.
diff.
dati
H
dati
H
Medie
Var Var (%)
30.2
29.8 626.9
633.6
0.3
-6.7
-1
Pri-90
37.6
37.2 1467.5 1443.2
0.4
24.3
2
Aut-90
28.4
28.4 842.7
828.6
0.1
14.1
2
Pri-91
31.8
31.9 792.5
778.1
-0.1
14.5
2
Aut-91
35.2
37.0 1063.5
946.8
-1.8
116.7
11
Pri-92
36.7
37.4 1221.7 1169.4
-0.7
52.3
4
Aut-92
38.8
37.2 1562.5 1658.3
1.6
-95.9
-6
Pri-93
32.2
31.7 966.2
942.7
0.5
23.5
2
Aut-93
32.2
32.0 834.7
828.9
0.2
5.9
1
Pri-94
32.8
32.8 788.7
784.6
0.0
4.1
1
Aut-94
35.3
34.9 1000.5
919.0
0.4
81.5
8
Pri-95
35.0
34.8 1263.5 1250.4
0.2
13.1
1
Aut-95
35.4
35.8 1242.3 1229.0
-0.4
13.3
1
Pri-96
39.2
37.7 1460.4 1543.5
1.5
-83.1
-6
Aut-96
56
L’approssimazione di Hermite peggiore è nella primavera 1994, con una
sottostima dell’11% fra varianza di Hermite e quella dei dati. Solo in tre casi
(primavera 1990 e 1996, autunno 1996) l’approssimazione ha sovrastimato la
varianza dei dati, al massimo per un 6%. Rispetto alle medie (primo
coefficiente di Hermite che si può ritrovare anche nella tabella 5-19) le
variazioni sono minime. La sottostima di Hermite è avvenute in 10 stagioni su
14 e per piccole entità (da un minimo di 0.1 mg/L ad un massimo di 1.6 mg/L).
Negli altri quattro casi, Hermite ha sovrastimato per un massimo di 1.8 mg/L.
La tabella 5-19 presenta i valori dei coefficienti di Hermite. Si può notare che
all’aumentare dell’ordine del polinomio di Hermite il contributo dei
coefficienti diventa sempre più trascurabile e vicino a zero. In effetti, quindi,
agendo sull’ordine dell’approssimazione, a parità di altre condizioni, si
raggiunge un valore approssimato della varianza dei dati che è difficilmente
migliorabile.
k\stagione
0
1
2
3
4
5
6
7
8
9
k\stagione
0
1
2
3
4
5
6
7
8
9
Tab. 5-19: Coefficienti dell’approssimazione di Hermite
Pri-90 pri-91 pri-92 pri-93 pri-94 pri-95
29.843 37.206 28.362 31.915 36.982 37.370
24.468 35.882 26.692 26.400 26.924 30.996
3.826
8.508
7.327
5.216
9.650
9.541
-0.161 -0.201 -0.200 -1.841 -1.873 -1.619
0.004 -0.588 -0.214 -0.464 -0.581 -0.322
0.007 -0.129
0.057
0.087
0.088
0.025
-0.049 -0.014 -0.032
0.002 -0.051 -0.066
-0.014
0.006 -0.022 -0.005 -0.005
0.002
0.006
0.003
0.001
0.009
0.011
0.001
0.003 -0.0001 -0.0002 0.0001
Aut-90 aut-91
31.685 32.041
29.317 27.600
5.983
4.348
0.192 -1.657
-0.202 -0.675
-0.153
0.047
-0.067
0.043
-0.001
0.003
0.009 0.0008
0.001 -0.0004
aut-92
32.754
26.714
5.759
-0.414
-0.123
0.009
-0.039
-0.008
0.005
0.001
57
aut-93
34.915
28.808
4.373
-2.403
-0.607
0.179
0.056
-0.010
-0.003
aut-94
34.769
33.340
7.919
-0.493
-0.590
-0.056
-0.024
-0.009
0.006
0.001
aut-95
35.785
32.531
8.734
-0.889
-0.532
0.047
-0.035
-0.021
0.005
0.002
pri-96
37.230
39.262
6.175
-0.976
-0.875
-0.190
0.072
0.025
-0.006
-0.003
aut-96
37.712
37.996
5.675
-1.092
-0.805
-0.157
0.065
0.021
-0.006
-0.002
Infatti, dalla formula (5-45), si evince che il numero di coefficienti presenti in
tabella 5-19 condiziona l’approssimazione della varianza dei dati.
Al fine di avvicinarsi a tale varianza è possibile variare gli altri parametri.
Nella tabella 5-20 sono presentati, per le stagioni considerate, il numero di
ascisse, l’ordine del polinomio di best fit per φ, e il numero dei coefficienti di
Hermite i cui valori sono in tabella 5-19.
Tab. 5-20: Numero delle ascisse di Abramowitz-Stegun (10 o 5), numero dei
coefficienti dell’espansione di Hermite, ordine del polinomio relativo alla
trasformazione z=φ*( yi).
Periodo
n. ascisse n. coeff. H Ordine
polinomio
10
10
10
Pri-90
10
8
6
Aut-90
10
10
10
Pri-91
5
10
5
Aut-91
5
10
5
Pri-92
10
10
10
Aut-92
5
10
4
Pri-93
5
10
6
Aut-93
10
10
9
Pri-94
10
10
10
Aut-94
10
9
3
Pri-95
5
10
10
Aut-95
5
10
10
Pri-96
5
10
4
Aut-96
Questi risultati possono essere ritenuti, complessivamente, soddisfacenti
pertanto si può passare all’applicazione della tecnica del KD e alla costruzione
delle mappe. Il KD è stato applicato sulle due soglie di 10 mg/L e 50 mg/L. Per
ogni run, quindi, sono state tracciate tre mappe che rappresentano: la stima, la
probabilità di superare 10 mg/L e quella di superare 50 mg/L. Nelle figure 5-3
e 5-4 (in allegato) sono raffigurate le ventotto mappe delle probabilità di
superamento con i relativi dettagli topografici. La stima del KD riproduce il
valore campionato nei pozzi e in essi è presente la minima KDEV. Dalle
mappe di probabilità si hanno indicazioni sul rischio esistente nella zona.
58
Dall'analisi delle mappe delle stime emerge che la zona a sud della città
Modena, dove la falda non è confinata, è interessata da un progressivo
allargamento delle aree ad alta concentrazione di nitrato. Al contrario, nella
parte a nord di Modena, dove la falda è confinata, si nota una ciclicità
stagionale delle dimensioni delle aree caratterizzate da concentrazioni molto
basse. In particolare, nella stagione autunnale queste aree si riducono, mentre
in primavera si estendono.
Il deterioramento della qualità, nella parte freatica della falda, può essere
causato da una progressiva pressione antropica (agricoltura ed allevamento).
L’impostazione del KD non prevede l’ipotesi di normalità sui dati ma sulla
trasformazione. Prendendo, a titolo di esempio, la stagione autunno 1990,
adottando l’ipotesi di normalità sui dati, e interpretando la stima del KO e la
KEV come media e varianza di una distribuzione normale, si può calcolare la
probabilità normale di superare la soglia di 10 mg/L e confrontarla con quella
ottenuta dal KD. In tabella 5-21 si descrivono statisticamente i risultati.
Tab. 5-21: Confronti fra le probabilità di superamento delle soglie 10 mg/L e
50 mg/L determinate con il KO nell’ipotesi di normalità dei dati ed il KD.
Prob10-KD Prob50-KD Prob10-Normale Prob-50 Normale
0.364000
0.000000
0.416000
0.018
Min
1.000000
0.874000
1.000000
0.992
Max
0.723835
0.197853
0.740713
0.258193
Media
Considerando le probabilità, punto per punto, e confrontandole fra loro si
ottiene che nell’83.31% dei casi la probabilità di superare la soglia 10 mg/L,
calcolata con il KD, è inferiore a quella normale. Nel caso 50 mg/L, tale
percentuale sale al 99.68%. L’istogramma per i dati della stagione autunno
1990 è asimmetrico a sinistra, con moda 0 mg/L e media 32.2 mg/L. Il KD
ripropone questa forma in ciascuna posizione: è questo il motivo per cui le
probabilità del KD sono, nella quasi totalità dei casi, più basse di quelle
normali.
Per comodità di rappresentazione, nelle mappe delle figure 5-3 e 5-4 (in
allegato) sono state tracciate quattro curve di iso-probabilità di superamento
delle concentrazioni soglia.
Le probabilità di superamento della concentrazione di 10 mg/L sono,
generalmente, molto alte. Nella primavera del 1990, la zona a probabilità
inferiore al 50% è abbastanza estesa ed è posizionata a nord di Modena;
analogamente è molto ampia la zona la cui probabilità è superiore al 75% e
59
comprende, praticamente, tutta l’area in cui la falda idrica sotterranea è
freatica.
La mappa rappresentativa dell’autunno del 1990 mostra che, mentre la zona
con probabilità inferiore al 50% si frantuma e si rimpicciolisce, quella
superiore al 75% rimane abbastanza grande e costante; è opportuno
evidenziare che esistono zone periferiche dove non è possibile definire la
distribuzione di probabilità di superare 10 mg/L, in quanto le informazioni non
sono sufficienti. La distribuzione della probabilità relativa alla primavera del
1991 sembra simile a quella della primavera del 1990 con un decremento della
zona con probabilità inferiore al 50%.
La mappa della probabilità dell’autunno del 1991 ha un’area centrale a bassa
probabilità che si incunea verso sud facendo diminuire la zona a probabilità
intermedia (50%<p<75%).
Nella primavera del 1992, per la prima volta, è presente una piccola area che
ha una probabilità inferiore al 25%. La mappa successiva, autunno del 1992, è
influenzata da quanto accaduto precedentemente, ma evidenzia valori di
probabilità maggiori. La primavera del 1993 ha una struttura simile a quella
della primavera precedente, confermando una certa alternanza dei valori di
probabilità. Questo comportamento si interrompe osservando la mappa delle
probabilità dell’autunno del 1993, in cui si nota una struttura a macchie
distribuite soprattutto nella parte valliva. Nella zona meridionale, invece, la
estensione della zona a probabilità 100% è ampia. In questa stagione sono
aumentate anche le zone dove non è possibile stimare la probabilità.
Una certa tendenza al miglioramento si osserva nella mappa costruita per la
primavera del 1994, dove esiste una vasta fascia, posizionata a cavallo della
città di Modena, che si estende da est verso ovest, avente probabilità di
superamento della soglia inferiore a 25%. L’area con probabilità superiore a
75% rimane ampia e localizzata a sud.
La tendenza evidenziata prima della stagione autunnale dell’anno 1993, si
ripresenta nella mappa di probabilità di superamento della soglia di
concentrazione dei nitrati di 10 mg/L; in particolare in questa carta
scompaiono le zone a probabilità inferiore a 25%, che ricompaiono sia pur
slegate tra di loro nella mappa della primavera del 1995 e scompaiono nella
carta costruita utilizzando i dati campionati nell’autunno del 1995, nella
primavera del 1996 e nell’autunno del 1996.
Le ultime quattro stagioni mostrano in successione un notevole incremento
della probabilità di superamento della soglia di 10 mg/L, come concentrazione
di nitrato in soluzione, che si concretizza nella assenza di aree sottese dalla
60
curva di probabilità 25% e successivamente nella riduzione dell’area a
probabilità compresa tra 25% e 50% fino a farla quasi scomparire del tutto.
Con la stessa procedura si analizzano le mappe di probabilità di superamento
dei valori di concentrazione dei nitrati pari a 50 mg/L. E’ opportuno
evidenziare che in generale queste hanno una configurazione simile a quelle
già viste precedentemente con valori bassi delle probabilità.
Le mappe delle primavere e degli autunni del 1990 e del 1991 mostrano una
generale tendenza all’aumento della probabilità: Sassuolo e Spilamberto
rappresentano le aree più critiche.
La mappa dell’autunno del 1991, in particolare, ha due zone rilevanti con
valore di probabilità di superamento della soglia superiore a 75%. Questa zona
si posiziona a sud della città di Modena in corrispondenza dell’abitato di
Castelnuovo Rangone.
Nella stagione successiva, primavera del 1992, scompare la criticità di questa
zona e ne compare un’altra in corrispondenza di Spilamberto.
Le mappe relative all’autunno del 1992 e alla primavera del 1993 non hanno
significative porzioni di superficie aventi probabilità superiori al 75%.
Dall’autunno del 1993 si osserva un lento ma graduale incremento della
probabilità di superamento della concentrazione del nitrato in soluzione pari a
50 mg/L. Ovviamente le zone che risentono di questo incremento sono quelle
posizionate nella parte meridionale della mappa di riferimento, avendo come
punti più sensibili, quelli raccolti in una fascia parallela all’appennino e
localizzata lungo una virtuale linea congiungente gli abitati di Sassuolo e
Spilamberto.
Sulla base dei risultati fino ad ora descritti sono state individuate due
procedure che descrivono il rischio in funzione delle esigenze del decisore e,
allo stesso tempo, rappresentano uno strumento tecnico sintetico e di facile
comprensione:
(a) determinazione dei valori massimo, minimo e medio delle probabilità di
superamento della soglia assegnata tra i diversi valori calcolati per ogni
stagione ed in ogni nodo della griglia di stima. La rappresentazione, in
forma di mappe, di queste tre determinazioni può essere di ausilio
nell’affrontare problematiche di diverso tipo;
(b) definizione di classi di rischio caratterizzate, oltre che dall'alta o bassa
probabilità di superamento delle soglie, anche dal loro trend temporale;
La procedura (a) ha il vantaggio di sintetizzare tutte le informazioni di
carattere spazio-temporale in alcune mappe ma ha lo svantaggio di non
considerare l’evoluzione temporale della probabilità considerata bensì valori
rappresentativi, rispettivamente del rischio massimo, medio e minimo
61
associabile ad un nodo della griglia per il periodo considerato. Naturalmente,
questo tipo di approccio può essere valido solo in alcuni casi particolari;
quando, cioè è necessario fare delle valutazioni, in genere, di carattere
qualitativo e su aree molto poco estese. Comunque, le mappe ottenibili in
questo modo devono essere supportate anche da altre informazioni, come, ad
esempio, la persistenza di valori alti del rischio nel periodo considerato.
Il decisore, utilizzando questa procedura, può fissare un livello di accettabilità
del rischio, in termini di probabilità media o massima di superamento della
soglia nella zona considerata e nel periodo considerato, in funzione del valore
della risorsa idrica in termini di destinazione d’uso e avviare interventi solo
laddove il rischio è ritenuto elevato e persistente. Ad esempio, se la falda è
destinata all’uso potabile, il gestore della risorsa può scegliere le mappe che
sintetizzano i valori massimi di probabilità di superamento della soglia fissata
dalle normative vigenti. In altri casi di destinazione d’uso (agricolo o
industriale), il decisore può scegliere di basare le sue valutazioni su vincoli
meno restrittivi (probabilità medie e minime).
Le figure 5-5 e 5-6 mostrano le mappe dei valori massimi, medi e minimi
relativi al set di valori del rischio determinati nell’area in studio nelle
quattordici stagioni analizzate. Si osserva che la mappa dei massimi, relativa
alla soglia di 10 mg/L, ha riporta valori del rischio spesso superiori al 75% e
compresi tra il 95% ed il 100% in buona parte dell’area considerata.
Analogamente, osservando la mappa dei valori massimi di rischio di
superamento della soglia di 50 mg/L, si verificare che questo è molto più
modesto, superando il 50% solo in parti limitate dell’area.
La mappa dei valori medi del rischio di superamento delle soglie di 10 mg/L
mostra che esiste un alto livello di rischio (>75%) in circa la metà dell’area
considerata, Livelli di rischio inferiori al 50% sono localizzati in
corrispondenza dell’abitato di Modena, dove la falda non è sfruttabile in modo
intensivo proprio a causa dell’elevata urbanizzazione della zona. La seconda
mappa, relativa alla soglia di 50 mg/L, evidenzia un livello modesto di rischio
di inquinamento (>35%) delle acque sotterranee lungo una ampia fascia
pedemontana disposta tra gli abitati di Sassuolo e Spilamberto.
Nelle mappe dei valori minimi di probabilità ottenuti nel periodo di
riferimento si osserva che la probabilità di superamento del valore di 50 mg/L
è, praticamente, sempre inferiore al 35%. Al contrario, la mappa relativa alla
sogli di 10 mg/L mostra ampie zone caratterizzate da valori di minimo rischio
bassi; valori più alti (75%) sono presenti in aree limitate localizzate nei pressi
delle località di Spilamberto e Castelnuovo Rangone, dove sono ubicati
numerosi insediamenti agro industriali.
62
0.0
2.5
km
0.00
0.25
0.50
0.75
5.0
Fig. 5-5a: Mappa delle probabilità massime di superamento della soglia 10 mg/L nel periodo 1990-1996.
APPENNINO
T.
ia
ch
Se
c
MODENA
pi
o
ar
.P
an
F
F.
do
Ti
e
63
0.0
2.5
km
0.00
0.25
0.50
0.75
5.0
Fig. 5-5b: Mappa delle probabilità medie di superamento della soglia 10 mg/L nel periodo 1990-1996.
APPENNINO
T.
ia
ch
Se
c
MODENA
pi
o
ar
.P
an
F
F.
do
Ti
e
64
0.0
2.5
km
0.00
0.25
0.50
0.75
5.0
Fig. 5-5c: Mappa delle probabilità minime di superamento della soglia 10 mg/L nel periodo 1990-1996.
APPENNINO
T.
ia
ch
Se
c
MODENA
pi
o
ar
.P
an
F
F.
do
Ti
e
65
0.0
2.5
km
0.00
0.25
0.50
0.75
5.0
Fig. 5-6a: Mappa delle probabilità massime di superamento della soglia 50 mg/L nel periodo 1990-1996.
APPENNINO
T.
ia
ch
Se
c
MODENA
pi
o
ar
.P
an
F
F.
do
Ti
e
66
0.0
2.5
km
0.00
0.25
0.50
0.75
5.0
Fig. 5-6b: Mappa delle probabilità medie di superamento della soglia 50 mg/L nel periodo 1990-1996.
APPENNINO
T.
ia
ch
Se
c
MODENA
pi
o
ar
.P
an
F
F.
do
Ti
e
67
0.0
2.5
km
0.00
0.25
0.50
0.75
5.0
Fig. 5-6b: Mappa delle probabilità medie di superamento della soglia 50 mg/L nel periodo 1990-1996.
APPENNINO
T.
ia
ch
Se
c
MODENA
pi
o
ar
.P
an
F
F.
do
Ti
e
68
Come già accennato, questa metodologia fornisce indicazioni che permettono
di operare valutazioni di carattere qualitativo, spesso richiede un supporto
ulteriore di informazione ma, soprattutto, può essere utile per analisi di
carattere locale piuttosto che globale. Può quindi essere necessario, per
porzioni limitate dell’acquifero considerato, che costituiscono elementi
strategici nell’ambito dell’approvvigionamento potabile o per le quali si
possono creare situazioni di maggiore allarme dettagliare l’analisi con grafici e
tabelle relativi al numero delle volte che il maggior rischio, o, magari, il minor
rischio, determinato nel periodo considerato ha raggiunto valori elevati.
Nella procedura (b) la valutazione del trend temporale dei valori del rischio in
un generico nodo della griglia di stima è stata realizzata utilizzando un test non
parametrico. I test non parametrici sono svincolati dalle assunzioni di
normalità della pdf della popolazione da cui sono stati estratti i dati. Essi si
basano sul concetto di rango (posizione) dei dati, rispetto ad un ordinamento
crescente (o decrescente) dei valori. La scelta di un tipo di impostazione
piuttosto che un’altra dipende dalla natura dei dati da elaborare tuttavia l’uso
di una impostazione di tipo parametrico risulta sempre conveniente, in quanto
questa ha proprietà teoriche preferibili rispetto ad un approccio di tipo non
parametrico. Tuttavia, nel caso in esame, l’elaborazione di un insieme di
probabilità (pi) con un riferimento temporale (ti) al fine di evidenziarne una
tendenza (crescente o decrescente), suggerisce l’uso di un test non parametrico
basato sul coefficiente (rS) di Spearman.
Calcolo del coefficiente (rs) di Spearman (Sneyers, 1975).
Le osservazioni (pi, i=1,2,…,n) riferite alla generica cella, per i periodi
temporali di riferimento (14 stagioni), sono posti in ordine crescente e
sostituiti dai rispettivi ranghi (yi, i=1,2,..,n). La statistica del test è il
coefficiente di correlazione (rS) tra le due serie i e yi, cioè tra le posizioni i
nella serie iniziale, e quelle yi nella serie ordinata:
rs = 1 −
6
n( n
2
∑ ( y − i)
− 1)
i
2
Sotto l’ipotesi nulla (H0: rS=0), la distribuzione di questa statistica è
asintoticamente normale con E(rS) = 0 e var(rS) = 1/(n-1). E’ chiaro che
l’assenza di tendenza deve essere confrontata con una ipotesi alternativa che
69
genera un test a due code, cioè si rigetta l’ipotesi nulla per valori elevati di |rS|.
In questa situazione, dopo aver calcolato rS, conviene calcolare la probabilità
α1, tale che α1 = P(|u| > |u(rS)|), in cui laddove u (rs ) = rs n − 1 e l’ipotesi nulla
è accettata o rigettata al livello α0, a seconda che α1 > α0 o α1 < α0. In caso di
valori significativi di |rS|, si può concludere sull’evidenza di una tendenza
crescente o decrescente, a seconda che rS > 0 o rS < 0.
In definitiva, l’insieme delle mappe del rischio, nei differenti istanti ti, fornisce
il campione storico, spazialmente aggregato in forma di mappa, del rischio di
degrado relativo all’inquinante considerato ed allo standard di qualità stabilito.
Fissato un punto della mappa, si può ricavare la serie temporale da sottoporre
ad un test delle ipotesi. Per un dato livello di significatività (α = 0.05), se
l’ipotesi nulla H0 è rigettata in un generico punto, il test prova una tendenza
temporale positiva o negativa del rischio di degrado. Al contrario, se H0 è
accettata, il test non rileva alcuna tendenza temporale. Il test non parametrico
di Spearman, applicato su tutte le serie storiche e per ogni punto della mappa
produce una mappa indice che contiene valori 0, se H0 è accettata, oppure +1
(rispettivamente –1) se H0 è rigettata e si evidenzia una tendenza positiva
(rispettivamente negativa).
Le informazioni relative ai trend temporali di rischio sono state sintetizzate in
due mappe relative, anche questa volta, alle due soglie individuate.
Confrontando le due mappe (figure 5-7 e 5-8) si nota chiaramente che:
− in gran parte dell’area il rischio non mostra evidenti trend temporali né
crescenti, né decrescenti; questo significa che durante i sette anni di
osservazione il rischio di impoverimento qualitativo della falda è rimasto
alquanto costante;
− la mappa relativa alla soglia di 10 mg/L presenta zone a trend negativo
(livello di rischio in diminuzione) più ampie rispetto a quella relativa alla
concentrazione massima ammissibile; questo consente di affermare che
pur rimanendo il rischio, laddove è costante, su valori elevati, la situazione
è in leggero miglioramento, almeno nell’ambito delle fasce fluviali;
− le zone a trend crescente sono piuttosto ridotte nella mappa relativa al
valore guida, mentre sono estremamente più ampie nella mappa relativa
alla soglia 50 mg/L.
Da quanto descritto si può dedurre che il livello di rischio di impoverimento
qualitativo della falda tende ad aumentare quando la soglia di concentrazione è
alta mentre tende a rimanere costante, seppure su livelli alti, o a diminuire, in
prossimità delle fasce fluviali, nel caso di soglie più modeste. In altre parole il
rischio che la qualità dell’acqua, della falda considerata, possa peggiorare fino
70
a rendere la risorsa inutilizzabile per l’uso potabile sta aumentando. La parte
dell’acquifero che sembra più soggetto a questo aumento è quella localizzata
tra Spilamberto e Sassuolo. E’ interessante notare come, proprio questa zona
sia classificata a vulnerabilità da medio-alta ad estremamente elevata in uno
studio a cura di Giuliano ed altri (1995).
Lo scopo finale di questa metodologia è, tuttavia, quello di definire il rischio di
degrado qualitativo effettivo quale risultato della combinazione di un indice di
tendenza (trend) con un indice di rischio attuale. La tabella 5-22, applicata in
ciascun punto dell’area considerata, consente di assegnare un livello di rischio
di degrado qualitativo effettivo.
Tab. 5-22: Categorie di rischio di degrado qualitativo effettivo
Indice di tendenza
Indice di rischio di
degrado qualitativo
tendenza
nessuna
tendenza
attuale
positiva
tendenza
negativa
bassa
molto bassa
molto bassa
0.0 – 0.2
media
molto bassa
molto bassa
0.2 – 0.4
alta
media
bassa
0.4 – 0.6
molto alta
molto alta
media
0.6 – 0.8
molto alta
molto alta
alta
0.8 – 1.0
La figura 5-9 (in allegato) mostra le mappe del rischio di degrado qualitativo
effettivo riferito alle due soglie scelte. Confrontando queste due mappe
emergono le seguenti considerazioni: la figura 5-9a mostra un’area molto vasta
in cui il rischio di degrado qualitativo effettivo è stata classificato molto alto. Il
rischio di degrado qualitativo effettivo, associato alla soglia di 10 mg/L è
classificato da medio a basso nelle aree in prossimità dei fiumi, probabilmente
a causa dell’effetto della ricarica di questi ultimi, e nella parte settentrionale
dell’area considerata dove l’acquifero può essere considerato confinato. La
figura 5-9b, riferita alla soglia di MCA, mostra che la maggior parte dell’area è
classificata a rischio di degrado qualitativo molto basso e basso. Una zona in
cui il rischio di degrado qualitativo effettivo è molto alto è localizzata tra le
città di Spilamberto e Sassuolo nella parte meridionale dell’area dello studio
dove le attività antropiche sono molto intense.
Queste semplici considerazioni possono portare il gestore della risorsa a porre
misure di salvaguardia opportune proprio in aree dove questi trend incrociano
campi pozzi ad uso potabile.
71
0.0
DECRESCENTE
2.5
km
-1.00
0.00
5.0
+1.00
Fig. 5-7: Mappa dei trend temporali delle probabilità di superamento della soglia 10 mg/L
nel periodo 1990-1996.
APPENNINO
T.
ia
ch
Se
c
MODENA
pi
72
Ti
e
o
ar
.P
an
F
F.
do
CRESCENTE
0.0
DECRESCENTE
2.5
km
-1.00
0.00
5.0
+1.00
Fig. 5-8: Mappa dei trend temporali delle probabilità di superamento della soglia 50 mg/L
nel periodo 1990-1996.
APPENNINO
T.
ia
ch
Se
c
MODENA
pi
73
Ti
e
o
ar
.P
an
F
F.
do
CRESCENTE
5.4 – Conclusioni
Nell'ambito dell’approccio geostatistico all’analisi di dati territoriali di
inquinamento, è possibile determinare la probabilità di accadimento di un
evento critico come, ad esempio, il superamento di soglie prefissate di
concentrazione, ad un dato istante. Esistono diverse tecniche geostatistiche che
permettono di realizzare questa valutazione che può essere considerata un vero
e proprio risk assessment.
Il kriging disgiuntivo è solo una delle possibili metodologie da utilizzare per
fare valutazioni del rischio. Possibili alternative sono le simulazioni
(parametriche e non parametriche) o l’indicator kriging. Per molte delle
alternative citate, spesso non esistono pareri concordanti sulla loro validità o,
più banalmente, non sono stati ancora implementati strumenti informatici in
grado di supportare elaborazioni complesse come quelle richieste.
Obiettivo di questo studio è quello di proporre un quadro metodologico e
sperimentare una tecnica per la valutazione del rischio di degrado qualitativo,
per la falda idrica sotterranea, basato sulle concentrazioni del nitrato e sui
corrispondenti valori soglia fissata dalla Legge italiana per l’uso potabile della
risorsa.
L’applicazione è stata realizzata usando software di pubblico dominio, in
particolare Geopack (Yates e Yates, 1989) e codici sorgenti in FORTRAN
(Yates et al. 1986b) e GSILB (Deutsch, Journel, 1992), creando le necessarie
integrazioni con il software Surfer (Keckler, 1994) per la rappresentazione
grafica. Non è stato, comunque, agevole integrare fra loro questi oggetti,
alcuni dei quali risalenti all'epoca della programmazione procedurale.
Le mappe ottenute forniscono un quadro di riferimento affidabile sulla
probabilità di superamento di soglie di concentrazione utili per classificare il
livello di rischio di degrado qualitativo delle acque sotterranee e rappresentano
un utile strumento per la pianificazione del territorio in funzione dell'uso della
risorsa idrica.
Le distribuzioni di probabilità delle concentrazioni dei nitrati si presentano in
forma asimmetrica e con moda intorno allo zero. Il KD rispetta questa forma
ed induce la consapevolezza di fornire una stima del rischio più congruente
con la realtà.
74
BIBLIOGRAFIA
AA.VV. (1996). Vulnerabilità naturale e rischio di inquinamento delle acque
sotterranee nella Pianura Padana. Rapporti dell’Istituto di Ricerca Sulle
Acque 145. A cura di G. Giuliano. Roma.
Abramowitz M., Stegun A. (1965). Handbook of mathematical function.
Dover, New York, 1965.
Barancourt C., J.D. Creutin, J. Rivoirard (1992): A method for delineating and
estimating rainfall fields. Water Resources Research, v. 28, n. 4 (1992) 11331144
Bardossy A., Bogardi I., Kelly W.E. (1988). Imprecise (fuzzy) information in
geostatistics. Mathematical Geology, v.20, p. 287-311
Bardossy A., Bogardi I., Kelly W.E. (1990). Kriging with imprecise (fuzzy)
variograms. I:Theory. Mathematical Geology, v.22, p. 63-79.
Barelli G., Marino L. e Pagotto A. (1990). Caratterizzazione idraulica degli
acquiferi. Studi sulla vulnerabilità degli acquiferi, vol.2. Quaderni di Tecniche
di Protezione Ambientale - Protezione delle Acque Sotterranee. Pitagora Ed.
15-26.
Burn D.H., D.B. Boorman (1993). Estimation of hydrological parameters al
ungauged catchment. Journal of hydrology, 143, 429- 454
Cannarozzo M., F. D'Asaro, V. Ferro (1990). Analisi regionale dei massimi
annuali delle piogge di breve durata per il territorio siciliano. Idrotecnica,
vol. 6, pp. 251-266.
Chu J., Journel A. (1994). Conditional fBm simulation with dual kriging,
Geostatistics for the next century, Roussos Dimitrakopoulos editor, Kluwer
Academic Publishers, 1994, 407-421
Colombetti A., Gelmini R. e Zavatti A. (1980). La conoide del fiume Secchia:
modalità di alimentazione e rapporti col fiume (Province di Modena e Reggio
Emilia). Quaderni dell’Istituto di Ricerca Sulle Acque 51 (1).
75
D'Agostino V. (1996). Utilità dell'analisi strutturale nella regionalizzazione
delle piogge intense. Un caso di studio. A I I e A I I A. Scritti dedicati a G.
Tournon. Novara 6-7 giugno 1996, p. 125-134.
D’Agostino, V., Passarella, G., Vurro, M. (1997). Assessment of the Optimal
Sampling Arrangement Based on Cokriging Estimation Variance Reduction
Approach. Proc. of the XXVII IAHR Congress, San Francisco, 10-15 agosto
1997, 246-252.
Delfiner P. (1973). Analyse objective du gèopotentiel et du vent gèostrophique
par krigeage universel, Notes Internes de l’ètablissement d’ètudes et de
recherches mètèorologiques, avril 1973, Paris.
Deutsch C.V., Journel A.G. (1992). GSLIB Geostatistical Software Library
and User's Guide. Oxford Univ. Press, New York.
DPR n.236/88 (1988). Attuazione della Direttiva CEE n.80/778
Concernente la qualità della acque destinate al consumo umano, ai sensi
dell'art.15 della Legge 16 Aprile 1987. G.U. n. 183 suppl. del 30 giugno,
Roma.
Englund E., A. Sparks. GEOEAS User's Guide, edito dall'Environmental
Monitoring Systems Laboratory U.S. EPA LAS VEGAS, NEVADA 89193
3478, 1989.
EXCEL ’97 (1997). Microsoft Office, Manuale d’uso.
Feller W (1968). An introduction to probability theory and its applications.
Vol. 1, 3 ed., J. Wiley, New York.
Fisher R.A., L.H.C. Tippet. (1928). Limiting forms of the frequency
distribution of the largest or smallest member of a sample. Proc. Phil. Soc. 24,
180-190.
Franchini M., G. Galeati (1994). La regionalizzazione delle piogge intense
mediante il modello TCEV. Un'applicazione alla regione Romagna Marche.
Idrotecnica, vol. 5, pp. 237-253.
76
Freulon X. (1994). Conditional simulation of a Gaussian Random Vector with
Non linear and/or Noisy observations. Geostatistical Simulation, M.
Armstrong e P.A. Dowd Editors, Quantitative geology and geostatistics,
Kluwer Academic Publishers, 56-71, 1994
Gelmini R., Paltrinieri N. e Pellegrini M. (1990a). Il quadro geologico di
riferimento. Studi sulla Vulnerabilità degli Acquiferi, Vol.2. Quaderni di
Tecniche di Protezione Ambientale - Protezione delle Acque Sotterranee.
Pitagora Ed. Bologna, 2-4.
Gelmini R., Paltrinieri N. e Pellegrini M. (1990b). Vulnerabilità
all’inquinamento delle acque sotterranee. Studi sulla Vulnerabilità degli
Acquiferi, Vol.2. Quaderni di Tecniche di Protezione Ambientale - Protezione
delle Acque Sotterranee. Pitagora Ed. Bologna, 73-80.
Giuliano G., Pellegrini M. e Zavatti A. (1995). Esempi di carte di vulnerabilità
a scala regionale: la Pianura Padana, le province di Parma, Reggio Emilia e
Modena. Studi sulla Vulnerabilità degli Acquiferi, Vol.2. Quaderni di
Tecniche di Protezione Ambientale - Protezione delle Acque Sotterranee.
Pitagora Ed. Bologna, carta allegata.
Gòmez-Hernàandez J.J., Cassiraga E.F. (1994). Theory and practice of
sequential simulation, Geostatistical Simulation. M. Armstrong e P.A. Dowd
Editors, Quantitative geology and geostatistics, Kluwer Academic Publishers,
111-124, 1994
Goovaerts P. (1994a). Comparative performance of Indicator Algorithms for
Modelling conditional probability distribution functions, Mathematical
Geology, v. 26, 3, 389-411
Goovaerts P. (1994b). Comparison of CoIK, IK, mIK performances for
modelling conditional probabilities of categorical variables. Geostatistics for
the next century, Roussos Dimitrakopoulos editor, Kluwer Academic
Publishers, 1994, 18-29
Gumbel E.J. (1958). Statistics of extremes. Columbia Univ. P., N. York.
Gutjahr A., (1985). Spatial variability: geostatistical methods. Proceedings of
a Workshop of the ISSS and SSSA, Las Vegas, p. 9-34
77
Hegstad B.K, Omre H., Tjelmeland H., Tyler K (1994): Stochastic Simulation
and conditioning by annealing in reservoir description, Geostatistical
Simulation, M. Armstrong e P.A. Dowd Editors, Quantitative geology and
geostatistics, Kluwer Academic Publishers, 43-56, 1994
Hosking J.R.M. e Wallis J.R. (1993). Some statistics useful in regional
frequency analysis. Water Resources Research, vol. 29, n. 2, pp. 271-281.
Isaaks E.H. e Srivastava R.M. (1989). An Introduction to Applied
Geostatistics. Oxford University Press, New York, USA.
Idroser (1978). Progetto di piano per la salvaguardia e l’utilizzo ottimale delle
risorse idriche in Emilia Romagna. Vol. VII, sez.1a. Convenzione Reg. Emilia
Romagna - ENI.
Jenkinson A.F. (1969). Statistics of extremes. Tech. Note 98. Estimation of
maximum floods. WMO. Geneva. 183-228.
Journel A.G. (1974). Simulations conditionelles des gisements miniers Théorie et Pratique. Thése présentée à l'Université de Nancy-1, 1974
Journel A.G., Huijbrechts C. (1978) Mining Geostatistics. Academic Press, London.
Keckler D. (1994). Surfer for Windows, User's guide, Golden Software Inc,
Golden CO, 1.1-23.4.
Kendall M.G., Stuart A., (1966). The advanced theory of statistics. Hafner
New York.
Kitadinis, P.K. (1986). Parameter Uncertainty in Estimation of Spatial
Functions: Bayesian Analysis. Water Resources Res., 22, 499-507.
Krajewski S.A. e Gibbs B.L. (1993). A variography primer, Gibbs Associates,
Boulder CO, 1-90, 23ff.
Matheron G. (1970). The theory of regionalised variables and its applications.
Les Cahiers du Centre de Morphol. Mathemat. de Fointainebleau, N. 5, 211 p.
Ecole des Mines de Paris.
78
Matheron G. (1973). The intrinsic random function and their applications.
Advanced Applied Probability, 5.
Matheron G. (1976). A simple substitute for conditional expectation: the
disjunctive kriging. Proceedings NATO ASI. ‘Geostat 75’, D. Reidel,
Hingham, Mass.
Myers D.E. (1982) Matrix formulation of cokriging. Mathematical Geology.
vol. 14, n. 3, pp. 249-257
Nathan R.J. e McMahon T.H. (1990). Identification of Homogeneous Regions
For The purpose of regionalisation. Journal of Hydrology, n. 121, pp. 217238.
Paltrinieri N. e Pellegrini M. (1990). Comportamento idrodinamico
dell’acquifero. Studi sulla Vulnerabilità degli Acquiferi, Vol.2. Quaderni di
Tecniche di Protezione Ambientale - Protezione delle Acque Sotterranee.
Pitagora Ed. Bologna, 9-14.
Puente C.E. (1994). A fractal-multifractal approach to geostatistics,
Geostatistics for the next century. Roussos Dimitrakopoulos editor, Kluwer
Academic Publishers, 1994, 476-487.
Rao A.R., Hsieh C. H. (1991). Estimation of variables at ungaged locations by
empirical orthogonal functions, Journal of hydrology, 123 (1991) 51-67.
Rao P.V., Rao P.S.C., Davidson J.M., Hammond L.C. (1979). Use of
goodness-of-fit tests for characterizing the spatial variability of soil
properties. Soil Sci. Soc. Am., 43.
Rivoirard J.(1994). Introduction to disjunctive kriging and non-linear
geostatistics. Clarendon Press Oxford, 1994, 180 p.
Rossi F., Fiorentino M., Versace P. (1984). Two component extreme values
distribution for flood frequency analysis. Water Resources Research, vol. 20,
pp. 755-781.
Shepard D., (1968). A two dimensional interpolation function for irregularly
spaced data. Proc. 23 Nat. Conference ACM, p. 517-523.
79
Sneyers R., (1975). Sur l’analyse statistique des sèries d’observations,
Organisation Météorologique Mondiale, Note technique n. 143, p. 192.
Sokal R., R. Rohlf (1981). Statistical tables. W.H. Freeman, New York.
Stevens R., J. Van Isacker. (1975). Maximum likelihood estimates for
parameters of the mth extreme value distributions. Fourth Conf. On Prob. And
Stat. In Atm. Science, 194-196.
Varnes D.J. (1984). Commision on Landslides and other mass-movementsIAEG. Landslide hazard zonation: a review of priciples and practices. The
Unesco Press, Paris.
Verly G.W. (1984). Estimation of spatial point and block distributions: the
multigaussian model. Dissertation submitted to the Dept. Of Applied earth
Sciences. 1984, p. 416
Vicari L. e Zavatti A. (1990). Idrochimica. Studi sulla Vulnerabilità degli
Acquiferi, Vol.2. Quaderni di Tecniche di Protezione Ambientale - Protezione
delle Acque Sotterranee. Pitagora Ed. Bologna, 27-72.
Visentini M. (1935). Ricerche sulle acque sotterranee nell’alta Pianura
Modenese fra Secchia e Panaro. Min. LL.PP. Serv. Idrograf. del Po. Roma.
Volpi G., Gambolati G. (1978). On the use of main trend for the kriging
technique in hydrology. Advanced Resources Research, 1, 354-349
Watson G.S. (1971). Trend surface analysis. Mathematical Geology, v.3, n.3,
p. 215-226
Yates S.R., Warrick A.W., Myers D.E. (1986a). Disjunctive Kriging. 1.
Overview of Estimation and Conditional Probability. Water Resources
Research, 22(5), 615-621
Yates S.R., Warrick A.W., Myers D.E. (1986b). A Disjunctive kriging
program for two dimensions. Computers & Geosciences, Vol. 12, n. 3, 281313
80
Yates S.R, Yates M.V. (1989). Geostatistics for waste management: a user’s
manual for the GEOPACK (version 1.0). Internal report. Dept. Of soil and
environment Science, University of California. Riverside. p. 55
Zanframundo P., V. D'Agostino, G. Amoruso (1994). Analisi temporale e
caratterizzazione spaziale delle piogge intense di diversa durata per le
stazioni del Servizio Idrografico di Bari. Atti Convegno Internazionale
Atmospheric Physics and Dynamics in the Analysis and Prognosis of
Precipitation Fields, Roma, 15-18 Nov. 1994, p. 189-192
81