RECUPERO AMBIENTALE

annuncio pubblicitario
RECUPERO
AMBIENTALE
Tecnologie, bioremediation e biotecnologie
Professore di Biologia marina ed Ecologia applicata
Istituto di Scienze del Mare
Universita degli Studi di Ancona
Contributi di
Paolo Battistoni, Giorgio Bavestrello, Claudio Bertini
Raffaella Boccadoro, Pietro Canepa, Marco Cardinali
Oliana Carnevali, Riccardo Cattaneo Vietti, Carlo Cerrano
Rita Colantonio Venturelli, Roberto Danovaro, Antonio Dell' Anno
Anna Rita Delle Vergini, Mauro Fabiano, Gabriele Fava, Simonetta Fraschetti
Anna Maria Lantero, Giovanni Latini, Paolo Madoni, Giorgio Passerini
Silvia Pezzoli, Mirco Pieroni, Raffaello Pompei, Carla Pruzzo
Antonio Pusceddu, Ivo Rancich, Francesco Regoli, Aniello Russo
Daniela Sani, Alessandro Segale, Attilio Solazzi
Antonio Terlizzi, Cecilia Maria Totti, Silvana Vanucci
UTET
Capitolo 2
Analisi dei dati ecologici e impatto
ambientale
Simonetta Fraschetti, Antonio Terlizzi
2.1
Premessa
Lo studio dei processi biologici richiede, per la loro comprensione, tecniche rigorose di analisi statistica. É per questo che vi è una crescita di interesse nei confronti
delle procedure utilizzate per i disegni sperimentali, per l’analisi e l’interpretazione
di dati complessi, unitamente ad un grande sviluppo nella teoria e nella pratica statistica [35]. Pensare di non conformarsi ad una struttura logica coerente o il non
fornire una giustificazione razionale al modo in cui viene condotto il proprio studio
aggiunge solo confusione a quella già molto diffusa nella scienza dell’ecologia
[25]. Traendo spunto da alcuni casi di studio, il presente contributo si sofferma
sull’impostazione di disegni sperimentali in lavori d’impatto ambientale, sottolineando i vantaggi di un corretto disegno di campionamento. È da sottolineare che nel
corso della trattazione si farà riferimento alle comunità marine bentoniche di substrato duro. Molti dei principi trattati, tuttavia
, possono essere ritenuti validi anche per altri comparti ecologici. Si dà ovviamente
per scontato che siano noti al lettore le basi della statistica uni- e multivariata. In
caso contrario, si rimanda alla fine del contributo per alcuni testi consigliati.
2.2
La nascita dell’ecologia quantitativa: primi approcci
Sino a tutto il 1800, la maggior parte di zoologi e botanici ha concentrato la propria
attività di ricerca nella raccolta di specie nuove, con il fine di stilare liste tassonomiche sempre più dettagliate. I biogeografi tradizionali dedicarono la loro attenzione ad esaminare la distribuzione delle varie unità tassonomiche, per esempio piante, uccelli o mammiferi di una determinata area, ma senza aspirare a confronti di
nessun tipo. Nonostante i limiti di tali ricerche, la maggior parte di quelle osservazioni risulta ancora essenziale per una completa comprensione di importanti fenomeni biologici. Alcuni biogeografi del diciannovesimo secolo tentarono di seguire i
dettami di Humbolt, primo a parlare di associazione, e diedero origine a quella che
lui stesso definì la botanica aritmetica [21].
Analisi dei dati ecologici e impatto ambientale
_________________________________________________________________________
121
Questa tecnica mappava una griglia di aree all’interno di un paesaggio e individuava le specie presenti in ciascun’area. Per paragonare due aree qualsiasi, venivano confrontate le liste di specie e contato il numero di specie in comune o calcolato il rapporto fra il numero di specie (oppure di famiglie) in comune sul numero
totale. Come si può notare, questo modo di procedere concettualmente non è molto
lontano da quello utilizzato per calcolare una qualsiasi matrice di similarità. Un
ulteriore passo verso un’ecologia quantitativa fu condotto da Watson, fitogeografo
britannico, che si oppose strenuamente al semplice atto di raccogliere e catalogare.
Watson si dimostrò molto attento ai problemi legati al campionamento ed agli effetti dell’area del campionamento stesso sulle differenze numeriche nel valutare
l’incidenza di una specie all’interno del suo areale di distribuzione. “Prima riusciamo a ridurre lo “spazio” in “luoghi”, aumentando il loro numero e diminuendo
la loro estensione, più esatto sarà il test” [40].
In biologia marina, il concetto di comunità bentonica intesa come “unità statistica” è stato attribuito a Petersen, un biologo danese che nel 1896 utilizzò un campionatore di fondo con il fine di contare il numero effettivo di animali all’interno di
un volume noto di sedimento. Da allora, sebbene con le difficoltà relative
all’identificazione di metodi appropriati a valutare la presenza e la quantità degli
organismi in un’area o volume noti, i metodi quantitativi per lo studio della distribuzione degli organismi marini hanno contribuito a differenziare l’ecologia dalla
storia naturale [6].
Più recentemente Tobey [31] ha descritto l’introduzione dei quadrati ed il
conteggio delle forme vegetali al loro interno, come qualcosa in grado di rivoluzionare l’ecologia. Ancora oggi, lo studio per la definizione di tecniche di campionamento che permettano di descrivere precisamente ed in tempi ragionevoli la distribuzione e l’abbondanza degli organismi, rappresenta una linea di ricerca attuale ed
in continua crescita [2, 10, 14, 26].
I primi dati quantitativi misero in luce il fatto che le comunità marine, così
come quelle terrestri, sono intrinsecamente variabili, nel tempo e nello spazio. Già
negli anni trenta, MacGinitie [23] aveva rilevato l’importanza di tali variazioni anche tenendo conto di brevi intervalli di tempo fra le occasioni di campionamento, o
di uno spazio limitato fra i siti campionati in un ambiente apparentemente costante.
Successivamente si cominciò a ritenere lo studio di tali fluttuazioni come un “imperativo del lavoro futuro” [30, 37].
Attualmente, lo studio della variabilità nella distribuzione e nell’abbondanza
degli organismi su diverse scale spaziali e temporali si sta rivelando uno dei campi
più promettenti dell’ecologia [24]. Tuttavia, questa variabilità è vista spesso come
un impedimento alle generalizzazioni di modelli ecologici, sia perché questi modelli sono diventati popolari senza che vi fosse un’analisi sufficiente alla scala appropriata, sia perché nessun modello semplice può essere in grado di prevedere effettivamente modelli spaziali e temporali complessi. Poiché modelli differenti sono
il risultato di processi differenti, la documentazione della variabilità naturale nella
distribuzione dei popolamenti è un passaggio fondamentale prima che possano essere proposti modelli esplicativi appropriati [32].
122
Monitoraggio e modellistica ambientale
_________________________________________________________________________
Lo studio della variabilità dei popolamenti non è importante solo da un punto
di vista prettamente teorico. Esso infatti rappresenta un pre-requisito essenziale per
comprendere i processi ecologici prima che il disturbo antropico possa essere identificato e si possa pensare ad una gestione appropriata dell’ambiente. Per sintetizzare le difficoltà incontrate nella ricerca ecologica, potenzialmente capaci di limitare
fortemente una corretta gestione dell’ambiente, è bene ricordare quello che di recente hanno affermato alcuni autori [20]: gli esperimenti condotti in ambito ecologico prendono troppo tempo, la necessità di randomizzazione, di repliche (tema
critico nel metodo scientifico) e di siti di controllo sono difficili da raggiungere ed
infine, i sistemi ecologici hanno l’antipatica caratteristica di essere variabili nello
spazio e nel tempo.
2.3
La statistica univariata: la necessità e l’utilità di esplicitare le ipotesi
Il passaggio da osservazioni qualitative ad osservazioni quantitative si è verificato
in tutti i campi della scienza. In biologia, in particolare, l’importanza della statistica
nasce dalla necessità di giungere a quantificazioni nonostante il carattere di intrinseca variabilità del materiale biologico. Tuttavia, non è responsabilità dei metodi
statistici occuparsi di studiare le cause di tale variabilità e, inoltre, la statistica non
ha neppure il potere di rendere validi quei dati che sono stati raccolti senza alcun
costrutto. È importante che tutti gli esperimenti siano visti come una sequenza di
passaggi logici. Lo sperimentatore deve avere chiara tale sequenza in modo che le
conclusioni raggiunte durante l’esperimento possano essere giustificate in termini
di struttura logica nella quale sono state condotte. È dunque necessario definire alcune procedure che permettano la discriminazione fra spiegazioni alternative (o teorie) per i fenomeni osservati. Le procedure sperimentali sono test formali per le
richieste (previsioni o ipotesi) derivate da spiegazioni alternative. È necessario, iniziando un qualsiasi esperimento, procedere seguendo una scaletta precisa. Il primo
passo riguarda l’osservazione di determinati pattern di variabilità nello spazio e nel
tempo. L’osservazione porta alla definizione di un modello. Il modello viene testato sperimentalmente per convalidare o corroborare quantitativamente le osservazione fatte precedentemente. Consideriamo ad esempio l’osservazione che una determinata spugna si trovi solo oltre una certa profondità. A profondità inferiori ci
sono altri organismi ma non questa spugna. Questa è un’osservazione. Ci possono
essere vari modelli che spiegano questa distribuzione: un modello basato sulla
competizione (a profondità inferiori questa specie non è presente perché poco
competitiva rispetto ad altre), modello di stress fisiologico (fattori come la luce o
l’idrodinamismo ne prevengono l’insediamento). Ovviamente ce ne potrebbero essere molti altri.
A questo punto, per discriminare fra modelli alternativi, si possono proporre
differenti ipotesi logiche. Esse devono avere la proprietà di poter essere logicamente derivabili dal modello e devono essere relative a qualche osservazione che
Analisi dei dati ecologici e impatto ambientale
_________________________________________________________________________
123
non è stata ancora fatta. Cioè, non deve essere ancora stato osservato (nel caso si
voglia testare il modello basato sulla competizione) che in mancanza della specie
supposta essere competitivamente superiore, tale spugna cresca anche al di sopra
della profondità a cui sembra essere apparentemente relegata. Infatti, nel caso in
cui l’evento previsto sia già noto, devono già esistere le osservazioni per dimostrarlo.
Un’ipotesi non è altro che una previsione relativamente ad un evento non conosciuto, basato (o derivato da) un modello per spiegare le osservazioni fatte inizialmente. Avendo stabilito una previsione ipotetica relativamente a quello che potrebbe accadere sotto alcune condizioni sperimentali come conseguenza di un determinato modello, è essenziale testarla. Questo comporta il creare le condizioni
richieste dall’ipotesi e osservare i risultati. C’è ovviamente un problema nella logica che riguarda la natura delle prove. Provare che una previsione è vera richiede
quello che è conosciuto come argomento induttivo. Tecnicamente, le prove richiedono che sia disponibile ogni possibile osservazione. Oppure esse richiedono
l’assunzione che quanto accade in tutte le possibili circostanze non osservate possa
essere dedotto dai casi attualmente disponibili nell’esperimento. Il risultato non è
sempre praticabile e non è sempre possibile provare che qualche cosa si sia verificata. C’è sempre la possibilità che non ci sia sufficiente evidenza e che
l’osservazione contraria non si sia ancora manifestata. Per ovviare a questo problema si utilizza una procedura che viene definita di falsificazione, nella quale
un’ipotesi deve essere confutata, cosa che ovviamente risulta assai più diretta. Una
volta confutata, non c’è pericolo che ulteriori osservazioni possano alterare le conclusioni.
Nel nostro caso, l’ipotesi da confutare (ipotesi nulla) è che non vi siano differenze nella distribuzione della nostra spugna alle diverse profondità in presenza
della specie con cui si suppone che la nostra spugna competa. Non c’è la necessità
di fare alcuna assunzione relativamente ad osservazioni che non sono ancora state
fatte. Una volta che un’osservazione confuta qualche cosa, quella cosa rimane confutata. Il “trucco” consiste nel costruire quello che viene chiamata appunto ipotesi
nulla, affermazione opposta all’ipotesi e poi tentare di confutarla. La confutazione
dell’ipotesi nulla, per definizione, lascia l’ipotesi originale come unica alternativa.
Una volta che l’ipotesi nulla è stata proposta, deve essere testata da un esperimento. Una volta che si è concluso l’esperimento, dovrebbe essere possibile arrivare ad
una sola delle due possibili conclusioni. Una è che l’ipotesi nulla sia falsa (la spugna in effetti cresce alle profondità dove non sia presente l’altra specie che compete); l’altra è che l’ipotesi nulla sia vera (la spugna è uniformemente distribuita
alle diverse profondità). Il rifiuto dell’ipotesi nulla supporta l’ipotesi e, di conseguenza, il modello su cui è basato. Così il solo risultato appropriato di un esperimento è confutare l’ipotesi nulla o l’ipotesi alternativa. Nell’ambito della statistica
univariata, che si basa sulla serie di passaggi logici sopra descritti, uno degli strumenti più potenti e versatili nei disegni sperimentali è il set di procedure chiamato
analisi della varianza. Essa è caratterizzata da una base concettuale molto semplice
ma può essere utilizzata per analizzare molti aspetti della ricerca dei sistemi biolo-
124
Monitoraggio e modellistica ambientale
_________________________________________________________________________
gici. L’analisi della varianza è stata espressamente impostata per risolvere il problema di testare differenze fra medie di popolazioni. Essa è molto utilizzata sia negli esperimenti di tipo descrittivo (es. analizzare i pattern di distribuzione spaziale
di una popolazione) sia negli esperimenti che prevedono manipolazione delle variabili (es. esclusione dei brucatori da un’area e valutazione della risposta da parte
della componente algale). L’ipotesi nulla è che non vi sia nessuna differenza fra le
popolazioni, che quindi devono avere la stessa media nel parametro considerato.
Ogni allontanamento dall’ipotesi nulla può rappresentare un’alternativa valida, che
va dalla possibilità che solo una popolazione differisca dalle altre a quella che tutte
possano differire tra loro. Scostarsi dall’ipotesi nulla non vuol dire, infatti, che tutte
le popolazioni differiscano. Si tratta comunque di una serie complessa di passaggi,
ed è fuori dubbio che molti ricercatori abbiano risposto a questa complessità facendo esperimenti molto semplificati. Al contrario l’analisi della varianza rappresenta
uno strumento molto potente per identificare processi interattivi. Questi includono
variabilità nell’esito di processi quali la predazione, la competizione o il reclutamento che spesso variano marcatamente da sito a sito e nel tempo.
2.4
Il potere del test
Decidere quanto remota possa essere la possibilità di rigettare l’ipotesi nulla quando, in realtà, questa è vera è una scelta che spetta allo sperimentatore. Generalmente, per convenzione, si tende a scegliere una probabilità di 0,05, uno su venti.
Essa, come detto, viene scelta prima di procedere con il test statistico. Questa probabilità di 0,05 definisce la ragione di rifiuto dell’ipotesi nulla ed è generalmente
considerata una possibilità di errore accettabile. In altre parole, è convenzione essere preparati a rifiutare l’ipotesi nulla con meno di una possibilità su venti di farlo
scorrettamente. Infatti, il rifiuto dell’ipotesi nulla, anche avendo stabilito correttamente la regione del rifiuto in base alla probabilità selezionata, non è una conclusione certa. In statistica, si definisce errore di I Tipo la possibilità di rifiutare
l’ipotesi nulla quando questa è vera. Questa probabilità è comunemente conosciuta
come probabilità a. Il rifiuto dell’ipotesi nulla quando questa è vera avviene ogni
volta che un campione dei parametri della popolazione genera un test statistico
nella regione del rifiuto. Si tiene a bassa in modo da evitare questa situazione. Ma
può accadere di fare l’errore opposto, che si verifica quando l’ipotesi nulla dovrebbe essere rifiutata perché falsa ma viene invece accettata come vera. Questo viene
definito errore di II Tipo. Questa probabilità prende il nome di b. Di conseguenza
la probabilità di trattenere scorrettamente l’ipotesi nulla quando è vera l’ipotesi alternativa prende il nome di b. Il potere del test di rifiutare l’ipotesi nulla quando
l’ipotesi alternativa è vera rappresenta, di conseguenza, la probabilità di rigettare
correttamente l’ipotesi nulla in favore dell’alternativa. Il potere di un test può di
conseguenza essere definito nel seguente modo:
potere = 1 - probabilità di errore del II Tipo = 1 – b
Analisi dei dati ecologici e impatto ambientale
_________________________________________________________________________
125
La capacità da parte dei programmi di monitoraggio di individuare l’impatto
dipende in larga misura dal potere del test. Le componenti del potere dell’analisi
includono la percentuale di probabilità scelta per definire l’errore di I Tipo (in genere 0,05), le dimensioni del campionamento (il numero delle repliche e la loro distribuzione spaziale) e la variabilità intrinseca della variabile che si sta studiando.
Di queste ovviamente le prime due sono completamente sotto il controllo dello sperimentatore.
È da sottolineare che il presente capitolo è stato inserito perché un problema
con i disegni sperimentali di tipo univariato è legato al fatto che non è facile decidere il potere del test per individuare casi di impatto ambientale. Il potere del test
(1 – b), in questi casi, è la probabilità che l’impatto (se esiste) venga individuato e
rappresenta la probabilità che l’ipotesi nulla (nessun impatto) venga, correttamente,
rigettata. Nel caso più semplice, l’ipotesi ambientale che dovrebbe essere testata è
che esista un differente modello di cambiamento da prima a dopo il verificarsi di
un disturbo rispetto alle possibili variazioni rilevabili nei controlli. L’ipotesi nulla è
che vi sia un simile cambiamento fra aree disturbate e aree di controllo. Se si fallisce nell’individuazione dell’impatto quando questo, di fatto, esiste, si commette un
errore di II Tipo perché si arriva alla conclusione che l’ipotesi nulla sia vera. Può
però anche accadere di compiere un errore di I Tipo quando il risultato di un programma di monitoraggio suggerisca la presenza di un impatto quando questo, di
fatto, non esiste. Le conseguenze di questi due tipi di errori sono molto diverse:
l’errore di I Tipo potrebbe significare necessità di studi ulteriori e maggiore attenzione al problema. Ci potrebbe essere certamente come conseguenza una perdita di
tempo e di denaro. Ma incorrere nell’errore di II Tipo porterà ad un ulteriore deterioramento ambientale. In questo caso il costo è in termini ambientali [27, 35].
2.5
Dall’analisi univariata alla multivariata
Vi è una differenza di base fra l’analisi univariata e l’analisi multivariata. Nel primo caso, l’analisi va a testare un’ipotesi che deve essere verificata o falsificata.
L’analisi multivariata, a parte rare eccezioni, non prevede la possibilità di testare
un’ipotesi. Si potrebbe quindi dire che l’analisi multivariata, per certi aspetti, è meno rigorosa nell’analisi dei dati. Tuttavia, la complessità dei sistemi ecologici, con
il loro elevato numero di specie e con differenti variazioni temporali di cambiamento nelle popolazioni, ha richiesto nuovi approcci di studio che possono essere
soddisfatti dall’analisi multivariata. Il migliore approccio, soprattutto nei lavori di
impatto, vede l’utilizzo di entrambi gli strumenti di analisi. L’analisi multivariata si
basa su tecniche di classificazione e di ordinamento dei dati. La classificazione dei
dati (o cluster analysis) ha il fine di trovare gruppi naturali per cui campioni
all’interno di un gruppo sono più simili fra di loro di campioni che provengono da
gruppi differenti. La cluster analysis può essere condotta sulle specie campionate in
diversi siti in più di una occasione di campionamento, per definire quei taxa che
tendono ad essere presenti insieme in modo simile.
126
Monitoraggio e modellistica ambientale
_________________________________________________________________________
Un ordinamento è una mappa dei campioni di solito in due o tre dimensioni,
in cui il posizionamento dei campioni riflette la similarità delle comunità biologiche. Alle distanze fra campioni sull’ordinamento tentano di corrispondere le similarità o dissimilarità della struttura di comunità. Le tecniche di ordinamento sono
molto numerose e sono utilizzate per visualizzare rapporti spaziali e/o temporali fra
campioni di organismi. Fra le altre, è possibile citare: Principal Components Analysis (PCA), la Principal Co-ordinates Analysis (PcoA), la Correspondence Analysis (CA) e la Detrended Correspondence Analysis (DECORANA), il non-metric
Multidimensional Scaling (nMDS).
Attualmente, la tecnica del non-metric Multi Dimensional Scaling è molto utilizzata nei lavori di impatto. Alla base, vi è un algoritmo numericamente piuttosto
complesso anche se concettualmente molto semplice che ha potuto affermarsi negli
ultimi anni perché facilitato dallo sviluppo della tecnologia informatica. Questa
tecnica di ordinamento dei campioni è associata a nuove tecniche di analisi statistica che hanno come fine quello di aiutare ad identificare differenze fra i campioni
[8]. I vari passaggi sono descritti in dettaglio nella review di Clarke [8].
I dati sono organizzati all’interno di una matrice caratterizzata da p righe (le
specie) ed n colonne (i campioni). È necessario avere campioni replicati in corrispondenza dei siti rilevanti a valutare un impatto, possibilmente seguiti nel tempo.
Le similarità di ogni possibile coppia di repliche nell’intero set di campioni viene
poi trasformata nel proprio ordine di rango. Se esiste una qualsiasi forma di impatto
ambientale che agisce sulla comunità nell’area impattata, l’MDS dovrebbe isolare i
campioni presi nell’area impattata rispetto a quelli presi nell’area dei controlli (figura 2.1).
Anche l’analisi delle similarità (ANOSIM) si sta rivelando molto utile
nell’ambito dell’analisi multivariata [8]. In questo caso si può esplicitare
un’ipotesi: ad esempio che non ci siano differenze nella composizione della struttura di comunità in tre siti campionati. L’analisi delle similarità valuta le differenze
fra gruppi di campioni che siano stati definiti a priori usando tecniche di permutazione/randomizzazione sulla matrice di similarità prodotta con il cluster, e ottenendo inoltre anche una percentuale di significatività. Tutte queste tecniche di analisi
si sono rivelate molto utili nel valutare cambiamenti ambientali, quando le tecniche
univariate si siano rivelate incapaci di farlo perché i campioni da analizzare sono
troppo differenti fra loro (è corretto dire a causa di varianze troppo elevate). In
termini ecologici, inoltre, l’analisi di un’intera comunità è uno strumento molto robusto per valutare se si sia verificato qualche cambiamento nel sistema.
2.6
La statistica e la valutazione di impatto ambientale
È stato fatto molto lavoro per migliorare la struttura, la logica e le tecniche di procedure analitiche per valutare i cambiamenti che possono verificarsi nell’ambiente
[18, 19].
Analisi dei dati ecologici e impatto ambientale
_________________________________________________________________________
127
L’impatto è stato definito come un fenomeno in grado di produrre
un’interazione di tipo statistico nelle differenze di abbondanza nel confronto fra il
sito disturbato ed i siti di controllo da prima a dopo il verificarsi di un disturbo.
Questa definizione sottolinea la necessità di analizzare un impatto ambientale
quantificando come le differenze temporali (da prima a dopo il disturbo [9]), non
dovrebbero essere le stesse nell’area soggetta a disturbo e in un’area indisturbata
ma con simili caratteristiche (area controllo o riferimento). Si tratta di un importante progresso concettuale per due ragioni.
Primo, focalizza l’attenzione sul fatto che è necessario aspettarsi naturali cambiamenti temporali nei popolamenti e di conseguenza non essere fuorviati dal pensiero che tutti i cambiamenti siano per forza dovuti al disturbo indotto dall’uomo.
Inoltre, le analisi delle interazioni permettono di valutare un ampio spettro di ipotesi relativamente a differenti tipi di impatto. Tali riflessioni, inizialmente proposte
da da Green [18] furono successivamente sviluppate da Berstein e Zalinski [3] e da
Stewart-Oaten et alii [28] per le analisi di un unico sito di controllo da confrontare
con quello disturbato (e potenzialmente impattato). Più recentemente, vi è stato un
crescendo di attenzione sulla necessità di analizzare le variabili scelte in più di
un’area di controllo [33].
Questo ove vi siano nella variabile scelta prima del disturbo differenti pattern
spazio-temporali tra il sito controllo e il sito disturbato [28].
Tali interazioni precludono possibili interpretazioni. Dove vi siano differenti
siti di controllo, invece, l’ampiezza delle interazioni può essere valutata e può essere esaminata la “variazione” in più dovuta al disturbo [33, 34].
Questi disegni sperimentali richiedono che i dati vengano raccolti con lo stesso
criterio prima e dopo che si sia verificato l’impatto e prendono il nome di “beyond
BACI experiments” (che si potrebbe tradurre come “evoluzione degli esperimenti
Prima-Dopo”) perché prevedono controlli multipli [33]. Molto spesso, tuttavia non
è possibile disporre di dati precedenti l’impatto stesso. In questo caso, l’impatto
può essere valutato solo se i controlli sono abbastanza numerosi da consentire un
confronto “asimmetrico” con il sito protetto. Solo utilizzando controlli multipli, infatti, gli effetti dell’impatto saranno distinti dalla variabilità naturale fra i differenti
siti (ACI, After Control Impact [16]).
I controlli devono essere scelti randomicamente da un set di siti simili fra di
loro. La variabilità naturale fa sì che sia quasi impossibile che i siti di controllo siano identici a quello impattato. Tuttavia, l’opera di monitoraggio fornirà prove di
evidenza causale diretta solo se saranno trovati controlli adatti.
La scelta dei controlli deve sottostare ai seguenti criteri [7, 17, 33]:
•
•
•
•
non devono essere influenzati dall’impatto;
devono avere lo stesso tipo di comunità dell’area impattata;
devono avere le stesse caratteristiche di habitat di quelle dell’area impattata;
devono essere scelte in base ad una scala spaziale in grado di coprire le potenzialità di dispersione delle popolazioni campionate;
128
Monitoraggio e modellistica ambientale
_________________________________________________________________________
•
devono infine tenere conto di differenti scale spaziali nel caso in cui non sia
conosciuta la scala spaziale interessata dall’impatto.
FREQUENZA DI CAMPIONAMENTO. Il disegno sperimentale deve tenere in considerazione il turnover degli organismi. Questo aspetto è spesso sottovalutato e la scelta
della frequenza del campionamento è molte volte arbitraria (ad esempio mensile o
stagionale) e non adeguata alle ipotesi testate dal disegno di campionamento. In
molti casi è importante identificare la variabilità intra-stagionale [34].
Nel caso di alta variabilità, infatti, un singolo campionamento stagionale, anche ottenuto con un numero adeguato di unità di campionamento, può condurre
all’ottenimento di valori poco realistici. In questo modo, la variabilità a breve termine può confondere le differenze fra stagioni. La migliore soluzione è scegliere
randomicamente diverse occasioni di campionamento (che devono essere le stesse
per tutti i siti) per ciascuna stagione. Questo è in grado di mettere in evidenza come
i trend osservati non sono dovuti a fluttuazioni a breve termine.
I disegni sperimentali sopra descritti sono stati concepiti per testare ipotesi con
tecniche di analisi univariata ma possono essere impostati su studi di comunità in
modo che tali analisi possano essere integrate da tecniche di analisi multivariata.
La maggior parte dei metodi di analisi multivarata, tuttavia, come accennato in precedenza, non è in grado di verificare la presenza di interazioni e non misura
l’ampiezza di tali interazioni fra differenze spaziali e temporali [8, 38].
_____________________________________________________________
I
C1
C2
_____________________________________________________________
Fig. 2.1. Un esempio di MDS condotto su dati provenienti da uno studio di impatto
ambientale: è evidente la separazione fra l’impatto ed i controlli. Da notare
anche la maggiore variabilità fra repliche presente nel sito impattato (I = sito
impattato, C1 e C2 = siti di controllo)
Analisi dei dati ecologici e impatto ambientale
_________________________________________________________________________
129
Tali disegni di campionamento, inoltre, sono appropriati per le valutazioni di
cambiamento ambientale ad ogni livello di organizzazione biologica (cellulare, fisiologica, ecc.) dove siano necessarie analisi univariate.
VARIABILITÀ E STRESS. Nonostante si stiano accumulando molti dati sulla variabilità delle popolazioni, molto meno conosciute sono le cause di tale variabilità. Alcuni autori hanno costruito un modello per studiare le interazioni fra disturbo, dispersione degli organismi ed esclusione competitiva in un ambiente a mosaico il
quale, fra le altre cose, prevede un aumento nell’eterogeneità spaziale dei popolamenti con l’aumento del disturbo [5].
Prendendo in analisi una serie di studi di impatto ambientale, alcuni autori,
hanno messo in evidenza che la variabilità fra repliche in aree impattate era molto
maggiore di quella osservata nei siti di controllo [39] (figura 2.1).
___________________________________________________________________
___________________________________________________________________
Fig. 2.2. Rapporto fra variabilità e stress in una comunità di substrato duro subtidale.
In ascissa vengono riportati i valori relativi alla valutazione del danno al substrato roccioso causato dall’opera di smantellamento della roccia stessa da
parte dei pescatori di datteri di mare. In ordinata vengono riportati i valori di
dissimilarità fra repliche (n=3) calcolati per ciascun sito di campionamento.
Alti valori di dissimilarità sono indice di alta variabilità fra repliche. La relazione fra le variabili è descritta da una regressione polinomiale (modificato
da [12]). La dimensione dei martelli simboleggia l’entità del disturbo
130
Monitoraggio e modellistica ambientale
_________________________________________________________________________
Essi suggeriscono che vi sono due cause potenziali nel determinare l’aumento
di variabilità fra repliche: quella dovuta ad un aumento nella variabilità di abbondanza dello stesso gruppo di specie e quella dovuta ai cambiamenti nell’identità
delle specie. L’analisi univariata, che tiene conto dell’abbondanza relativa delle
specie ha messo in evidenza differenze significative solo per il macrobenthos,
mentre ha dato risposte piuttosto equivoche per gli altri comparti ecologici su cui è
stata condotta. L’analisi multivariata che tiene conto dell’intero set delle specie,
mostra chiaramente un aumento della variabilità con un aumento della perturbazione per tutti i comparti analizzati. Tuttavia, il rapporto fra variabilità a piccola scala
e il disturbo continua ad essere oggetto di studio spesso con risultati discordanti.
Ad esempio, in uno studio di impatto da scarico fognario nel subtidale di fondo duro nel sud dell’Australia, i popolamenti dei siti di controllo erano tanto variabili
quanto nei siti inquinati [7]. In Puglia, il disturbo alle comunità di substrato duro
subtidale dovuto all’opera di smantellamento della roccia da parte dei pescatori di
datteri di mare Lithophaga lithophaga [11] è legato alla variabilità a piccola scala
da una relazione a campana (figura 2.2) [12]. In questo caso, la variabilità tra repliche è maggiore a livelli intermedi di disturbo e decresce all’aumentare del disturbo
o in assenza dello stesso. Andamenti simili sembrano verificarsi anche in comunità
di substrato duro soggette allo sversamento di acque di scarico fognario [29].
2.7
L’istituzione di Aree Marine Protette come impatto ambientale
Il recente riconoscimento del profondo impatto antropico sugli ecosistemi marini
ha portato ad un forte sviluppo della politica di salvaguardia di tali sistemi. Negli
ultimi anni, uno dei mezzi di protezione che ha ricevuto maggiore attenzione è
quello delle riserve marine. L’utilità delle riserve marine, oggi è generalmente riconosciuta sia negli ambienti politici che in quelli scientifici poiché le riserve possono offrire un tipo di protezione non previsto da altre strategie di gestione: specifica protezione di aree critiche, prevenzione dei fenomeni di sovrasfruttamento degli stock ittici, miglioramento della resa di pesca di tipo artigianale, possibilità di
sviluppo socio-economico-culturale compatibile con le esigenze di protezione e
salvaguardia dei patrimoni naturali [1, 4].
Sino ad oggi la progettazione di AMP e la valutazione della loro eventuale efficacia non è stata supportata da rigorosi ed appropriati programmi di campionamento [13, 22].
La maggior parte dei programmi di monitoraggio è stata sviluppata per testare
il possibile impatto (negativo) di attività antropiche quali la presenza di porticcioli,
fogne e centrali termoelettriche [34]. Tuttavia, non esiste alcuna ragione logica per
non estendere queste procedure nella valutazione dell’efficacia delle Aree Marine
Protette. In questo caso l’impatto è rappresentato dalla misura dell’efficacia dei
vincoli di protezione cui l’AMP è soggetta. Sviluppare una strategia di monitorag-
Analisi dei dati ecologici e impatto ambientale
_________________________________________________________________________
131
gio, comunque, sottintende che venga chiaramente esplicitato il fine che
l’istituzione della riserva si prefigge (massimizzare la biodiversità nelle riserve e la
densità delle popolazioni, mantenere la produzione anche all’esterno delle riserve
stesse).
Gli effetti di impatto antropico possono essere rilevati molto bene tramite il disegno di campionamento “beyond BACI” [36]. Raramente, tuttavia, le Aree Marine Protette future vengono monitorate prima dell’istituzione dell’AMP stessa. In
questo caso, l’impatto determinato dall’istituzione di una riserva può essere valutato attraverso il confronto tra area “impattata” e controlli multipli. Solo utilizzando
controlli multipli, infatti, gli effetti della protezione saranno distinti dalla variabilità
“naturale”. È da considerare che le Aree Marine Protette sono scelte per le loro caratteristiche di unicità (ad esempio la presenza di particolari specie, “hot spot”
(punti arricchiti) di diversità, aree di riproduzione) e l’individuazione di controlli è
una procedura piuttosto difficoltosa [15]. Tuttavia, l’opera di monitoraggio fornirà
prove di evidenza causale diretta solo se saranno trovati controlli adatti, a discriminare tra variabilità naturale e variabilità indotta dall’istituzione dell’AMP.
BIBLIOGRAFIA
1.
ALLISON G.W., LUBCHENCO J., CARR M.H., 1998, Marine reserves are necessary but
not sufficient for marine conservation, «Ecological Applications», 8, pp. 79-92.
2. BENEDETTI-C ECCHI L., A IROLDI L., A BBIATI M., CINELLI F., 1996, Estimating the
abundance of benthic invertebrates: a comparison of procedures and variability between observers, «Marine Ecology Progress Series», 138, pp. 93-101.
3. BERNSTEIN B.B., ZALINSKI J., 1983, An optimum sampling design and power test for
environmental biologists, «Journal of Environmental Management», 16, pp. 335-343.
4. BOERO F., BRIAN F., MICHELI F., 1999, Scientific design and monitoring of Mediterranean Marine Protected Areas. «CIESM Workshop Series», 8, pp. 64.
5. CASWELL H., COHEN J.E., 1991, Communities in patchy environments: a model of disturbance, competition, and heterogeneity, in «Ecological heterogeneity», a cura di
Kolasawa J. & Pickett S.T.A., Springer-Verlag, New York, pp. 97-122.
6. CHAPMAN R. N., 1931, Animal ecology, with especial reference to the insects, New
York: McGraw-Hill.
7. C HAPMAN M.G., UNDERWOOD A.J., SKILLETER G.A., 1995, Variability at different
spatial scales between a subtidal assemblage exposed to the discharge of sewage and
two control assemblages, «Journal of Experimental Marine Biology and Ecology»,
189, pp. 103-122.
8. CLARKE K.R., 1993, Non parametric multivariate analyses of changes in community
structure, «Australian Journal of Ecology», 18, pp. 117-143.
9. CONNELL J.H., 1978, Diversity in tropical rain forests and coral reefs, «Science», 199,
pp. 1302-1310.
10. D ETHIER M.N., GRAHAM E.S., COHEN S., TEAR L.M., 1993, Visual versus randompoint percent cover estimations: ‘objective’ is not always better, «Marine Ecology
Progress Series», 96, pp. 93-100.
132
Monitoraggio e modellistica ambientale
_________________________________________________________________________
11. FANELLI G., PIRAINO S., BELMONTE G., GERACI S., BOERO F., 1994, Human predation
along Apulian rocky coasts (SE Italy): desertification caused by Lithophaga lithophaga
(Mollusca) fisheries, «Marine Ecology Progress Series», 110, pp. 1-8.
12. FRASCHETTI S., BIANCHI C.N., TERLIZZI A., FANELLI G., MORRI C., BOERO F., 2001,
Spatial variability and human disturbance in shallow subtidal hard substrate assemblages: a regional approach, «Marine Ecology Progress Series», 212, pp. 1-12.
13. GARCÍA-CHARTON J.A., PÉREZ-RUZAFA A., 1999, Ecological heterogeneity and the
evaluation of the effects of marine reserves, «Fisheries Research», 42, pp. 1-20.
14. G ILI J.M., ROS J., 1985, Study and cartography of the benthic communities of the
Medes Islands (NE Spain), «PSZN, Marine Ecology», 6, pp. 219-238.
15. G LASBY T.M., 1997, Analysing data from post-impact studies using asymmetrical
analyses of variance: a case study of epibiota on marinas, «Australian Journal of Ecology», 22, pp. 448-459.
16. GLASBY T.M., 1998, Estimating spatial variability in developing assemblages of epibiota on subtidal hard substrata, «Marine and Freshwater Research», 49, pp. 429-437.
17. GLASBY T.M., UNDERWOOD A.J., 1998, Determining position for control locations in
environmental studies of estuarine marinas, «Marine Ecology Progress Series», 171,
pp. 1-14.
18. GREEN R.H., 1979, Sampling design and Statistical methods for environmental biologists, Wiley, Chichester.
19. GREEN R.H., 1993, Application of repeated measure designs in environmental impact
and monitoring studies, «Australian Journal of Ecology», 18, pp. 81-98.
20. HILBORN R., LUDWIG D., 1993, The limits of applied ecological research, «Ecological
Application», 3, pp. 550-552.
21. H UMBOLT A., B ONPLAND A., 1807, Essai sur le Geographie des Plantes, Paris, Librarie Lebrault Schoell.
22. LASIAK T., 1999, The putative impact of exploitation on rocky infratidal macrofaunal
assemblage: a multiple-area comparison, «Journal of the Marine Biological Association of the UK», 79, pp. 23-34.
23. M ACGINITIE G.E., 1939, Littoral marine communities, «American Midland Naturalist», 21, pp. 28-55.
24. MENCONI M., BENEDETTI-CECCHI L., CINELLI F., 1999, Spatial and temporal variability in the distribution of algae and invertebrates on rocky shores in the Northwest
Mediterranean, «Journal of Experimental Marine Biology and Ecology», 233, pp. 123.
25. PETERS R.H., 1991, A critique for ecology, Cambridge, Cambridge University Press.
26. R OBERTS D.E., FITZHENRY S.R., KENNELLY S.J., 1994, Quantifying subtidal macrobenthic assemblages on hard substrata using a jump camera method, «Journal of Experimental Marine Biology and Ecology», 177, pp. 157-170.
27. SCHRADER-FRECHETTE K.S., MC C OY E.D., 1992, Statistics, costs and rationality in
ecological inference, «Trends in Ecology and Evolution», 7, pp. 96-99.
28. STEWART-OATEN A., MURDOCH W.M., PARKER K.R., 1986, Environmental impact assessment ‘pseudoreplication’ in time?, «Ecology», 67, pp. 929-940.
29. TERLIZZI A., FRASCHETTI S., GUIDETTI P., BOERO F., 2001, The effects of a sewage
discharge on a shallow hard-substrate sessile assemblages, «Marine Pollution Bulletin», in stampa
30. T HORSON G., 1957, Bottom communities (sublittoral or shallow shelf), «Geological
Society of American Memoir», 67, pp. 461-534.
Analisi dei dati ecologici e impatto ambientale
_________________________________________________________________________
133
31. TOBEY R., 1981, Theoretical sciences and technology in American ecology, «Technology and Culture», 17, pp. 718-728.
32. UNDERWOOD A.J., 1990, Experiments in ecology and management: their logics, functions and interpretations, «Australian Journal of Ecology», 15, pp. 365-389.
33. UNDERWOOD A.J., 1992, Beyond BACI: the detection of environmental impacts on
populations in the real, but variable, world, «Journal of Experimental Marine Biology
and Ecology», 161, pp. 145-178.
34. UNDERWOOD A.J., 1993, The mechanism of spatially replicated sampling programmes
to detect environmental impacts in a variable world, «Australian Journal of Ecology»,
18, pp. 99-116.
35. UNDERWOOD A.J., 1996, Detection, interpretation, prediction and management of environmental disturbances: some roles for experimental marine ecology, «Journal of
Experimental Marine Biology and Ecology», 200, pp. 1-27.
36. UNDERWOOD A.J., 1996, On beyond BACI: sampling designs that might reliably detect
environmental disturbances, in «Detecting ecological impacts, concepts and applications in coastal habitats», a cura di R. J. Smith, C. W. Osenberg, Academic Press, pp.
151-175.
37. UNDERWOOD A.J., 1997, Experiments in ecology. Their logical design and interpretation using analysis of variance, Cambridge University Press, Cambridge.
38. UNDERWOOD A.J., CHAPMAN M.G., 1998, Spatial analyses of intertidal assemblages
on sheltered rocky shores, «Australian Journal of Ecology», 23, pp. 138-157.
39. WARWICK R.M., CLARKE K.R., 1993, Increased variability as a symptom of stress in
marine communities, «Journal of Experimental Marine Biology and Ecology», 172, pp.
215-226.
40. WATSON H.G., 1874, Cybele Britannica; or, British Plants and their geographical relations, London, Longman.
Scarica